1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/mirrors-hmgnn

Клонировать/Скачать
README.md 4.4 КБ
Копировать Редактировать Web IDE Исходные данные Просмотреть построчно История
gitlife-traslator Отправлено 01.12.2024 03:21 0851694

Реализация гетерогенной нейронной сети с использованием нескольких мини-графов в TensorFlow

Использование
Задача (полу)контролируемой классификации узлов в графе.

Введение
Сначала мы представляем механизм на основе kNN для объединения разнообразных, но похожих графов, а затем представляем механизм внимания для изучения важности разнородной информации. Чтобы улучшить представление разреженных и многомерных признаков, создаётся соединение в стиле остаточной связи, которое встраивает ванильные признаки в скрытое состояние.

Обзор

Общая архитектура нашего предложения показана здесь. Левая часть иллюстрирует генерацию гиперграфов на основе kNN с учётом обычных признаков узлов и их связанных отношений. Мы объединяем матрицу признаков сгенерированных гиперузлов из разных подграфов с входной матрицей признаков, чтобы сформировать окончательное представление признаков, которое подаётся в нейронные сети. Прогноз делается на основе изученного скрытого состояния, полученного из средней процедуры. Разные цвета узлов и рёбер указывают на разные типы узлов и отношений.

pic

Требования

TensorFlow (>=1.12), pandas, numpy.

Быстрый старт

python HMGNN.py

Данные

Данные, используемые в быстром старте, — это набор данных Cora. Набор данных Cora состоит из 2708 научных публикаций, классифицированных по одному из семи классов. Набор данных Cora сохранён как .npy в каталоге ./data:
— labels.npy: форма=(2708, 7). Каждая публикация классифицируется по одному из семи классов;
— features.npy: форма=(2708, 1433). Каждая публикация описывается вектором слов 0/1. Словарь состоит из 1433 слов;
— edges_mat.npy: форма=(2, 10556). Граф состоит из 10 556 ссылок, и каждый элемент в edges_mat.npy представляет node_id.

Объяснение параметров

Параметры определены в hparam.py. Основные параметры включают:
— feature dimensions: feature_dim=1433;
— epochs=10;
— learning_rate=0.0005;
— использование внимания: attention=True;
— использование ванильных признаков: residual=True.

Производительность

Мы сравниваем наше предложение, HMGNN, с GCN, одним из классических подходов, основанных на свёрточных сетях графа. Обучающий набор данных используется для обучения модели, в то время как выбор модели основан на производительности на проверочном наборе данных. Рассматривается мера точности. Наш предложенный метод достигает лучшей производительности.

HMGNN GCN
train_acc 0.908 0.860
val_acc 0.867 0.854

В таблице выше показана точность HMGNN и GCN. На рисунках показаны подробные кривые потерь и точности на обучающем и проверочном наборах данных.

pic

Опубликовать ( 0 )

Вы можете оставить комментарий после Вход в систему

1
https://api.gitlife.ru/oschina-mirror/mirrors-hmgnn.git
git@api.gitlife.ru:oschina-mirror/mirrors-hmgnn.git
oschina-mirror
mirrors-hmgnn
mirrors-hmgnn
master