Графовая нейронная сеть

Из Википедии, бесплатной энциклопедии

Графовая нейронная сеть ( GNN ) принадлежит к классу искусственных нейронных сетей для обработки данных, которые могут быть представлены в виде графов . [1] [2] [3] [4] [5]

Основные строительные блоки графовой нейронной сети (GNN). Перестановочно-эквивариантный слой. Локальный слой пула. Слой глобального пула (или считывания). Цвета обозначают особенности .

В более общем предмете «геометрического глубокого обучения » некоторые существующие архитектуры нейронных сетей можно интерпретировать как GNN, работающие на соответствующим образом определенных графах. [6] Слой сверточной нейронной сети в контексте компьютерного зрения можно рассматривать как GNN, применяемую к графам, узлами которых являются пиксели , и только соседние пиксели соединены ребрами в графе. Уровень преобразователя полным при обработке естественного языка можно рассматривать как GNN, применяемую к графам , узлами которых являются слова или токены в отрывке текста на естественном языке .

Ключевым элементом конструкции GNN является использование парной передачи сообщений , при которой узлы графа итеративно обновляют свои представления, обмениваясь информацией со своими соседями. С момента их создания было предложено несколько различных архитектур GNN. [2] [3] [7] [8] [9] которые реализуют различные варианты передачи сообщений, [6] [10] началось рекурсивно [2] или сверточный конструктив [3] подходы. По состоянию на 2022 год , можно ли определить архитектуру GNN, «выходящую за пределы» передачи сообщений, или каждая GNN может быть построена на передаче сообщений по соответствующим образом определенным графам, остается открытым исследовательским вопросом. [11]

Соответствующие области применения GNN включают обработку естественного языка , [12] социальные сети , [13] сети цитирования , [14] молекулярная биология , [15] химия, [16] [17] физика [18] и NP-трудные задачи комбинаторной оптимизации . [19]

несколько с открытым исходным кодом , реализующих графовые нейронные сети, такие как PyTorch Geometric. библиотек Доступно [20] ( PyTorch ), TensorFlow GNN [21] ( TensorFlow ), jraph [22] ( Google JAX ) и GraphNeuralNetworks.jl [23] /GeometricFlux.jl [24] ( Юлия , Флюкс ).

Архитектура [ править ]

Архитектура универсальной GNN реализует следующие фундаментальные уровни : [6]

  1. Эквивариант перестановки : слой, эквивалентный перестановке, отображает представление графа в обновленное представление того же графа. В литературе эквивариантные слои перестановок реализуются посредством попарной передачи сообщений между узлами графа. [6] [11] Интуитивно понятно, что на уровне передачи сообщений узлы обновляют свои представления, агрегируя сообщения , полученные от их непосредственных соседей. Таким образом, каждый уровень передачи сообщений увеличивает рецептивное поле GNN на один шаг.
  2. Локальное объединение : слой локального объединения делает график более грубым за счет понижающей дискретизации . Локальное объединение используется для увеличения рецептивного поля GNN аналогично объединению слоев в сверточных нейронных сетях . Примеры включают пул k-ближайших соседей , пул top-k, [25] и объединение внимания к себе. [26]
  3. Глобальное объединение : уровень глобального объединения, также известный как слой чтения , обеспечивает представление всего графа фиксированного размера. Уровень глобального пула должен быть инвариантным к перестановкам, чтобы перестановки в порядке узлов и ребер графа не меняли конечный результат. [27] Примеры включают поэлементную сумму, среднее или максимальное значение.

Было продемонстрировано, что GNN не могут быть более выразительными, чем тест изоморфизма графов Вейсфейлера-Лемана . [28] [29] На практике это означает, что существуют разные графовые структуры (например, молекулы с одинаковыми атомами, но разными связями ), которые не могут быть различимы с помощью GNN. более мощные GNN, работающие с геометриями более высокой размерности, такими как симплициальные комплексы . Могут быть разработаны [30] [31] [10] По состоянию на 2022 год , смогут ли будущие архитектуры преодолеть примитив передачи сообщений, остается открытым исследовательским вопросом. [11]

Неизоморфные графы, которые невозможно отличить с помощью GNN из-за ограничений теста на изоморфизм графов Вейсфейлера-Лемана. Цвета обозначают особенности узла .

Уровни передачи сообщений [ править ]

Обновление представления узла на уровне нейронной сети передачи сообщений (MPNN). Узел получает сообщения, отправленные всеми его непосредственными соседями к . Сообщения вычисляются с помощью функции сообщения. , который учитывает особенности как отправителей, так и получателей.

Слои передачи сообщений — это слои, эквивалентные перестановкам, отображающие граф в обновленное представление того же графа. Формально их можно выразить как нейронные сети передачи сообщений (MPNN). [6]

Позволять быть графом , где это набор узлов и это набор ребер. Позволять быть окрестностью некоторого узла . Кроме того, пусть быть особенностями узла , и быть чертами края . MPNN Уровень можно выразить следующим образом: [6]

где и являются дифференцируемыми функциями (например, искусственные нейронные сети ), и является к перестановке инвариантным оператором агрегирования , который может принимать произвольное количество входных данных (например, поэлементную сумму, среднее или максимальное значение). В частности, и называются функциями обновления и сообщения соответственно. Интуитивно понятно, что в вычислительном блоке MPNN узлы графа обновляют свои представления, агрегируя сообщения , полученные от своих соседей.

Выходные данные одного или нескольких слоев MPNN являются представлениями узлов. для каждого узла в графике. Представления узлов можно использовать для любой последующей задачи, такой как классификация узлов/графов или прогнозирование ребер.

Узлы графа в MPNN обновляют свое представление, агрегируя информацию от своих непосредственных соседей. Таким образом, укладка Уровни MPNN означают, что один узел сможет взаимодействовать с узлами, которые находятся не более «прыгает» прочь. В принципе, чтобы гарантировать, что каждый узел получает информацию от каждого другого узла, необходимо сложить количество слоев MPNN, равное диаметру графа . Однако наложение большого количества слоев MPNN может вызвать такие проблемы, как чрезмерное сглаживание. [32] и чрезмерное раздавливание. [33] Чрезмерное сглаживание означает, что представления узлов становятся неразличимыми. Чрезмерное сжатие относится к узкому месту, которое создается путем сжатия долгосрочных зависимостей в представления фиксированного размера. Контрмеры, такие как пропуск соединений [8] [34] (как в остаточных нейронных сетях ), правила закрытого обновления [35] и прыжковые знания [36] может смягчить чрезмерное сглаживание. Изменение последнего слоя, чтобы он стал полностью смежным слоем, т. е. рассматривая граф как полный граф , может уменьшить чрезмерное сжатие в задачах, где требуются зависимости на большие расстояния. [33]

В литературе были разработаны и другие «разновидности» MPNN. [6] такие как сверточные сети на графах [7] и графические сети внимания, [9] определения которых могут быть выражены в терминах формализма MPNN.

Графовая сверточная сеть [ править ]

Сверточная сеть графов (GCN) была впервые представлена ​​Томасом Кипфом и Максом Веллингом в 2017 году. [7]

Слой GCN определяет аппроксимацию первого порядка локализованного спектрального фильтра на графах. GCN можно понимать как обобщение сверточных нейронных сетей на данные с графовой структурой.

Формальное выражение слоя GCN выглядит следующим образом:

где - матрица представлений узлов , это матрица особенностей узла , функция активации (например, ReLU ), графов — матрица смежности с добавлением петель, графа - матрица степеней с добавлением петель, а представляет собой матрицу обучаемых параметров.

В частности, пусть — матрица смежности графа: тогда можно определить и , где обозначает единичную матрицу . Эта нормализация гарантирует, что собственные значения ограничены в диапазоне , избегая числовых нестабильностей и взрывающихся/исчезающих градиентов .

Ограничением GCN является то, что они не допускают многомерных краевых элементов. . [7] Однако возможно связать скалярные веса к каждому краю, наложив , т. е. устанавливая каждый ненулевой элемент в матрице смежности равным весу соответствующего ребра.

Сеть графического внимания [ править ]

Сеть внимания на графах (GAT) была представлена ​​Петром Величковичем и др. в 2018 году. [9]

Графовая сеть внимания представляет собой комбинацию графовой нейронной сети и слоя внимания. Реализация слоя внимания в графических нейронных сетях помогает привлечь внимание или сосредоточиться на важной информации из данных, а не на всех данных.

Уровень GAT с несколькими головками можно выразить следующим образом:

где количество голов внимания , обозначает конкатенацию векторов , функция активации (например, ReLU ), – коэффициенты внимания, а представляет собой матрицу обучаемых параметров для - внимание головы.

Для последнего уровня GAT выходные данные каждой головки внимания усредняются перед применением функции активации. Формально последний уровень GAT можно записать так:

Внимание в машинном обучении — это метод, имитирующий когнитивное внимание . В контексте обучения на графиках коэффициент внимания измеряет , насколько важен узел узел .

Нормированные коэффициенты внимания рассчитываются следующим образом:

где вектор обучаемых весов, указывает на транспозицию и представляет собой модифицированную функцию активации ReLU . Коэффициенты внимания нормализованы, чтобы их можно было легко сравнивать на разных узлах. [9]

GCN можно рассматривать как частный случай GAT, где коэффициенты внимания не подлежат изучению, а фиксированы и равны весам ребер. .

вентилируемой графовой последовательностью сеть с Нейронная

Нейронная сеть с последовательностями вентильных графов (GGS-NN) была представлена ​​Yujia Li et al. в 2015 году. [35] GGS-NN расширяет формулировку GNN Скарселли и др. [2] для вывода последовательностей. Структура передачи сообщений реализована как правило обновления ячейки закрытой рекуррентной единицы (GRU).

GGS-NN можно выразить следующим образом:

где обозначает конкатенацию векторов , вектор нулей, представляет собой матрицу обучаемых параметров, является ячейкой ГРУ, и обозначает индекс последовательности. В GGS-NN представления узлов рассматриваются как скрытые состояния ячейки GRU. Начальные характеристики узла дополняются нулями до скрытого измерения состояния ячейки GRU. Одна и та же ячейка GRU используется для обновления представлений для каждого узла.

Слои локального пула [ править ]

Слои локального пула огрубляют график за счет понижения разрешения. Мы представляем здесь несколько предложенных доступных для изучения стратегий локального объединения. [27] Для каждого случая входными данными являются исходный граф, представленный матрицей узловых признаков и матрица смежности графа . Результатом является новая матрица особенностей узлов и новая матрица смежности графов .

Объединение Top-k [ править ]

Мы сначала установили

где — обучаемый вектор проекции . Вектор проекции вычисляет значение скалярной проекции для каждого узла графа.

Слой объединения top-k [25] тогда можно формализовать следующим образом:

где — подмножество узлов с топ-k наивысшими оценками проекций, обозначает поэлементное умножение матриц , а это сигмовидная функция . Другими словами, узлы с наивысшими показателями проекции из топ-k сохраняются в новой матрице смежности. . операция создает вектор проекции обучаемый методом обратного распространения ошибки , который в противном случае давал бы дискретные выходные данные. [25]

Объединение внимания к себе [ править ]

Мы сначала установили

где представляет собой общий уровень GNN, эквивалентный перестановке (например, GCN, GAT, MPNN).

Уровень объединения внимания [26] тогда можно формализовать следующим образом:

где — подмножество узлов с топ-k наивысшими оценками проекций, обозначает поэлементное умножение матриц .

Уровень объединения самообслуживания можно рассматривать как расширение слоя объединения top-k. В отличие от пула top-k, оценки самовнимания, вычисленные при пуле самоконтроля, учитывают как функции графа, так и топологию графа.

Приложения [ править ]

Сворачивание белка [ править ]

Графовые нейронные сети являются одним из основных строительных блоков AlphaFold , программы искусственного интеллекта, разработанной для решения Google DeepMind проблемы сворачивания белков в биологии . AlphaFold занял первое место в нескольких соревнованиях CASP . [37] [38] [36]

Социальные сети [ править ]

Социальные сети являются основной областью применения GNN из-за их естественного представления в виде социальных графов . GNN используются для разработки рекомендательных систем, основанных как на социальных отношениях , так и на отношениях предметов. [39] [13]

Комбинаторная оптимизация [ править ]

GNN используются в качестве фундаментальных строительных блоков для нескольких алгоритмов комбинаторной оптимизации. [40] Примеры включают вычисление кратчайших путей или эйлеровых схем для заданного графа. [35] обеспечение размещения чипов, превосходящего или конкурентоспособного по сравнению с решениями, созданными вручную, [41] и улучшение разработанных экспертами правил ветвления в ветви и границе . [42]

Кибербезопасность [ править ]

Если рассматривать сеть компьютеров в виде графа, ее можно проанализировать с помощью GNN для обнаружения аномалий. Аномалии в графах происхождения часто коррелируют со злонамеренной активностью внутри сети. GNN использовались для выявления этих аномалий на отдельных узлах. [43] и внутри путей [44] для обнаружения вредоносных процессов или на периферийном уровне [45] для обнаружения бокового движения .

Ссылки [ править ]

  1. ^ Ву, Линфэй; Цуй, Пэн; Пей, Цзянь; Чжао, Лян (2022). «Графовые нейронные сети: основы, границы и приложения» . Спрингер Сингапур : 725.
  2. ^ Перейти обратно: а б с д Скарселли, Франко; Гори, Марко; Цой, А Чунг; Хагенбухнер, Маркус; Монфардини, Габриэле (2009). «Модель графовой нейронной сети» . Транзакции IEEE в нейронных сетях . 20 (1): 61–80. дои : 10.1109/ТНН.2008.2005605 . ISSN   1941-0093 . ПМИД   19068426 . S2CID   206756462 .
  3. ^ Перейти обратно: а б с Микели, Алессио (2009). «Нейронная сеть для графов: контекстно-конструктивный подход» . Транзакции IEEE в нейронных сетях . 20 (3): 498–511. дои : 10.1109/ТНН.2008.2010350 . ISSN   1045-9227 . ПМИД   19193509 . S2CID   17486263 .
  4. ^ Санчес-Ленгелинг, Бенджамин; Рейф, Эмили; Пирс, Адам; Вильчко, Алекс (02 сентября 2021 г.). «Нежное введение в графовые нейронные сети» . Дистиллировать . 6 (9): е33. дои : 10.23915/distill.00033 . ISSN   2476-0757 .
  5. ^ Дайгаване, Амейя; Равиндран, Балараман; Аггарвал, Гаурав (2 сентября 2021 г.). «Понимание сверток на графах» . Дистиллировать . 6 (9): е32. дои : 10.23915/distill.00032 . ISSN   2476-0757 . S2CID   239678898 .
  6. ^ Перейти обратно: а б с д Это ж г Бронштейн, Михаил М.; Бруна, Джоан; Коэн, Тако; Величкович, Петар (4 мая 2021 г.). «Геометрическое глубокое обучение: сетки, группы, графики, геодезия и датчики». arXiv : 2104.13478 [ cs.LG ].
  7. ^ Перейти обратно: а б с д Кипф, Томас Н; Веллинг, Макс (2016). «Полуконтролируемая классификация с использованием сверточных сетей на графах» . Транзакции IEEE в нейронных сетях . 5 (1): 61–80. arXiv : 1609.02907 . дои : 10.1109/ТНН.2008.2005605 . ПМИД   19068426 . S2CID   206756462 .
  8. ^ Перейти обратно: а б Гамильтон, Уильям; Инь, Рекс; Лесковец, Юре (2017). «Индуктивное обучение представлению на больших графах» (PDF) . Нейронные системы обработки информации . 31 . arXiv : 1706.02216 – через Стэнфорд.
  9. ^ Перейти обратно: а б с д Величкович, Петар; Кукурулл, Гиллем; Казанова, Арантча; Ромеро, Адриана; Лио, Пьетро; Бенджио, Йошуа (04 февраля 2018 г.). «Графовые сети внимания». arXiv : 1710.10903 [ stat.ML ].
  10. ^ Перейти обратно: а б Хаджидж, М.; Замзми, Г.; Папамарку, Т.; Миолане, Н.; Гусман-Саенс, А.; Рамамурти, КНЦ; Шауб, Монтана (2022). «Топологическое глубокое обучение: выход за рамки графических данных». arXiv : 2206.00606 .
  11. ^ Перейти обратно: а б с Величкович, Петар (2022). «Сообщение проходит весь путь вверх». arXiv : 2202.11097 [ cs.LG ].
  12. ^ Ли, Шученг; Лонг, Бо (2023) Ву, Линфэй , . Шен, Кай; Го, Сяоцзе ; в машинном обучении . 16 (2): 119–328. arXiv : 2106.06090 . doi : 10.1561/2200000096 . ISSN   1941-0093 . PMID   19068426. . S2CID   206756462 Тенденции
  13. ^ Перейти обратно: а б Инь, Рекс; Он, Разрушающий; Чен, Кайфэн; Эксомбатчай, Понг; Гамильтон, Уильям Л.; Лесковец, Юре (2018). Сверточные нейронные сети на графах для рекомендательных систем веб-масштаба . стр. 974–983. arXiv : 1806.01973 . дои : 10.1145/3219819.3219890 . ISBN  9781450355520 . S2CID   46949657 .
  14. ^ «Стэнфордская коллекция больших сетевых наборов данных» . Snap.stanford.edu . Проверено 5 июля 2021 г.
  15. ^ Чжан, Вэйхан; Цуй, Ян; Лю, Боуэн; Лоза, Мартин; Пак, Сон Джун; Накаи, Кента (1 декабря 2023 г.). «HyGAnno: аннотация типа ячейки на основе гибридного графа нейронной сети для данных секвенирования ATAC для одной ячейки». дои : 10.1101/2023.11.29.569114 . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  16. ^ Гилмер, Джастин; Шенхольц, Сэмюэл С.; Райли, Патрик Ф.; Виньялс, Ориол; Даль, Джордж Э. (17 июля 2017 г.). «Нейронная передача сообщений в квантовой химии» . Труды исследований машинного обучения : 1263–1272. arXiv : 1704.01212 .
  17. ^ Коли, Коннор В.; Цзинь, Венгун; Роджерс, Люк; Джеймисон, Тимоти Ф.; Яаккола, Томми С.; Грин, Уильям Х.; Барзилай, Регина; Йенсен, Клавс Ф. (2 января 2019 г.). «Граф-сверточная нейронная сетевая модель для прогнозирования химической реактивности» . Химическая наука . 10 (2): 370–377. дои : 10.1039/C8SC04228D . ISSN   2041-6539 . ПМК   6335848 . ПМИД   30746086 .
  18. ^ Касим, Шах Рукх; Киселер, Ян; Иияма, Ютаро; Пьерини, Маурицио Пьерини (2019). «Изучение представлений нерегулярной геометрии детектора частиц с помощью сетей графов, взвешенных по расстоянию» . Европейский физический журнал C . 79 (7): 608. arXiv : 1902.07987 . Бибкод : 2019EPJC...79..608Q . doi : 10.1140/epjc/s10052-019-7113-9 . S2CID   88518244 .
  19. ^ Ли, Чжувэнь; Чен, Цифэн; Колтун, Владлен (2018). «Комбинаторная оптимизация со сверточными сетями на графах и управляемым поиском по дереву». Нейронные системы обработки информации . 31 : 537–546. arXiv : 1810.10659 . дои : 10.1007/978-3-030-04221-9_48 .
  20. ^ Матиас, Фей; Ленссен, Ян Э. (2019). «Быстрое обучение представлению графов с помощью PyTorch Geometric». arXiv : 1903.02428 [ cs.LG ].
  21. ^ «Тензорный поток ГНН» . Гитхаб . Проверено 30 июня 2022 г.
  22. ^ "jraph". GitHub. Retrieved 30 June 2022.
  23. ^ Лусибелло, Карло (2021). "GraphNeuralNetworks.jl" . Гитхаб . Проверено 21 сентября 2023 г.
  24. ^ FluxML/GeometricFlux.jl , FluxML, 31 января 2024 г. , получено 3 февраля 2024 г.
  25. ^ Перейти обратно: а б с . «Graph U-Nets » Гао, Хунъян Цзи 2019 , Шуйван Цзи ( ) .
  26. ^ Перейти обратно: а б Ли, Чунхён; Ли, Иньеп; Канг, Джэу (2019). «Объединение графов самовнимания». arXiv : 1904.08082 [ cs.LG ].
  27. ^ Перейти обратно: а б Лю, Чжан, Ибин; Ду, Бо; Ху, Вэньбинь; Лю, Тао, Дачэн (2022). .arXiv 2204.07321 : . [ cs.LG ]
  28. ^ Дуглас, БЛ (27 января 2011 г.). «Метод Вейсфейлера-Лемана и проверка изоморфизма графов». arXiv : 1101.5211 [ math.CO ].
  29. ^ Сюй, Кейулу; Ху, Вэйхуа; Лесковец, Юре; Джегелька, Стефани (22 февраля 2019 г.). «Насколько мощны графовые нейронные сети?». arXiv : 1810.00826 [ cs.LG ].
  30. ^ Боднар, Кристиан; Фраска, Фабрицио; Гуан Ван, Ю; Выдра, Нина; Монтуфар, Гвидо; Лио, Питер; Бронштейн, Михаил (2021). «Вайсфейлер и Леман переходят к топологии: простые сети передачи сообщений» arXiv : 2103.03212 [ cs.LG ].
  31. ^ Грейди, Лео; Полимени, Джонатан (2011). Дискретное исчисление: прикладной анализ графиков для вычислительной техники (PDF) . Спрингер.
  32. ^ Чен, Дели; Лин, Янкай; Ли, Вэй; Ли, Пэн; Чжоу, Цзе; Сунь, Сюй (2020). «Измерение и решение проблемы чрезмерного сглаживания графовых нейронных сетей с топологической точки зрения». Материалы конференции AAAI по искусственному интеллекту . 34 (4): 3438–3445. arXiv : 1909.03211 . дои : 10.1609/aaai.v34i04.5747 . S2CID   202539008 .
  33. ^ Перейти обратно: а б Алон, Ури; Яхав, Эран (2021). «Об узком месте графовых нейронных сетей и их практических последствиях». arXiv : 2006.05205 ​​[ cs.LG ].
  34. ^ Сюй, Кейулу; Чжан, Можи; Джегелька, Стефани; Кавагути, Кендзи (2021). «Оптимизация графовых нейронных сетей: неявное ускорение за счет пропуска соединений и большей глубины». arXiv : 2105.04550 [ cs.LG ].
  35. ^ Перейти обратно: а б с Ли, Юцзя; Тарлоу, Дэниел; Брокшмидт, Марк; Земель, Ричард (2016). «Нейронные сети с последовательностями закрытых графов». arXiv : 1511.05493 [ cs.LG ].
  36. ^ Перейти обратно: а б Сюй, Ченгтао; Сонобе, Томохиро; Каварабаяши, Кен-ичи ( ; ) 2018 . Стефани .
  37. ^ Сэмпл, Ян (2 декабря 2018 г.). «DeepMind от Google предсказывает трехмерные формы белков» . Хранитель . Проверено 30 ноября 2020 г. .
  38. ^ «ИИ компании DeepMind, сворачивающий белки, решил грандиозную проблему биологии, возникшую 50 лет назад» . Обзор технологий Массачусетского технологического института . Проверено 30 ноября 2020 г. .
  39. ^ Фань, Вэньци; Ли, Цин; Тан, Цзилян; Инь, Давэй , . стр ) 417–426 . 2019 ( 10.1145/ HDL ISBN : 10397/81232 . 3308558.3313488  9781450366748 . S2CID   67769538 .
  40. ^ Каппарт, Квентин; Шетела, Дидье; Халил, Элиас; Лоди, Андреа; Моррис, Кристофер; Величкович, Петар (2021). «Комбинаторная оптимизация и рассуждения с помощью графовых нейронных сетей». arXiv : 2102.09544 [ cs.LG ].
  41. ^ Мирхосейни, Азалия; Голди, Анна; Язган, Мустафа; Цзян, Джо Вэньцзе; Сонгори, Эбрагим; Ван, Шен; Ли, Ён-Джун; Джонсон, Эрик; Патхак, Омкар; Нацист, Азаде; Пак, Джиу; Тонг, Энди; Шриниваса, Кавья; Повесь, Уильям; Тунсер, Эмре; Ле, Куок В.; Лаудон, Джеймс; Хо, Ричард; Карпентер, Роджер; Дин, Джефф (2021). «Методология размещения графиков для быстрого проектирования чипов». Природа . 594 (7862): 207–212. Бибкод : 2021Natur.594..207M . doi : 10.1038/s41586-021-03544-w . ПМИД   34108699 . S2CID   235395490 .
  42. ^ Гассе, Максим; Шетела, Дидье; Феррони, Никола; Шарлен, Лоран; Лоди, Андреа (2019). «Точная комбинаторная оптимизация с помощью сверточных нейронных сетей на графах». arXiv : 1906.01629 [ cs.LG ].
  43. ^ Ван, Чжилиан, Тао; Сунь, Инь, Ся; Хан, Дунци, Хан; Ян, Цзяхай (2022) . «Уровень узла посредством изучения графа происхождения» Транзакции экспертизе и безопасности . 7506 2111.04333 arXiv : 10.1109 . doi : / . по   . IEEE TIFS.2022.3208815   . информационной
  44. ^ Ван, Ци; Хасан, Ваджи Ул; Ли, Дин; Господи, Кангкук; Ю, Сяо (2020). «Вы — то, что вы делаете: охота на скрытое вредоносное ПО с помощью анализа происхождения данных» . Симпозиум по безопасности сетей и распределенных систем (NDSS) . дои : 10.14722/ndss.2020.24167 . ISBN  978-1-891562-61-7 . S2CID   211267791 .
  45. ^ Кинг, Исайя Дж.; Хуанг, Х. Хоуи (2022). «Эйлер: обнаружение поперечного движения сети посредством масштабируемого прогнозирования временных связей» (PDF) . В материалах 29-го симпозиума по безопасности сетей и распределенных систем (NDSS) . дои : 10.14722/ndss.2022.24107 . S2CID   248221601 .

Внешние ссылки [ править ]