Топологическое глубокое обучение
Топологическое машинное обучение (TML) — это область исследований, расположенная на стыке вычислительной топологии и машинного обучения . В отличие от многих других методов машинного обучения , методы TML предлагают единую перспективу, которая позволяет изучать различные виды данных, включая облака точек , сетки , временные ряды , скалярные поля (например, изображения ), графики или общие топологические пространства, такие как симплициальные комплексы и Комплексы ХО . [1]
Особого внимания заслуживает ветвь топологического машинного обучения — топологическое глубокое обучение (TDL) . [2] [3] [4] [5] [6] [7] Точно так же, как методы глубокого обучения устраняют необходимость в явном проектировании признаков , методы TDL могут изучать представления для конкретных задач на основе входных данных. Более того, методы TDL можно использовать модульным образом, например, в качестве слоев глубокой нейронной сети, что обеспечивает их плавную интеграцию в существующие глубокого обучения . архитектуры моделей [8] [9] [10] [11] TDL также включает в себя методы вычислительной и алгебраической топологии , которые позволяют изучать свойства нейронных сетей и их процесса обучения, такие как их прогнозирующая производительность или свойства обобщения. [12] [13] [14] [15] [16] [17]
История и мотивация
[ редактировать ]Традиционные методы глубокого обучения часто работают в предположении, что набор данных находится в высокоструктурированном пространстве (например, в изображениях , где сверточные нейронные сети демонстрируют выдающуюся производительность по сравнению с альтернативными методами) или евклидовом пространстве . Распространение новых типов данных, в частности графов , сеток и молекул , привело к разработке новых методов, кульминацией которых стала область геометрического глубокого обучения , которая изначально предлагала перспективу обработки сигналов для обработки таких типов данных. [18] Первоначально ограничиваясь графами, где связность определяется на основе узлов и ребер, последующая работа расширила концепции на более широкий спектр типов данных, включая симплициальные комплексы. [19] и комплексы ХО , [20] с недавней работой, предлагающей единый взгляд на передачу сообщений в общих комбинаторных комплексах. [2]
Независимый взгляд на различные типы данных возник в результате топологического анализа данных , который предложил новую структуру для описания структурной информации данных, то есть их «формы», которая по своей сути учитывает множество масштабов данных, начиная от локальной информации до глобальной информации. . [21] Хотя сначала они ограничивались меньшими наборами данных, в последующей работе были разработаны новые дескрипторы, которые эффективно суммировали топологическую информацию наборов данных, чтобы сделать их доступными для традиционных методов машинного обучения, таких как машины опорных векторов или случайные леса . Такие дескрипторы варьировались от новых методов проектирования признаков до новых способов предоставления подходящих координат для топологических дескрипторов. [22] [23] [24] или создание более эффективных мер по устранению различий . [25] [26] [27] [28]
Современные исследования в этой области в основном связаны либо с интеграцией информации о базовой топологии данных в существующие модели глубокого обучения , либо с поиском новых способов обучения в топологических областях.
Введение в топологические области
[ редактировать ]Одной из основных концепций топологического глубокого обучения является область, в которой определяются и поддерживаются эти данные. В случае евклидовых данных, таких как изображения, этот домен представляет собой сетку, на которой поддерживается значение пикселя изображения. В более общей ситуации этот домен может быть топологическим доменом . Далее мы представляем наиболее распространенные топологические области, которые встречаются в условиях глубокого обучения. Эти области включают, помимо прочего, графы, симплициальные комплексы, клеточные комплексы, комбинаторные комплексы и гиперграфы.
Учитывая конечное множество S абстрактных сущностей, функция окрестности на S — это присваивание, которое привязывается к каждой точке в S подмножество S или отношение . Такую функцию можно индуцировать, снабдив S структурой вспомогательной . Ребра предоставляют один из способов определения отношений между сущностями S . Более конкретно, ребра в графе позволяют определить понятие соседства, используя, например, понятие соседства с одним переходом. Однако возможности моделирования ребер ограничены, поскольку их можно использовать только для моделирования бинарных отношений между объектами S, поскольку каждое ребро обычно связано с двумя объектами. Во многих приложениях желательно разрешить отношения, включающие более двух объектов. Идея использования отношений, включающих более двух сущностей, занимает центральное место в топологических областях. Такие отношения более высокого порядка позволяют определить более широкий диапазон функций соседства на S, чтобы фиксировать многосторонние взаимодействия между объектами S .
Далее мы рассмотрим основные свойства, преимущества и недостатки некоторых часто изучаемых топологических областей в контексте глубокого обучения, включая (абстрактные) симплициальные комплексы, регулярные клеточные комплексы, гиперграфы и комбинаторные комплексы.
Сравнение топологических областей
[ редактировать ]Каждая из перечисленных топологических областей имеет свои особенности, преимущества и ограничения:
- Симплициальные комплексы
- Простейшая форма доменов высшего порядка.
- Расширения графовых моделей.
- Допустите иерархические структуры, что сделает их пригодными для различных приложений.
- Теорию Ходжа можно естественным образом определить на симплициальных комплексах.
- Требовать, чтобы отношения были подмножествами более крупных отношений, что накладывает ограничения на структуру.
- Клеточные комплексы
- Обобщите симплициальные комплексы.
- Обеспечьте большую гибкость в определении отношений более высокого порядка.
- Каждая клетка клеточного комплекса гомеоморфна открытому шару, соединенному между собой посредством прикрепления карт.
- Граничные клетки каждой клетки клеточного комплекса также являются клетками комплекса.
- Представлено комбинаторно через матрицы инцидентности.
- Гиперграфики
- Разрешить произвольные отношения типа множества между сущностями.
- Отношения не навязываются другими отношениями, что обеспечивает большую гибкость.
- Не кодируйте явно размерность ячеек или отношений.
- Полезно, когда отношения в данных не подчиняются ограничениям, налагаемым другими моделями, такими как симплициальные и клеточные комплексы.
- Комбинаторные комплексы [2] :
- Обобщите и ликвидируйте пробелы между симплициальными комплексами, клеточными комплексами и гиперграфами.
- Разрешить иерархические структуры и отношения типа множества.
- Объедините функции других комплексов, обеспечивая при этом большую гибкость при моделировании отношений.
- Могут быть представлены комбинаторно, подобно клеточным комплексам.
Иерархическая структура и отношения типа множества
[ редактировать ]Свойства симплициальных комплексов, клеточных комплексов и гиперграфов порождают две основные особенности отношений в областях более высокого порядка, а именно иерархию отношений и отношения множественного типа. [2]
Функция ранга
[ редактировать ]Функция ранга в области высшего порядка X — это функция, сохраняющая порядок rk : X → Z , где rk ( x ) присваивает неотрицательное целочисленное значение каждому отношению x в X , сохраняя включение множества в X . Клеточные и симплициальные комплексы являются распространенными примерами областей высшего порядка, оснащенных функциями ранга и, следовательно, иерархиями отношений. [2]
Отношения типа множества
[ редактировать ]Отношения в области более высокого порядка называются отношениями множественного типа, если существование отношения не подразумевается другим отношением в области. Гиперграфы представляют собой примеры областей высшего порядка, оснащенных отношениями типа множества. Учитывая ограничения моделирования симплициальных комплексов, клеточных комплексов и гиперграфов, мы разрабатываем комбинаторный комплекс, область более высокого порядка, которая включает в себя как иерархии отношений, так и отношения множественного типа. [2]
Изучение топологических пространств
[ редактировать ]Задачи обучения в TDL можно разделить на три категории: [2]
- Классификация ячеек : прогнозирование целей для каждой ячейки в комплексе. Примеры включают сегментацию треугольной сетки, где задача состоит в том, чтобы предсказать класс каждой грани или края в данной сетке.
- Сложная классификация : прогнозирование целей для всего комплекса. Например, предскажите класс каждой входной сетки.
- Предсказание ячейки : предскажите свойства межклеточных взаимодействий в комплексе и, в некоторых случаях, предскажите, существует ли ячейка в комплексе. Примером может служить прогнозирование связей между сущностями в гиперребрах гиперграфа.
На практике для решения вышеупомянутых задач необходимо построить и реализовать модели глубокого обучения, предназначенные для конкретных топологических пространств. Эти модели, известные как топологические нейронные сети, созданы для эффективной работы в этих пространствах.
Топологические нейронные сети
[ редактировать ]Центральное место в TDL занимают топологические нейронные сети (TNN) , специализированные архитектуры, предназначенные для работы с данными, структурированными в топологических доменах. [3] [2] В отличие от традиционных нейронных сетей, предназначенных для сетчатых структур, TNN способны обрабатывать более сложные представления данных, такие как графы, симплициальные комплексы и комплексы ячеек. Используя внутреннюю топологию данных, TNN могут фиксировать как локальные, так и глобальные взаимосвязи, обеспечивая детальный анализ и интерпретацию.
Топологические нейронные сети передачи сообщений
[ редактировать ]В общей топологической области передача сообщений более высокого порядка включает обмен сообщениями между объектами и ячейками с использованием набора функций соседства.
Определение: передача сообщений высшего порядка в общей топологической области.
Позволять быть топологической областью. Определим набор функций окрестности на . Рассмотрим ячейку и пусть для некоторых . Сообщение между клетками и — это вычисление, зависящее от этих двух ячеек или данных, содержащихся в них. Обозначим как мультисет , и пусть представляют некоторые данные, поддерживаемые в ячейке на слое . сообщения высшего порядка Передача , [2] [29] вызванный , определяется следующими четырьмя правилами обновления:
- , где — функция агрегирования внутри соседства.
- , где — функция агрегирования между районами.
- , где являются дифференцируемыми функциями.
Некоторые замечания по приведенному выше определению заключаются в следующем.
Во-первых, уравнение 1 описывает, как сообщения вычисляются между ячейками. и . Сообщение влияют как данные и связанный с клетками и , соответственно. Кроме того, он включает в себя характеристики, специфичные для самих клеток, такие как ориентация в случае клеточных комплексов. Это обеспечивает более богатое представление пространственных отношений по сравнению с традиционными системами передачи сообщений на основе графов.
Во-вторых, уравнение 2 определяет, как сообщения из соседних ячеек агрегируются внутри каждого района. Функция объединяет эти сообщения, позволяя эффективно обмениваться информацией между соседними ячейками в одном районе.
В-третьих, уравнение 3 описывает процесс объединения сообщений из разных районов. Функция объединяет сообщения из различных районов, облегчая связь между ячейками, которые могут не быть связаны напрямую, но имеют общие отношения соседства.
В-четвертых, уравнение 4 определяет, как агрегированные сообщения влияют на состояние ячейки на следующем уровне. Здесь функция обновляет состояние ячейки исходя из его текущего состояния и агрегированное сообщение полученные из соседних ячеек.
Топологические нейронные сети без передачи сообщений
[ редактировать ]Хотя большинство TNN следуют парадигме передачи сообщений из обучения графов , было предложено несколько моделей, которые не следуют этому подходу. Например, Мэггс и др. [30] использовать геометрическую информацию из встроенных симплициальных комплексов, т. е. симплициальных комплексов с многомерными характеристиками, прикрепленными к их вершинам. Это обеспечивает интерпретируемость и геометрическую согласованность, не полагаясь на передачу сообщений. Кроме того, в [31] для изучения симплициального представления был предложен контрастный метод, основанный на потерях.
Приложения
[ редактировать ]TDL быстро находит новые приложения в различных областях, включая сжатие данных, [32] повышение выразительности и прогнозирующей производительности графовых нейронных сетей , [19] [20] [33] признание действий, [34] и прогнозирование траектории. [35]
Ссылки
[ редактировать ]- ^ Урай, Мартин; Джунти, Барбара; Кербер, Майкл; Хубер, Стефан (01 октября 2024 г.). «Топологический анализ данных в интеллектуальном производстве: современное состояние и будущие направления» . Журнал производственных систем . 76 : 75–91. дои : 10.1016/j.jmsy.2024.07.006 . ISSN 0278-6125 .
- ^ Jump up to: а б с д и ж г час я дж к л Хаджидж, М.; Замзми, Г.; Папамарку, Т.; Миолане, Н.; Гусман-Саенс, А.; Рамамурти, КНЦ; Шауб, М.Т. (2022), Топологическое глубокое обучение: выход за рамки графических данных , arXiv : 2206.00606
- ^ Jump up to: а б Папийон, М.; Санборн, С.; Хаджидж, М.; Миолане, Н. (2023). «Архитектуры топологического глубокого обучения: обзор топологических нейронных сетей». arXiv : 2304.10031 [ cs.LG ].
- ^ Эбли, С.; Дефферрард, М.; Шпреманн, Г. (2020), Симплициальные нейронные сети , arXiv : 2010.03633
- ^ Баттилоро, К.; Теста, Л.; Джусти, Л.; Сарделлитти, С.; Ди Лоренцо, П.; Барбаросса, С. (2023), Обобщенные симплициальные нейронные сети внимания , arXiv : 2309.02138
- ^ Ян, М.; Исуфи, Э. (2023), Сверточное обучение симплициальных комплексов , arXiv : 2301.11163
- ^ Чен, Ю.; Гель, ЮР; Бедный, Х.В. (2022), «BScNets: Блок симплициальных сложных нейронных сетей», Труды конференции AAAI по искусственному интеллекту , 36 (6): 6333–6341, arXiv : 2112.06826 , doi : 10.1609/aaai.v36i6.20583
- ^ Хофер, Кристоф; Квитт, Роланд; Нитхаммер, Марк; Уль, Андреас (2017). «Глубокое обучение с топологическими сигнатурами» . Достижения в области нейронных систем обработки информации . 30 . Карран Ассошиэйтс, Инк.
- ^ Карьер, Матье; Шазал, Фредерик; Айк, Юичи; Лакомб, Тео; Ройер, Мартин; Умеда, Юхэй (03.06.2020). «PersLay: уровень нейронной сети для диаграмм устойчивости и новых топологических сигнатур графов» . Материалы двадцать третьей международной конференции по искусственному интеллекту и статистике . ПМЛР: 2786–2796.
- ^ Ким, Кванхо; Ким, Джису; Захир, Манзил; Ким, Джун; Шазал, Фредерик; Вассерман, Ларри (2020). «PLLay: эффективный топологический слой на основе устойчивых ландшафтов» . Достижения в области нейронных систем обработки информации . 33 . Curran Associates, Inc.: 15965–15977.
- ^ Габриэльссон, Рикард Брюль; Нельсон, Брэдли Дж.; Дваракнатх, Анджан; Скраба, Примоз (03.06.2020). «Уровень топологии для машинного обучения» . Материалы двадцать третьей международной конференции по искусственному интеллекту и статистике . ПМЛР: 1553–1563.
- ^ Бьянкини, Моника; Скарселли, Франко (2014). «О сложности классификаторов нейронных сетей: сравнение мелкой и глубокой архитектуры» . Транзакции IEEE в нейронных сетях и системах обучения . 25 (8): 1553–1565. дои : 10.1109/TNNLS.2013.2293637 . ISSN 2162-237X .
- ^ Найцат, Грегори; Житников Андрей; Лим, Лек-Хенг (2020). «Топология глубоких нейронных сетей» (PDF) . Журнал исследований машинного обучения . 21 (1): 184:7503–184:7542. ISSN 1532-4435 .
- ^ Бирдал, Толга; Лу, Аарон; Гибас, Леонидас Дж; Симсекли, Умут (2021). «Внутреннее измерение, стойкая гомология и обобщение в нейронных сетях» . Достижения в области нейронных систем обработки информации . 34 . Curran Associates, Inc.: 6776–6789.
- ^ Баллестер, Рубен; Клементе, Ксавье Арнал; Касакуберта, Карлес; Мадади, Мейсам; Корняну, Чиприан А.; Эскалера, Серджио (2024). «Прогнозирование разрыва обобщения в нейронных сетях с использованием топологического анализа данных» . Нейрокомпьютинг . 596 : 127787. arXiv : 2203.12330 . дои : 10.1016/j.neucom.2024.127787 .
- ^ Рик, Бастиан; Тоньялли, Маттео; Бок, Кристиан; Мур, Майкл; Хорн, Макс; Гамбш, Томас; Боргвардт, Карстен (27 сентября 2018 г.). «Нейронная устойчивость: мера сложности глубоких нейронных сетей, использующих алгебраическую топологию» . Международная конференция по обучению представлений .
- ^ Дюпюи, Бенджамин; Делигианнидис, Джордж; Симсекли, Умут (3 июля 2023 г.). «Границы обобщения с использованием фрактальных измерений, зависящих от данных» . Материалы 40-й Международной конференции по машинному обучению . ПМЛР: 8922–8968.
- ^ Бронштейн, Михаил М.; Бруна, Джоан; ЛеКун, Янн; Шлам, Артур; Вандергейнст, Пьер (2017). «Геометрическое глубокое обучение: выход за рамки евклидовых данных» . Журнал обработки сигналов IEEE . 34 (4): 18–42. дои : 10.1109/MSP.2017.2693418 . ISSN 1053-5888 .
- ^ Jump up to: а б Боднар, Кристиан; Фраска, Фабрицио; Ван, Югуан; Выдра, Нина; Монтуфар, Гвидо Ф.; Лио, Пьетро; Бронштейн, Михаил (01 июля 2021 г.). «Вейсфейлер и Леман переходят к топологии: симплициальные сети передачи сообщений» . Материалы 38-й Международной конференции по машинному обучению . ПМЛР: 1026–1037.
- ^ Jump up to: а б Боднар, Кристиан; Фраска, Фабрицио; Выдра, Нина; Ван, Югуан; Лио, Пьетро; Монтуфар, Гвидо Ф; Бронштейн, Михаил (2021). «Weisfeiler и Lehman переходят на сотовую связь: сети CW» . Достижения в области нейронных систем обработки информации . 34 . Curran Associates, Inc.: 2625–2640.
- ^ Карлссон, Гуннар (29 января 2009 г.). «Топология и данные» . Бюллетень Американского математического общества . 46 (2): 255–308. дои : 10.1090/S0273-0979-09-01249-X . ISSN 0273-0979 .
- ^ Адкок, Аарон; Карлссон, Эрик; Карлссон, Гуннар (2016). «Кольцо алгебраических функций на персистентных штрих-кодах» . Гомология, гомотопия и приложения . 18 (1): 381–402. дои : 10.4310/HHA.2016.v18.n1.a21 .
- ^ Адамс, Генри; Эмерсон, Теган; Кирби, Майкл; Невилл, Рэйчел; Петерсон, Крис; Шипман, Патрик; Чепуштанова Софья; Хэнсон, Эрик; Мотта, Фрэнсис; Зигельмайер, Лори (2017). «Изображения стойкости: стабильное векторное представление постоянной гомологии» . Журнал исследований машинного обучения . 18 (8): 1–35. ISSN 1533-7928 .
- ^ Бубеник, Питер (2015). «Статистический топологический анализ данных с использованием ландшафтов устойчивости» . Журнал исследований машинного обучения . 16 (3): 77–102. ISSN 1533-7928 .
- ^ Квитт, Роланд; Хубер, Стефан; Нитхаммер, Марк; Лин, Вейли; Бауэр, Ульрих (2015). «Статистический топологический анализ данных — взгляд на ядро» . Достижения в области нейронных систем обработки информации . 28 . Карран Ассошиэйтс, Инк.
- ^ Каррьер, Матье; Кутури, Марко; Удо, Стив (17 июля 2017 г.). «Нарезанное ядро Вассерштейна для диаграмм устойчивости» . Материалы 34-й Международной конференции по машинному обучению . ПМЛР: 664–673.
- ^ Кусано, Генки; Фукумидзу, Кендзи; Хираока, Ясуаки (2018). «Метод ядра для диаграмм постоянства посредством встраивания ядра и весового коэффициента» . Журнал исследований машинного обучения . 18 (189): 1–41. ISSN 1533-7928 .
- ^ Ле, Тэм; Ямада, Макото (2018). «Ядро Фишера постоянства: ядро риманова многообразия для диаграмм постоянства» . Достижения в области нейронных систем обработки информации . 31 . Карран Ассошиэйтс, Инк.
- ^ Хаджидж, М.; Иштван, К.; Замзми, Г. (2020), Клеточные сложные нейронные сети , arXiv : 2010.00743
- ^ Мэггс, Келли; Хакер, Селия; Рик, Бастиан (13 октября 2023 г.). «Обучение симплициальному представлению с помощью нейронных k-форм» . Международная конференция по обучению представлений .
- ^ Рамамурти, КНЦ; Гузман-Саенц, А.; Хаджидж, М. (2023), Topo-mlp: упрощенная сеть без передачи сообщений , стр. 101-1. 1–5
- ^ Баттилоро, К.; Ди Лоренцо, П.; Рибейро, А. (сентябрь 2023 г.), Параметрическое обучение словарю для топологического представления сигналов , IEEE, стр. 1958–1962.
- ^ Хорн, Макс; Брауэр, Эдвард Де; Мур, Майкл; Моро, Ив; Рик, Бастиан; Боргвардт, Карстен (06 октября 2021 г.). «Топологические графовые нейронные сети» . Международная конференция по обучению представлений .
- ^ Ван, К.; Мужчина.; Ву, З.; Чжан, Дж.; Яо, Ю. (август 2022 г.), Обзор нейронных сетей с гиперграфами и их применение для распознавания действий , Springer Nature Switzerland, стр. 387–398.
- ^ Родденберри, ТМ; Глейз, Н.; Сегарра, С. (июль 2021 г.), Принципиальные симплициальные нейронные сети для прогнозирования траекторий , PMLR, стр. 9020–9029, arXiv : 2102.10058