Jump to content

Топологическое глубокое обучение

Топологическое машинное обучение (TML) — это область исследований, расположенная на стыке вычислительной топологии и машинного обучения . В отличие от многих других методов машинного обучения , методы TML предлагают единую перспективу, которая позволяет изучать различные виды данных, включая облака точек , сетки , временные ряды , скалярные поля (например, изображения ), графики или общие топологические пространства, такие как симплициальные комплексы и Комплексы ХО . [1]

Особого внимания заслуживает ветвь топологического машинного обучения — топологическое глубокое обучение (TDL) . [2] [3] [4] [5] [6] [7] Точно так же, как методы глубокого обучения устраняют необходимость в явном проектировании признаков , методы TDL могут изучать представления для конкретных задач на основе входных данных. Более того, методы TDL можно использовать модульным образом, например, в качестве слоев глубокой нейронной сети, что обеспечивает их плавную интеграцию в существующие глубокого обучения . архитектуры моделей [8] [9] [10] [11] TDL также включает в себя методы вычислительной и алгебраической топологии , которые позволяют изучать свойства нейронных сетей и их процесса обучения, такие как их прогнозирующая производительность или свойства обобщения. [12] [13] [14] [15] [16] [17]

История и мотивация

[ редактировать ]

Традиционные методы глубокого обучения часто работают в предположении, что набор данных находится в высокоструктурированном пространстве (например, в изображениях , где сверточные нейронные сети демонстрируют выдающуюся производительность по сравнению с альтернативными методами) или евклидовом пространстве . Распространение новых типов данных, в частности графов , сеток и молекул , привело к разработке новых методов, кульминацией которых стала область геометрического глубокого обучения , которая изначально предлагала перспективу обработки сигналов для обработки таких типов данных. [18] Первоначально ограничиваясь графами, где связность определяется на основе узлов и ребер, последующая работа расширила концепции на более широкий спектр типов данных, включая симплициальные комплексы. [19] и комплексы ХО , [20] с недавней работой, предлагающей единый взгляд на передачу сообщений в общих комбинаторных комплексах. [2]

Независимый взгляд на различные типы данных возник в результате топологического анализа данных , который предложил новую структуру для описания структурной информации данных, то есть их «формы», которая по своей сути учитывает множество масштабов данных, начиная от локальной информации до глобальной информации. . [21] Хотя сначала они ограничивались меньшими наборами данных, в последующей работе были разработаны новые дескрипторы, которые эффективно суммировали топологическую информацию наборов данных, чтобы сделать их доступными для традиционных методов машинного обучения, таких как машины опорных векторов или случайные леса . Такие дескрипторы варьировались от новых методов проектирования признаков до новых способов предоставления подходящих координат для топологических дескрипторов. [22] [23] [24] или создание более эффективных мер по устранению различий . [25] [26] [27] [28]

Современные исследования в этой области в основном связаны либо с интеграцией информации о базовой топологии данных в существующие модели глубокого обучения , либо с поиском новых способов обучения в топологических областях.

Введение в топологические области

[ редактировать ]

Одной из основных концепций топологического глубокого обучения является область, в которой определяются и поддерживаются эти данные. В случае евклидовых данных, таких как изображения, этот домен представляет собой сетку, на которой поддерживается значение пикселя изображения. В более общей ситуации этот домен может быть топологическим доменом . Далее мы представляем наиболее распространенные топологические области, которые встречаются в условиях глубокого обучения. Эти области включают, помимо прочего, графы, симплициальные комплексы, клеточные комплексы, комбинаторные комплексы и гиперграфы.

Учитывая конечное множество S абстрактных сущностей, функция окрестности на S — это присваивание, которое привязывается к каждой точке в S подмножество S или отношение . Такую функцию можно индуцировать, снабдив S структурой вспомогательной . Ребра предоставляют один из способов определения отношений между сущностями S . Более конкретно, ребра в графе позволяют определить понятие соседства, используя, например, понятие соседства с одним переходом. Однако возможности моделирования ребер ограничены, поскольку их можно использовать только для моделирования бинарных отношений между объектами S, поскольку каждое ребро обычно связано с двумя объектами. Во многих приложениях желательно разрешить отношения, включающие более двух объектов. Идея использования отношений, включающих более двух сущностей, занимает центральное место в топологических областях. Такие отношения более высокого порядка позволяют определить более широкий диапазон функций соседства на S, чтобы фиксировать многосторонние взаимодействия между объектами S .

Далее мы рассмотрим основные свойства, преимущества и недостатки некоторых часто изучаемых топологических областей в контексте глубокого обучения, включая (абстрактные) симплициальные комплексы, регулярные клеточные комплексы, гиперграфы и комбинаторные комплексы.

(a): Группа S состоит из базовых частей (вершин) без каких-либо связей. (b): Граф представляет простые связи между его частями (вершинами), которые являются элементами S. (c): Симплициальный комплекс показывает способ соединения частей (отношений) друг с другом, но со строгими правилами относительно того, как они связаны. (d): Как и симплициальные комплексы, клеточный комплекс показывает, как части (отношения) связаны, но он более гибок в том, как они связаны. меняют форму (как «ячейки»). (f): Гиперграф показывает любые связи между частями S, но эти связи не организованы в каком-либо определенном порядке. (e): CC смешивает элементы из клеточных комплексов (связи с порядком) и гиперграфы (различные связи), охватывающие оба типа установок. [2]

Сравнение топологических областей

[ редактировать ]

Каждая из перечисленных топологических областей имеет свои особенности, преимущества и ограничения:

  • Симплициальные комплексы
    • Простейшая форма доменов высшего порядка.
    • Расширения графовых моделей.
    • Допустите иерархические структуры, что сделает их пригодными для различных приложений.
    • Теорию Ходжа можно естественным образом определить на симплициальных комплексах.
    • Требовать, чтобы отношения были подмножествами более крупных отношений, что накладывает ограничения на структуру.
  • Клеточные комплексы
    • Обобщите симплициальные комплексы.
    • Обеспечьте большую гибкость в определении отношений более высокого порядка.
    • Каждая клетка клеточного комплекса гомеоморфна открытому шару, соединенному между собой посредством прикрепления карт.
    • Граничные клетки каждой клетки клеточного комплекса также являются клетками комплекса.
    • Представлено комбинаторно через матрицы инцидентности.
  • Гиперграфики
    • Разрешить произвольные отношения типа множества между сущностями.
    • Отношения не навязываются другими отношениями, что обеспечивает большую гибкость.
    • Не кодируйте явно размерность ячеек или отношений.
    • Полезно, когда отношения в данных не подчиняются ограничениям, налагаемым другими моделями, такими как симплициальные и клеточные комплексы.
  • Комбинаторные комплексы [2] :
    • Обобщите и ликвидируйте пробелы между симплициальными комплексами, клеточными комплексами и гиперграфами.
    • Разрешить иерархические структуры и отношения типа множества.
    • Объедините функции других комплексов, обеспечивая при этом большую гибкость при моделировании отношений.
    • Могут быть представлены комбинаторно, подобно клеточным комплексам.

Иерархическая структура и отношения типа множества

[ редактировать ]

Свойства симплициальных комплексов, клеточных комплексов и гиперграфов порождают две основные особенности отношений в областях более высокого порядка, а именно иерархию отношений и отношения множественного типа. [2]

Функция ранга

[ редактировать ]

Функция ранга в области высшего порядка X — это функция, сохраняющая порядок rk : X Z , где rk ( x ) присваивает неотрицательное целочисленное значение каждому отношению x в X , сохраняя включение множества в X . Клеточные и симплициальные комплексы являются распространенными примерами областей высшего порядка, оснащенных функциями ранга и, следовательно, иерархиями отношений. [2]

Отношения типа множества

[ редактировать ]

Отношения в области более высокого порядка называются отношениями множественного типа, если существование отношения не подразумевается другим отношением в области. Гиперграфы представляют собой примеры областей высшего порядка, оснащенных отношениями типа множества. Учитывая ограничения моделирования симплициальных комплексов, клеточных комплексов и гиперграфов, мы разрабатываем комбинаторный комплекс, область более высокого порядка, которая включает в себя как иерархии отношений, так и отношения множественного типа. [2]

Изучение топологических пространств

[ редактировать ]
Задачи обучения в топологических областях можно разделить на три категории: классификация ячеек, прогнозирование ячеек и комплексная классификация. [2] .

Задачи обучения в TDL можно разделить на три категории: [2]

  • Классификация ячеек : прогнозирование целей для каждой ячейки в комплексе. Примеры включают сегментацию треугольной сетки, где задача состоит в том, чтобы предсказать класс каждой грани или края в данной сетке.
  • Сложная классификация : прогнозирование целей для всего комплекса. Например, предскажите класс каждой входной сетки.
  • Предсказание ячейки : предскажите свойства межклеточных взаимодействий в комплексе и, в некоторых случаях, предскажите, существует ли ячейка в комплексе. Примером может служить прогнозирование связей между сущностями в гиперребрах гиперграфа.

На практике для решения вышеупомянутых задач необходимо построить и реализовать модели глубокого обучения, предназначенные для конкретных топологических пространств. Эти модели, известные как топологические нейронные сети, созданы для эффективной работы в этих пространствах.

Топологические нейронные сети

[ редактировать ]

Центральное место в TDL занимают топологические нейронные сети (TNN) , специализированные архитектуры, предназначенные для работы с данными, структурированными в топологических доменах. [3] [2] В отличие от традиционных нейронных сетей, предназначенных для сетчатых структур, TNN способны обрабатывать более сложные представления данных, такие как графы, симплициальные комплексы и комплексы ячеек. Используя внутреннюю топологию данных, TNN могут фиксировать как локальные, так и глобальные взаимосвязи, обеспечивая детальный анализ и интерпретацию.

Топологические нейронные сети передачи сообщений

[ редактировать ]

В общей топологической области передача сообщений более высокого порядка включает обмен сообщениями между объектами и ячейками с использованием набора функций соседства.

Определение: передача сообщений высшего порядка в общей топологической области.

Передача сообщений более высокого порядка — это модель глубокого обучения, определенная в топологической области и основанная на информации о передаче сообщений между объектами в базовом домене для выполнения задачи обучения. [2] .

Позволять быть топологической областью. Определим набор функций окрестности на . Рассмотрим ячейку и пусть для некоторых . Сообщение между клетками и — это вычисление, зависящее от этих двух ячеек или данных, содержащихся в них. Обозначим как мультисет , и пусть представляют некоторые данные, поддерживаемые в ячейке на слое . сообщения высшего порядка Передача , [2] [29] вызванный , определяется следующими четырьмя правилами обновления:

  1. , где — функция агрегирования внутри соседства.
  2. , где — функция агрегирования между районами.
  3. , где являются дифференцируемыми функциями.

Некоторые замечания по приведенному выше определению заключаются в следующем.

Во-первых, уравнение 1 описывает, как сообщения вычисляются между ячейками. и . Сообщение влияют как данные и связанный с клетками и , соответственно. Кроме того, он включает в себя характеристики, специфичные для самих клеток, такие как ориентация в случае клеточных комплексов. Это обеспечивает более богатое представление пространственных отношений по сравнению с традиционными системами передачи сообщений на основе графов.

Во-вторых, уравнение 2 определяет, как сообщения из соседних ячеек агрегируются внутри каждого района. Функция объединяет эти сообщения, позволяя эффективно обмениваться информацией между соседними ячейками в одном районе.

В-третьих, уравнение 3 описывает процесс объединения сообщений из разных районов. Функция объединяет сообщения из различных районов, облегчая связь между ячейками, которые могут не быть связаны напрямую, но имеют общие отношения соседства.

В-четвертых, уравнение 4 определяет, как агрегированные сообщения влияют на состояние ячейки на следующем уровне. Здесь функция обновляет состояние ячейки исходя из его текущего состояния и агрегированное сообщение полученные из соседних ячеек.

Топологические нейронные сети без передачи сообщений

[ редактировать ]

Хотя большинство TNN следуют парадигме передачи сообщений из обучения графов , было предложено несколько моделей, которые не следуют этому подходу. Например, Мэггс и др. [30] использовать геометрическую информацию из встроенных симплициальных комплексов, т. е. симплициальных комплексов с многомерными характеристиками, прикрепленными к их вершинам. Это обеспечивает интерпретируемость и геометрическую согласованность, не полагаясь на передачу сообщений. Кроме того, в [31] для изучения симплициального представления был предложен контрастный метод, основанный на потерях.

Приложения

[ редактировать ]

TDL быстро находит новые приложения в различных областях, включая сжатие данных, [32] повышение выразительности и прогнозирующей производительности графовых нейронных сетей , [19] [20] [33] признание действий, [34] и прогнозирование траектории. [35]

  1. ^ Урай, Мартин; Джунти, Барбара; Кербер, Майкл; Хубер, Стефан (01 октября 2024 г.). «Топологический анализ данных в интеллектуальном производстве: современное состояние и будущие направления» . Журнал производственных систем . 76 : 75–91. дои : 10.1016/j.jmsy.2024.07.006 . ISSN   0278-6125 .
  2. ^ Jump up to: а б с д и ж г час я дж к л Хаджидж, М.; Замзми, Г.; Папамарку, Т.; Миолане, Н.; Гусман-Саенс, А.; Рамамурти, КНЦ; Шауб, М.Т. (2022), Топологическое глубокое обучение: выход за рамки графических данных , arXiv : 2206.00606
  3. ^ Jump up to: а б Папийон, М.; Санборн, С.; Хаджидж, М.; Миолане, Н. (2023). «Архитектуры топологического глубокого обучения: обзор топологических нейронных сетей». arXiv : 2304.10031 [ cs.LG ].
  4. ^ Эбли, С.; Дефферрард, М.; Шпреманн, Г. (2020), Симплициальные нейронные сети , arXiv : 2010.03633
  5. ^ Баттилоро, К.; Теста, Л.; Джусти, Л.; Сарделлитти, С.; Ди Лоренцо, П.; Барбаросса, С. (2023), Обобщенные симплициальные нейронные сети внимания , arXiv : 2309.02138
  6. ^ Ян, М.; Исуфи, Э. (2023), Сверточное обучение симплициальных комплексов , arXiv : 2301.11163
  7. ^ Чен, Ю.; Гель, ЮР; Бедный, Х.В. (2022), «BScNets: Блок симплициальных сложных нейронных сетей», Труды конференции AAAI по искусственному интеллекту , 36 (6): 6333–6341, arXiv : 2112.06826 , doi : 10.1609/aaai.v36i6.20583
  8. ^ Хофер, Кристоф; Квитт, Роланд; Нитхаммер, Марк; Уль, Андреас (2017). «Глубокое обучение с топологическими сигнатурами» . Достижения в области нейронных систем обработки информации . 30 . Карран Ассошиэйтс, Инк.
  9. ^ Карьер, Матье; Шазал, Фредерик; Айк, Юичи; Лакомб, Тео; Ройер, Мартин; Умеда, Юхэй (03.06.2020). «PersLay: уровень нейронной сети для диаграмм устойчивости и новых топологических сигнатур графов» . Материалы двадцать третьей международной конференции по искусственному интеллекту и статистике . ПМЛР: 2786–2796.
  10. ^ Ким, Кванхо; Ким, Джису; Захир, Манзил; Ким, Джун; Шазал, Фредерик; Вассерман, Ларри (2020). «PLLay: эффективный топологический слой на основе устойчивых ландшафтов» . Достижения в области нейронных систем обработки информации . 33 . Curran Associates, Inc.: 15965–15977.
  11. ^ Габриэльссон, Рикард Брюль; Нельсон, Брэдли Дж.; Дваракнатх, Анджан; Скраба, Примоз (03.06.2020). «Уровень топологии для машинного обучения» . Материалы двадцать третьей международной конференции по искусственному интеллекту и статистике . ПМЛР: 1553–1563.
  12. ^ Бьянкини, Моника; Скарселли, Франко (2014). «О сложности классификаторов нейронных сетей: сравнение мелкой и глубокой архитектуры» . Транзакции IEEE в нейронных сетях и системах обучения . 25 (8): 1553–1565. дои : 10.1109/TNNLS.2013.2293637 . ISSN   2162-237X .
  13. ^ Найцат, Грегори; Житников Андрей; Лим, Лек-Хенг (2020). «Топология глубоких нейронных сетей» (PDF) . Журнал исследований машинного обучения . 21 (1): 184:7503–184:7542. ISSN   1532-4435 .
  14. ^ Бирдал, Толга; Лу, Аарон; Гибас, Леонидас Дж; Симсекли, Умут (2021). «Внутреннее измерение, стойкая гомология и обобщение в нейронных сетях» . Достижения в области нейронных систем обработки информации . 34 . Curran Associates, Inc.: 6776–6789.
  15. ^ Баллестер, Рубен; Клементе, Ксавье Арнал; Касакуберта, Карлес; Мадади, Мейсам; Корняну, Чиприан А.; Эскалера, Серджио (2024). «Прогнозирование разрыва обобщения в нейронных сетях с использованием топологического анализа данных» . Нейрокомпьютинг . 596 : 127787. arXiv : 2203.12330 . дои : 10.1016/j.neucom.2024.127787 .
  16. ^ Рик, Бастиан; Тоньялли, Маттео; Бок, Кристиан; Мур, Майкл; Хорн, Макс; Гамбш, Томас; Боргвардт, Карстен (27 сентября 2018 г.). «Нейронная устойчивость: мера сложности глубоких нейронных сетей, использующих алгебраическую топологию» . Международная конференция по обучению представлений .
  17. ^ Дюпюи, Бенджамин; Делигианнидис, Джордж; Симсекли, Умут (3 июля 2023 г.). «Границы обобщения с использованием фрактальных измерений, зависящих от данных» . Материалы 40-й Международной конференции по машинному обучению . ПМЛР: 8922–8968.
  18. ^ Бронштейн, Михаил М.; Бруна, Джоан; ЛеКун, Янн; Шлам, Артур; Вандергейнст, Пьер (2017). «Геометрическое глубокое обучение: выход за рамки евклидовых данных» . Журнал обработки сигналов IEEE . 34 (4): 18–42. дои : 10.1109/MSP.2017.2693418 . ISSN   1053-5888 .
  19. ^ Jump up to: а б Боднар, Кристиан; Фраска, Фабрицио; Ван, Югуан; Выдра, Нина; Монтуфар, Гвидо Ф.; Лио, Пьетро; Бронштейн, Михаил (01 июля 2021 г.). «Вейсфейлер и Леман переходят к топологии: симплициальные сети передачи сообщений» . Материалы 38-й Международной конференции по машинному обучению . ПМЛР: 1026–1037.
  20. ^ Jump up to: а б Боднар, Кристиан; Фраска, Фабрицио; Выдра, Нина; Ван, Югуан; Лио, Пьетро; Монтуфар, Гвидо Ф; Бронштейн, Михаил (2021). «Weisfeiler и Lehman переходят на сотовую связь: сети CW» . Достижения в области нейронных систем обработки информации . 34 . Curran Associates, Inc.: 2625–2640.
  21. ^ Карлссон, Гуннар (29 января 2009 г.). «Топология и данные» . Бюллетень Американского математического общества . 46 (2): 255–308. дои : 10.1090/S0273-0979-09-01249-X . ISSN   0273-0979 .
  22. ^ Адкок, Аарон; Карлссон, Эрик; Карлссон, Гуннар (2016). «Кольцо алгебраических функций на персистентных штрих-кодах» . Гомология, гомотопия и приложения . 18 (1): 381–402. дои : 10.4310/HHA.2016.v18.n1.a21 .
  23. ^ Адамс, Генри; Эмерсон, Теган; Кирби, Майкл; Невилл, Рэйчел; Петерсон, Крис; Шипман, Патрик; Чепуштанова Софья; Хэнсон, Эрик; Мотта, Фрэнсис; Зигельмайер, Лори (2017). «Изображения стойкости: стабильное векторное представление постоянной гомологии» . Журнал исследований машинного обучения . 18 (8): 1–35. ISSN   1533-7928 .
  24. ^ Бубеник, Питер (2015). «Статистический топологический анализ данных с использованием ландшафтов устойчивости» . Журнал исследований машинного обучения . 16 (3): 77–102. ISSN   1533-7928 .
  25. ^ Квитт, Роланд; Хубер, Стефан; Нитхаммер, Марк; Лин, Вейли; Бауэр, Ульрих (2015). «Статистический топологический анализ данных — взгляд на ядро» . Достижения в области нейронных систем обработки информации . 28 . Карран Ассошиэйтс, Инк.
  26. ^ Каррьер, Матье; Кутури, Марко; Удо, Стив (17 июля 2017 г.). «Нарезанное ядро ​​Вассерштейна для диаграмм устойчивости» . Материалы 34-й Международной конференции по машинному обучению . ПМЛР: 664–673.
  27. ^ Кусано, Генки; Фукумидзу, Кендзи; Хираока, Ясуаки (2018). «Метод ядра для диаграмм постоянства посредством встраивания ядра и весового коэффициента» . Журнал исследований машинного обучения . 18 (189): 1–41. ISSN   1533-7928 .
  28. ^ Ле, Тэм; Ямада, Макото (2018). «Ядро Фишера постоянства: ядро ​​риманова многообразия для диаграмм постоянства» . Достижения в области нейронных систем обработки информации . 31 . Карран Ассошиэйтс, Инк.
  29. ^ Хаджидж, М.; Иштван, К.; Замзми, Г. (2020), Клеточные сложные нейронные сети , arXiv : 2010.00743
  30. ^ Мэггс, Келли; Хакер, Селия; Рик, Бастиан (13 октября 2023 г.). «Обучение симплициальному представлению с помощью нейронных k-форм» . Международная конференция по обучению представлений .
  31. ^ Рамамурти, КНЦ; Гузман-Саенц, А.; Хаджидж, М. (2023), Topo-mlp: упрощенная сеть без передачи сообщений , стр. 101-1. 1–5
  32. ^ Баттилоро, К.; Ди Лоренцо, П.; Рибейро, А. (сентябрь 2023 г.), Параметрическое обучение словарю для топологического представления сигналов , IEEE, стр. 1958–1962.
  33. ^ Хорн, Макс; Брауэр, Эдвард Де; Мур, Майкл; Моро, Ив; Рик, Бастиан; Боргвардт, Карстен (06 октября 2021 г.). «Топологические графовые нейронные сети» . Международная конференция по обучению представлений .
  34. ^ Ван, К.; Мужчина.; Ву, З.; Чжан, Дж.; Яо, Ю. (август 2022 г.), Обзор нейронных сетей с гиперграфами и их применение для распознавания действий , Springer Nature Switzerland, стр. 387–398.
  35. ^ Родденберри, ТМ; Глейз, Н.; Сегарра, С. (июль 2021 г.), Принципиальные симплициальные нейронные сети для прогнозирования траекторий , PMLR, стр. 9020–9029, arXiv : 2102.10058
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: df7b0e1a06f8fd8d970a36a7e36d59de__1722391920
URL1:https://arc.ask3.ru/arc/aa/df/de/df7b0e1a06f8fd8d970a36a7e36d59de.html
Заголовок, (Title) документа по адресу, URL1:
Topological deep learning - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)