Универсальная аппроксимационная теорема
![]() | Эта статья может быть слишком технической для понимания большинства читателей . ( Июль 2023 г. ) |
В математической теории сетей искусственных нейронных универсальными теоремами аппроксимации являются теоремы [1] [2] следующего вида: Учитывая семейство нейронных сетей, для каждой функции из некоторого функционального пространства существует последовательность нейронных сетей из семьи, так что по какому-то критерию. То есть семейство нейронных сетей плотно в функциональном пространстве.
Самая популярная версия утверждает, что сети прямого распространения с неполиномиальными функциями активации плотны в пространстве непрерывных функций между двумя евклидовыми пространствами относительно компактной топологии сходимости .
Универсальные теоремы аппроксимации — это теоремы существования: они просто утверждают, что существует такая последовательность. и не предоставляют никакого способа найти такую последовательность. Они также не гарантируют, что какой-либо метод, например обратное распространение ошибки , действительно сможет найти такую последовательность. Любой метод поиска в пространстве нейронных сетей, включая обратное распространение ошибки, может найти сходящуюся последовательность или нет (т. е. обратное распространение ошибки может застрять в локальном оптимуме).
Универсальные аппроксимационные теоремы — это предельные теоремы: они просто утверждают, что для любого и критерии близости , если в нейронной сети достаточно нейронов, то существует нейронная сеть с таким количеством нейронов, которая приближается внутри . Нет никакой гарантии, что любого конечного размера, скажем, 10 000 нейронов будет достаточно.
Настраивать
[ редактировать ]Искусственные нейронные сети представляют собой комбинации нескольких простых математических функций, которые реализуют более сложные функции, от (обычно) векторов с действительным знаком с действительным знаком до векторов . Пространства многомерных функций, реализуемые сетью, определяются структурой сети, набором простых функций и ее мультипликативными параметрами. Большая теоретическая работа была посвящена характеристике этих функциональных пространств.
Большинство универсальных аппроксимационных теорем относятся к одному из двух классов. Первый количественно определяет возможности аппроксимации нейронных сетей с произвольным количеством искусственных нейронов (« случай произвольной ширины »), а второй фокусируется на случае с произвольным количеством скрытых слоев, каждый из которых содержит ограниченное количество искусственных нейронов (« случай произвольной глубины »). " случай). Помимо этих двух классов существуют также универсальные аппроксимационные теоремы для нейронных сетей с ограниченным числом скрытых слоев и ограниченным числом нейронов в каждом слое (случай « ограниченной глубины и ограниченной ширины »).
История
[ редактировать ]Произвольная ширина
[ редактировать ]Первыми примерами были случай произвольной ширины . Джордж Цыбенко в 1989 году доказал это для функций активации сигмовидной кишки . [3] Курт Хорник , Максвелл Стинчкомб и Халберт Уайт показали в 1989 году, что многослойные сети с прямой связью всего с одним скрытым слоем являются универсальными аппроксиматорами. [1] Хорник также показывался в 1991 году. [4] что не конкретный выбор функции активации, а сама многоуровневая архитектура прямой связи дает нейронным сетям потенциал быть универсальными аппроксиматорами. Моше Лешно и др. в 1993 году. [5] а затем Аллан Пинкус в 1999 году. [6] показал, что свойство универсальной аппроксимации эквивалентно наличию неполиномиальной функции активации.
Произвольная глубина
[ редактировать ]Случай произвольной глубины также изучался рядом авторов, таких как Густав Грипенберг в 2003 году. [7] Дмитрий Яроцкий, [8] Чжоу Лу и др. в 2017 г. [9] Борис Ханин и Марк Селлке в 2018 году [10] который сосредоточился на нейронных сетях с функцией активации ReLU. В 2020 году Патрик Киджер и Терри Лайонс [11] распространил эти результаты на нейронные сети с общими функциями активации , такими как tanh, GeLU или Swish.
Особый случай произвольной глубины состоит в том, что каждый компонент композиции происходит из конечного набора отображений. В 2024 году Цай [12] построил конечный набор отображений, названный словарем, такой, что любую непрерывную функцию можно аппроксимировать, составив последовательность из словаря. Это похоже на концепцию композиционности в лингвистике, которая заключается в том, что ограниченный словарь основных элементов может быть объединен с помощью грамматики для выражения бесконечного диапазона значений.
Ограниченная глубина и ограниченная ширина
[ редактировать ]Случай ограниченной глубины и ограниченной ширины был впервые изучен Майоровым и Пинкусом в 1999 году. [13] Они показали, что существует аналитическая сигмоидальная функция активации, такая что две нейронные сети скрытого слоя с ограниченным числом единиц в скрытых слоях являются универсальными аппроксиматорами.
Гулиев и Исмаилов [14] построил гладкую сигмоидальную функцию активации, обеспечивающую универсальное свойство аппроксимации для двух нейронных сетей прямого распространения скрытых слоев с меньшим количеством элементов в скрытых слоях.
[15] построили одиночные сети скрытых слоев с ограниченной шириной, которые по-прежнему являются универсальными аппроксиматорами одномерных функций. Однако это не относится к функциям со многими переменными.
[16] получил точную количественную информацию о глубине и ширине, необходимой для аппроксимации целевой функции с помощью глубоких и широких нейронных сетей ReLU.
Количественные границы
[ редактировать ]Вопрос о минимально возможной ширине универсальности впервые изучался в 2021 году. Парк и др. получили минимальную ширину, необходимую для универсальной аппроксимации L п функции, использующие нейронные сети прямого распространения с ReLU в качестве функций активации. [17] Аналогичные результаты, которые можно напрямую применить к остаточным нейронным сетям, были получены в том же году Пауло Табуада и Бахманом Гаресифардом с использованием теории управления . аргументов [18] [19] В 2023 году Лошади [20] получена оптимальная граница минимальной ширины для универсального приближения.
Для случая произвольной глубины Леони Папон и Анастасис Крациос [21] получены явные оценки глубины в зависимости от регулярности целевой функции и функции активации.
Kolmogorov network
[ редактировать ]Теорема о представлении Колмогорова –Арнольда аналогична по духу. Действительно, некоторые семейства нейронных сетей могут напрямую применять теорему Колмогорова – Арнольда для получения универсальной аппроксимационной теоремы.
[22] показал, что трехслойная нейронная сеть может аппроксимировать любую непрерывную многомерную функцию. Это было распространено на прерывистый случай в [23] .
[24] показывает практическое применение.
Варианты
[ редактировать ]Прерывистые функции активации, [5] некомпактные области, [11] [25] сертифицированные сети, [26] случайные нейронные сети, [27] и альтернативные сетевые архитектуры и топологии. [11] [28]
Свойство универсальной аппроксимации сетей с ограниченной шириной изучалось как двойственное к классическим результатам универсальной аппроксимации сетей с ограниченной глубиной. Для входного размера dx и выходного размера dy минимальная ширина, необходимая для универсальной аппроксимации L п функций в точности max{dx + 1, dy} (для сети ReLU). В более общем смысле это также справедливо, если как ReLU, так и функция пороговой активации . используются [17]
Аппроксимация универсальной функции на графах (или, скорее, на классах изоморфизма графов ) с помощью популярных сверточных нейронных сетей графов (GCN или GNN) может быть сделана такой же дискриминационной, как тест изоморфизма графов Вейсфейлера-Лемана. [29] В 2020 году [30] результат теоремы универсальной аппроксимации был установлен Брюлем-Габрильссоном, показывающим, что представление графа с определенными инъективными свойствами достаточно для аппроксимации универсальной функции на ограниченных графах и ограниченной аппроксимации универсальной функции на неограниченных графах с сопровождающим - метод времени выполнения, который выполняется на современном уровне техники для набора тестов (где и — множества узлов и ребер графа соответственно).
Есть также множество результатов между неевклидовыми пространствами. [31] и другие широко используемые архитектуры и, в более общем смысле, алгоритмически генерируемые наборы функций, такие как архитектура сверточной нейронной сети (CNN), [32] [33] радиальные базисные функции , [34] или нейронные сети с определенными свойствами. [35] [36]
Случай произвольной ширины
[ редактировать ]В 1980-1990-х годах в ряде статей Джорджа Цибенко , Курта Хорника и др. было установлено несколько универсальных аппроксимационных теорем для произвольной ширины и ограниченной глубины. [37] [3] [38] [4] Видеть [39] [40] [6] для отзывов. Чаще всего цитируют следующее:
Теорема об универсальной аппроксимации . Пусть обозначим множество непрерывных функций из подмножества евклидова пространство в евклидово пространство . Позволять . Обратите внимание, что , так обозначает применяется к каждому компоненту .
Затем не является полиномиальным тогда и только тогда, когда для любого , , компактный , существуют , , , такой, что где
Кроме того, некоторые прерывистые функции активации можно использовать для аппроксимации сигмовидной функции, что затем позволяет применить приведенную выше теорему к этим функциям. Например, ступенчатая функция работает . В частности, это показывает, что сеть перцептронов с одним скрытым слоем бесконечной ширины может аппроксимировать произвольные функции.
Такой также может быть аппроксимирована сетью большей глубины, используя ту же конструкцию для первого слоя и аппроксимируя тождественную функцию более поздними слоями.
Достаточно доказать случай, когда , поскольку равномерная сходимость по это просто равномерная сходимость по каждой координате.
Позволять быть набором всех нейронных сетей с одним скрытым слоем, построенных с помощью . Позволять быть набором всех с компактной опорой.
Если функция является полиномом степени , затем содержится в замкнутом подпространстве всех многочленов степени , поэтому в нем содержится и его замыкание, что еще не все .
В противном случае мы покажем, что закрытие - это все . Предположим, мы можем построить сколь угодно хорошие аппроксимации линейной функции тогда его можно объединить для построения произвольной непрерывной функции с компактным носителем с любой точностью. Осталось аппроксимировать функцию линейного изменения.
Очевидно, что любую из часто используемых функций активации, используемых в машинном обучении, можно использовать для аппроксимации функции линейного изменения или сначала аппроксимации ReLU, а затем функции линейного изменения.
если является «раздавливающим», то есть имеет пределы , то можно сначала аффинно уменьшить ее ось X так, чтобы ее график выглядел как ступенчатая функция с двумя резкими «выбросами», а затем составить линейную сумму из них, достаточных для получения «лестничной» аппроксимации функции линейного изменения. При увеличении количества ступеней лестницы выбросы сглаживаются, и мы получаем сколь угодно хорошее приближение функции линейного изменения.
Случай, когда является общей неполиномиальной функцией, это сложнее, и читатель направляется к ней. [6]
В приведенном выше доказательстве не указано, как можно использовать функцию линейного изменения для аппроксимации произвольных функций в . Схема доказательства состоит в том, что можно сначала построить плоские функции выпуклости, пересечь их, чтобы получить сферические функции выпуклости, аппроксимирующие дельта-функцию Дирака , а затем использовать их для аппроксимации произвольных функций в . [41] Оригинальные доказательства, такие как доказательство Цыбенко, используют методы функционального анализа, включая теоремы о представлении Хана-Банаха и Рисса-Маркова-Какутани .
Обратите также внимание, что нейронной сети требуется только аппроксимация в пределах компактного набора. . Доказательство не описывает, как функция будет экстраполироваться за пределы области.
Проблему с полиномами можно устранить, разрешив умножать выходные данные скрытых слоев («сети пи-сигма»), что дает обобщение: [38]
Универсальная теорема аппроксимации для пи-сигма-сетей . С любой непостоянной функцией активации пи-сигма-сеть с одним скрытым слоем является универсальным аппроксиматором.
Случай произвольной глубины
[ редактировать ]«Двойные» версии теоремы рассматривают сети ограниченной ширины и произвольной глубины. Вариант универсальной аппроксимационной теоремы был доказан для случая произвольной глубины Чжоу Лу и др. в 2017 году. [9] Они показали, что сети ширины n + 4 с ReLU функциями активации могут аппроксимировать любую интегрируемую по Лебегу функцию в n -мерном входном пространстве относительно расстояние, если разрешено увеличивать глубину сети. Было также показано, что если ширина меньше или равна n , эта общая выразительная сила аппроксимации любой интегрируемой по Лебегу функции теряется. В той же статье [9] было показано, что сетей ReLU шириной n + 1 достаточно для аппроксимации любой непрерывной функции от n -мерных входных переменных. [42] Следующее уточнение определяет оптимальную минимальную ширину, для которой такое приближение возможно и обусловлено. [43]
Теорема об универсальной аппроксимации (расстояние L1, активация ReLU, произвольная глубина, минимальная ширина) — для любой p-интегрируемой функции Бохнера – Лебега. и любой , существует полностью подключенная ReLU сеть ширины ровно , удовлетворяя Более того, существует функция и некоторые , для которого не существует полносвязной сети ReLU шириной менее удовлетворяющее указанной выше границе приближения.
Примечание. Если активация заменена дырявым ReLU, а ввод ограничен компактной областью, то точная минимальная ширина равна [20] .
Количественное уточнение: В том случае, когда, когда и и где — это функция активации ReLU , точная глубина и ширина сети ReLU, которую необходимо достичь. ошибка тоже известна. [44] Если при этом целевая функция гладкая, то необходимое количество слоев и их ширина могут быть экспоненциально меньшими. [45] Даже если не является гладким, проклятие размерности можно снять, если допускает дополнительную «композиционную структуру». [46] [47]
В совокупности главный результат [11] дает следующую универсальную аппроксимационную теорему для сетей ограниченной ширины (см. также [7] за первый результат такого рода).
Теорема об универсальной аппроксимации (Равномерная неаффинная активация , произвольная глубина , ограниченная ширина). - Позволять быть компактным подмножеством . Позволять — любая неаффинная непрерывная функция , непрерывно дифференцируемая хотя бы в одной точке, с ненулевой производной в этой точке. Позволять обозначим пространство нейронных сетей прямого распространения с входные нейроны, выходные нейроны и произвольное количество скрытых слоев, каждый из которых нейронов, так что каждый скрытый нейрон имеет функцию активации и каждый выходной нейрон имеет идентичность в качестве функции активации, а входной слой и выходной слой . Тогда учитывая любой и любой , существует такой, что
Другими словами, плотный в относительно топологии равномерной сходимости .
Количественное уточнение: количество слоев и ширина каждого слоя, необходимые для аппроксимации. к точность известна; [21] более того, результат справедлив, когда и неположительной кривизны заменяются любым римановым многообразием .
Определенные необходимые условия для случая ограниченной ширины и произвольной глубины установлены, но между известными достаточными и необходимыми условиями все еще существует разрыв. [9] [10] [48]
Случай ограниченной глубины и ограниченной ширины
[ редактировать ]Первый результат об аппроксимационных возможностях нейронных сетей с ограниченным числом слоев, каждый из которых содержит ограниченное количество искусственных нейронов, был получен Майоровым и Пинкусом. [13] Их замечательный результат показал, что такие сети могут быть универсальными аппроксиматорами и для достижения этого свойства достаточно двух скрытых слоев.
Универсальная теорема аппроксимации: [13] — Имеется функция активации которая является аналитической, строго возрастающей, сигмоидальной и обладает следующим свойством: для любого и существуют константы и векторы для чего для всех .
Это результат существования. В нем говорится, что существуют функции активации, обеспечивающие универсальное свойство аппроксимации для сетей ограниченной глубины и ширины. Используя определенные методы алгоритмического и компьютерного программирования, Гулиев и Исмаилов эффективно построили такие функции активации в зависимости от числового параметра. Разработанный алгоритм позволяет мгновенно вычислять функции активации в любой точке действительной оси. Алгоритм и соответствующий компьютерный код см. [14] Теоретический результат можно сформулировать следующим образом.
Универсальная теорема аппроксимации: [14] [15] - Позволять быть конечным отрезком вещественной прямой, и быть любым положительным числом. Тогда можно алгоритмически построить вычислимую сигмоидальную функцию активации. , которая бесконечно дифференцируема и строго возрастает на , - строго возрастает по и удовлетворяет следующим свойствам:
- Для любого и существуют числа и такой, что для всех
- Для любой непрерывной функции на -размерная коробка и , существуют константы , , и такая, что неравенство держится для всех . Здесь весы , , фиксируются следующим образом: Кроме того, все коэффициенты , кроме одного, равны.
Здесь " является -строго возрастает на некотором множестве означает, что существует строго возрастающая функция такой, что для всех . Ясно, что -возрастающая функция ведет себя как обычная возрастающая функция: становится маленьким. В терминологии « глубины-ширины » приведенная выше теорема гласит, что для некоторых функций активации глубина ширина- сети являются универсальными аппроксиматорами одномерных функций и глубинных ширина- сети являются универсальными аппроксиматорами -переменные функции ( ).
См. также
[ редактировать ]- Теорема о представлении Колмогорова–Арнольда
- Представление теоремы
- Теорема «Нет бесплатного обеда»
- Теорема Стоуна – Вейерштрасса
- ряд Фурье
Ссылки
[ редактировать ]- ^ Jump up to: а б Хорник, Курт; Стинчкомб, Максвелл; Уайт, Халберт (январь 1989 г.). «Многослойные сети прямого распространения являются универсальными аппроксиматорами». Нейронные сети . 2 (5): 359–366. дои : 10.1016/0893-6080(89)90020-8 .
- ^ Чаи Балаж Чанад (2001) Приближение с помощью искусственных нейронных сетей; факультет наук; Университет Этвеша Лоранда, Венгрия
- ^ Jump up to: а б Цыбенко, Г. (1989). «Приближение суперпозициями сигмоидальной функции». Математика управления, сигналов и систем . 2 (4): 303–314. CiteSeerX 10.1.1.441.7873 . дои : 10.1007/BF02551274 . S2CID 3958369 .
- ^ Jump up to: а б Хорник, Курт (1991). «Возможности аппроксимации многослойных сетей прямого распространения». Нейронные сети . 4 (2): 251–257. дои : 10.1016/0893-6080(91)90009-T . S2CID 7343126 .
- ^ Jump up to: а б Лешно, Моше; Лин, Владимир Я.; Пинкус, Аллан; Шокен, Шимон (январь 1993 г.). «Многослойные сети прямого распространения с неполиномиальной функцией активации могут аппроксимировать любую функцию» . Нейронные сети . 6 (6): 861–867. дои : 10.1016/S0893-6080(05)80131-5 . S2CID 206089312 .
- ^ Jump up to: а б с Пинкус, Аллан (январь 1999 г.). «Теория аппроксимации модели MLP в нейронных сетях». Акта Нумерика . 8 : 143–195. Бибкод : 1999AcNum...8..143P . дои : 10.1017/S0962492900002919 . S2CID 16800260 .
- ^ Jump up to: а б Грипенберг, Густав (июнь 2003 г.). «Аппроксимация нейронными сетями с ограниченным числом узлов на каждом уровне». Журнал теории приближения . 122 (2): 260–266. дои : 10.1016/S0021-9045(03)00078-9 .
- ^ Яроцкий, Дмитрий (октябрь 2017 г.). «Границы погрешности аппроксимации с глубокими сетями ReLU». Нейронные сети . 94 : 103–114. arXiv : 1610.01145 . дои : 10.1016/j.neunet.2017.07.002 . ПМИД 28756334 . S2CID 426133 .
- ^ Jump up to: а б с д Лу, Чжоу; Пу, Хунмин; Ван, Фейчэн; Ху, Чжицян; Ван, Ливэй (2017). «Выразительная сила нейронных сетей: взгляд со стороны» . Достижения в области нейронных систем обработки информации . 30 . Карран Ассошиэйтс: 6231–6239. arXiv : 1709.02540 .
- ^ Jump up to: а б Ханин, Борис; Селлке, Марк (2018). «Аппроксимация непрерывных функций сетями ReLU минимальной ширины». arXiv : 1710.11278 [ stat.ML ].
- ^ Jump up to: а б с д Киджер, Патрик; Лайонс, Терри (июль 2020 г.). Универсальное приближение с глубокими узкими сетями . Конференция по теории обучения. arXiv : 1905.08539 .
- ^ Юнцян, Цай (2024). «Словарь универсального приближения: лингвистический взгляд на отображение композиций» . ИКМЛ .
- ^ Jump up to: а б с Майоров, Виталий; Пинкус, Аллан (апрель 1999 г.). «Нижние оценки аппроксимации нейронными сетями MLP». Нейрокомпьютинг . 25 (1–3): 81–91. дои : 10.1016/S0925-2312(98)00111-8 .
- ^ Jump up to: а б с Гулиев, Намиг; Исмаилов, Вугар (ноябрь 2018 г.). «Возможности аппроксимации двух нейронных сетей прямого распространения скрытого слоя с фиксированными весами». Нейрокомпьютинг . 316 : 262–269. arXiv : 2101.09181 . дои : 10.1016/j.neucom.2018.07.075 . S2CID 52285996 .
- ^ Jump up to: а б Гулиев, Намиг; Исмаилов, Вугар (февраль 2018 г.). «Об аппроксимации однослойными нейронными сетями прямого распространения с фиксированными весами». Нейронные сети . 98 : 296–304. arXiv : 1708.06219 . дои : 10.1016/j.neunet.2017.12.007 . ПМИД 29301110 . S2CID 4932839 .
- ^ Шен, Цзовэй; Ян, Хайчжао; Чжан, Шиджун (январь 2022 г.). «Оптимальная скорость аппроксимации сетей ReLU по ширине и глубине». Журнал чистой и прикладной математики . 157 : 101–135. arXiv : 2103.00502 . дои : 10.1016/j.matpur.2021.07.009 . S2CID 232075797 .
- ^ Jump up to: а б Пак, Седжун; Юн, Чулхи; Ли, Джэхо; Шин, Джин Ву (2021). Минимальная ширина для универсального приближения . Международная конференция по обучению представлений. arXiv : 2006.08859 .
- ^ Табуада, Пауло; Гаресифард, Бахман (2021). Универсальная мощность аппроксимации глубоких остаточных нейронных сетей с помощью нелинейной теории управления . Международная конференция по обучению представлений. arXiv : 2007.06007 .
- ^ Табуада, Пауло; Гаресифард, Бахман (май 2023 г.). «Универсальная аппроксимационная способность глубоких остаточных нейронных сетей через призму управления». Транзакции IEEE при автоматическом управлении . 68 (5): 2715–2728. дои : 10.1109/TAC.2022.3190051 . S2CID 250512115 . (Ошибка: два : 10.1109/TAC.2024.3390099 )
- ^ Jump up to: а б Цай, Юнцян (01 февраля 2023 г.). «Достижение минимальной ширины нейронных сетей для универсального приближения» . ИКЛР . arXiv : 2209.11395 .
- ^ Jump up to: а б Крациос, Анастасис; Папон, Леони (2022). «Теоремы универсального приближения для дифференцируемого геометрического глубокого обучения» . Журнал исследований машинного обучения . 23 (196): 1–73. arXiv : 2101.05390 .
- ^ Х, Нильсен Р. (1987). «Теорема существования нейронной сети отображения Колмогорова» . Материалы международной конференции по нейронным сетям, 1987 г. 3 : 11–13.
- ^ Исмаилов, Вугар Э. (июль 2023 г.). «Трёхслойная нейронная сеть может представлять любую многомерную функцию». Журнал математического анализа и приложений . 523 (1): 127096. arXiv : 2012.03016 . дои : 10.1016/j.jmaa.2023.127096 . S2CID 265100963 .
- ^ Лю, Цзымин; Ван, Исюань; Вайдья, Сачин; Рюле, Фабиан; Халверсон, Джеймс; Солячич, Марин; Хоу, Томас Ю.; Тегмарк, Макс (24 мая 2024 г.). «КАН: Колмогоров-Арнольд Сети». arXiv : 2404.19756 [ cs.LG ].
- ^ ван Нуланд, Теун (2024). «Некомпактное равномерное универсальное приближение» . Нейронные сети . 173 . arXiv : 2308.03812 . дои : 10.1016/j.neunet.2024.106181 . ПМИД 38412737 .
- ^ Баадер, Максимилиан; Мирман, Мэтью; Вечев, Мартин (2020). Универсальное приближение сертифицированными сетями . ICLR.
- ^ Геленбе, Эрол; Мао, Чжи Хун; Ли, Ян Д. (1999). «Аппроксимация функции с помощью случайных сетей с шипами» . Транзакции IEEE в нейронных сетях . 10 (1): 3–9. дои : 10.1109/72.737488 . ПМИД 18252498 .
- ^ Линь, Хунчжоу; Джегелька, Стефани (2018). ResNet со скрытыми слоями из одного нейрона представляет собой универсальный аппроксиматор . Достижения в области нейронных систем обработки информации . Том. 30. Карран Ассошиэйтс. стр. 6169–6178.
- ^ Сюй, Кейулу; Ху, Вэйхуа; Лесковец, Юре; Джегелька, Стефани (2019). Насколько мощны графовые нейронные сети? . Международная конференция по обучению представлений .
- ^ Брюль-Габрильссон, Рикард (2020). Приближение универсальных функций на графах . Достижения в области нейронных систем обработки информации . Том. 33. Карран Ассошиэйтс.
- ^ Крациос, Анастасис; Белокопытов, Евгений (2020). Неевклидово универсальное приближение (PDF) . Достижения в области нейронных систем обработки информации . Том. 33. Карран Ассошиэйтс.
- ^ Чжоу, Дин-Сюань (2020). «Универсальность глубоких сверточных нейронных сетей». Прикладной и вычислительный гармонический анализ . 48 (2): 787–794. arXiv : 1805.10769 . дои : 10.1016/j.acha.2019.06.004 . S2CID 44113176 .
- ^ Хайнеке, Андреас; Хо, Джинн; Хван, Вэнь-Лян (2020). «Уточнение и универсальное приближение с помощью разреженно связанных сверточных сетей ReLU». Письма об обработке сигналов IEEE . 27 : 1175–1179. Бибкод : 2020ISPL...27.1175H . дои : 10.1109/ЛСП.2020.3005051 . S2CID 220669183 .
- ^ Парк, Дж.; Сандберг, И.В. (1991). «Универсальное приближение с использованием сетей с радиальными базисными функциями». Нейронные вычисления . 3 (2): 246–257. дои : 10.1162/neco.1991.3.2.246 . ПМИД 31167308 . S2CID 34868087 .
- ^ Яроцкий, Дмитрий (2021). «Универсальные аппроксимации инвариантных карт нейронными сетями». Конструктивная аппроксимация . 55 : 407–474. arXiv : 1804.10306 . дои : 10.1007/s00365-021-09546-1 . S2CID 13745401 .
- ^ Закван, Мухаммед; д'Анджело, Массимилиано; Феррари-Трекате, Джанкарло (2023). «Свойство универсальной аппроксимации гамильтоновых глубоких нейронных сетей». Письма IEEE Control Systems : 1. arXiv : 2303.12147 . дои : 10.1109/LCSYS.2023.3288350 . S2CID 257663609 .
- ^ Фунахаси, Кен-Ичи (январь 1989 г.). «О приближенной реализации непрерывных отображений нейронными сетями». Нейронные сети . 2 (3): 183–192. дои : 10.1016/0893-6080(89)90003-8 .
- ^ Jump up to: а б Хорник, Курт; Стинчкомб, Максвелл; Уайт, Халберт (январь 1989 г.). «Многослойные сети прямого распространения являются универсальными аппроксиматорами». Нейронные сети . 2 (5): 359–366. дои : 10.1016/0893-6080(89)90020-8 .
- ^ Хайкин, Саймон (1998). Нейронные сети: комплексный фундамент , Том 2, Прентис Холл. ISBN 0-13-273350-1 .
- ^ Хассун, М. (1995) Основы искусственных нейронных сетей MIT Press, стр. 48
- ^ Нильсен, Майкл А. (2015). «Нейронные сети и глубокое обучение» .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Ханин, Б. (2018). Аппроксимация непрерывных функций ReLU-сетями минимальной ширины . Препринт arXiv arXiv:1710.11278.
- ^ Пак, Юн, Ли, Шин, Седжун, Чулхи, Джэхо, Джину (28 сентября 2020 г.). «Минимальная ширина для универсального приближения» . ИКЛР . arXiv : 2006.08859 .
{{cite journal}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ Шен, Цзовэй; Ян, Хайчжао; Чжан, Шиджун (январь 2022 г.). «Оптимальная скорость аппроксимации сетей ReLU по ширине и глубине». Журнал чистой и прикладной математики . 157 : 101–135. arXiv : 2103.00502 . дои : 10.1016/j.matpur.2021.07.009 . S2CID 232075797 .
- ^ Лу, Цзяньфэн; Шен, Цзовэй; Ян, Хайчжао; Чжан, Шиджун (январь 2021 г.). «Глубокая сетевая аппроксимация для гладких функций». SIAM Journal по математическому анализу . 53 (5): 5465–5506. arXiv : 2001.03040 . дои : 10.1137/20M134695X . S2CID 210116459 .
- ^ Юдицкий Анатолий Б.; Лепский Олег В.; Цыбаков, Александр Б. (01.06.2009). «Непараметрическое оценивание сложных функций» . Анналы статистики 37 (3). дои : 10.1214/08-год611 . ISSN 0090-5364 . S2CID 2471890 .
- ^ Поджо, Томазо; Мхаскар, Хрушикеш; Росаско, Лоренцо; Миранда, Брандо; Ляо, Цяньли (14 марта 2017 г.). «Почему и когда глубокие, но не мелкие сети смогут избежать проклятия размерности: обзор» . Международный журнал автоматизации и вычислений . 14 (5): 503–519. arXiv : 1611.00740 . дои : 10.1007/s11633-017-1054-2 . ISSN 1476-8186 . S2CID 15562587 .
- ^ Джонсон, Джесси (2019). Глубокие, тонкие нейронные сети не являются универсальными аппроксиматорами . Международная конференция по обучению представлений.