~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 26D3CE161A44DD745EDC52956A87A58D__1718522580 ✰
Заголовок документа оригинал.:
✰ Universal approximation theorem - Wikipedia ✰
Заголовок документа перевод.:
✰ Теорема об универсальной аппроксимации — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Universal_approximation_theorem ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/26/8d/26d3ce161a44dd745edc52956a87a58d.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/26/8d/26d3ce161a44dd745edc52956a87a58d__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 20:34:48 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 16 June 2024, at 10:23 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Теорема об универсальной аппроксимации — Википедия Jump to content

Универсальная аппроксимационная теорема

Из Википедии, бесплатной энциклопедии

В математической теории искусственных нейронных сетей универсальными теоремами аппроксимации являются теоремы [1] [2] следующего вида: Учитывая семейство нейронных сетей, для каждой функции из некоторого функционального пространства существует последовательность нейронных сетей из семьи, так что по некоторым критериям. То есть семейство нейронных сетей плотно в функциональном пространстве.

Самая популярная версия утверждает, что сети прямого распространения с неполиномиальными функциями активации плотны в пространстве непрерывных функций между двумя евклидовыми пространствами относительно компактной топологии сходимости .

Универсальные теоремы аппроксимации — это теоремы существования: они просто утверждают, что существует такая последовательность. и не предоставляют никакого способа найти такую ​​последовательность. Они также не гарантируют, что какой-либо метод, например обратное распространение ошибки , действительно сможет найти такую ​​последовательность. Любой метод поиска в пространстве нейронных сетей, включая обратное распространение ошибки, может найти сходящуюся последовательность или нет (т. е. обратное распространение ошибки может застрять в локальном оптимуме).

Универсальные аппроксимационные теоремы — это предельные теоремы: они просто утверждают, что для любого и критерии близости , если в нейронной сети достаточно нейронов, то существует нейронная сеть с таким количеством нейронов, которая приближается в пределах . Нет никакой гарантии, что любого конечного размера, скажем, 10 000 нейронов будет достаточно.

Настройка [ править ]

Искусственные нейронные сети с действительным знаком представляют собой комбинации нескольких простых математических функций, которые реализуют более сложные функции, от (обычно) векторов с действительным знаком до векторов . Пространства многомерных функций, реализуемые сетью, определяются структурой сети, набором простых функций и ее мультипликативными параметрами. Большая теоретическая работа была посвящена характеристике этих функциональных пространств.

Большинство универсальных аппроксимационных теорем относятся к одному из двух классов. Первый количественно определяет возможности аппроксимации нейронных сетей с произвольным количеством искусственных нейронов (« случай произвольной ширины »), а второй фокусируется на случае с произвольным количеством скрытых слоев, каждый из которых содержит ограниченное количество искусственных нейронов («случай произвольной глубины»). " случай). Помимо этих двух классов существуют также универсальные аппроксимационные теоремы для нейронных сетей с ограниченным числом скрытых слоев и ограниченным числом нейронов в каждом слое (случай « ограниченной глубины и ограниченной ширины »).

История [ править ]

Произвольная ширина [ править ]

Первыми примерами были случай произвольной ширины . Джордж Цыбенко в 1989 году доказал это для сигмовидной кишки . функций активации [3] Курт Хорник [ де ] , Максвелл Стинчкомб и Халберт Уайт показали в 1989 году, что многослойные сети с прямой связью всего с одним скрытым слоем являются универсальными аппроксиматорами. [1] Хорник также показывался в 1991 году. [4] что не конкретный выбор функции активации, а сама многоуровневая архитектура прямой связи дает нейронным сетям потенциал быть универсальными аппроксиматорами. Моше Лешно и др. в 1993 году. [5] а затем Аллан Пинкус в 1999 году. [6] показал, что свойство универсальной аппроксимации эквивалентно наличию неполиномиальной функции активации.

Произвольная глубина [ править ]

Случай произвольной глубины также изучался рядом авторов, таких как Густав Грипенберг в 2003 году. [7] Дмитрий Яроцкий, [8] Чжоу Лу и др . в 2017 г. [9] Борис Ханин и Марк Селлке в 2018 году [10] который сосредоточился на нейронных сетях с функцией активации ReLU. В 2020 году Патрик Киджер и Терри Лайонс [11] распространил эти результаты на нейронные сети с общими функциями активации , такими как tanh, GeLU или Swish.

Ограниченная глубина и ограниченная ширина [ править ]

Случай ограниченной глубины и ограниченной ширины был впервые изучен Майоровым и Пинкусом в 1999 году. [12] Они показали, что существует аналитическая сигмоидальная функция активации, такая что две нейронные сети скрытого слоя с ограниченным числом единиц в скрытых слоях являются универсальными аппроксиматорами.

Гулиев и Исмаилов [13] построил гладкую сигмоидальную функцию активации, обеспечивающую универсальное свойство аппроксимации для двух нейронных сетей прямого распространения скрытых слоев с меньшим количеством блоков в скрытых слоях.

[14] построили одиночные сети скрытых слоев с ограниченной шириной, которые по-прежнему являются универсальными аппроксиматорами одномерных функций. Однако это не относится к функциям со многими переменными.

[15] получил точную количественную информацию о глубине и ширине, необходимой для аппроксимации целевой функции с помощью глубоких и широких нейронных сетей ReLU.

Количественные границы

Вопрос о минимально возможной ширине универсальности был впервые изучен в 2021 году, Парк и др. получили минимальную ширину, необходимую для универсальной аппроксимации L п функции, использующие нейронные сети прямого распространения с ReLU в качестве функций активации. [16] Аналогичные результаты, которые можно напрямую применить к остаточным нейронным сетям, были получены в том же году Пауло Табуада и Бахманом Гаресифардом с использованием аргументов теории управления . [17] [18] В 2023 году Лошади [19] получена оптимальная граница минимальной ширины для универсального приближения.

Для случая произвольной глубины Леони Папон и Анастасис Крациос [20] получены явные оценки глубины в зависимости от регулярности целевой функции и функции активации.

Колмогоровская сеть [ править ]

Теорема о представлении Колмогорова –Арнольда аналогична по духу. Действительно, некоторые семейства нейронных сетей могут напрямую применять теорему Колмогорова – Арнольда для получения универсальной аппроксимационной теоремы.

[21] показал, что трехслойная нейронная сеть может аппроксимировать любую непрерывную многомерную функцию. Это было распространено на прерывистый случай в [22] .

[23] показывает практическое применение.

Варианты [ править ]

Прерывистые функции активации, [5] некомпактные области, [11] [24] сертифицированные сети, [25] случайные нейронные сети, [26] и альтернативные сетевые архитектуры и топологии. [11] [27]

Свойство универсальной аппроксимации сетей с ограниченной шириной изучалось как двойственное к классическим результатам универсальной аппроксимации сетей с ограниченной глубиной. Для входного размера dx и выходного размера dy минимальная ширина, необходимая для универсальной аппроксимации L п функций в точности max{dx + 1, dy} (для сети ReLU). В более общем смысле это также справедливо, если как ReLU, так и функция пороговой активации . используются [16]

Аппроксимация универсальной функции на графах (или, скорее, на классах изоморфизма графов ) с помощью популярных сверточных нейронных сетей графов (GCN или GNN) может быть сделана такой же дискриминационной, как тест изоморфизма графов Вейсфейлера-Лемана. [28] В 2020 году [29] результат теоремы универсальной аппроксимации был установлен Брюлем-Габрильссоном, показывающим, что представление графа с определенными инъективными свойствами достаточно для аппроксимации универсальной функции на ограниченных графах и ограниченной аппроксимации универсальной функции на неограниченных графах с сопровождающим - метод времени выполнения, который выполняется на современном уровне техники для набора тестов (где и — множества узлов и ребер графа соответственно).

Есть также множество результатов между неевклидовыми пространствами. [30] и другие широко используемые архитектуры и, в более общем смысле, алгоритмически генерируемые наборы функций, такие как архитектура сверточной нейронной сети (CNN), [31] [32] радиальные базисные функции , [33] или нейронные сети с определенными свойствами. [34] [35]

Случай произвольной ширины [ править ]

В 1980-1990-х годах в ряде статей Джорджа Цибенко , Курта Хорника [ де ] и др. было установлено несколько универсальных аппроксимационных теорем для произвольной ширины и ограниченной глубины. [36] [3] [37] [4] Видеть [38] [39] [6] для отзывов. Чаще всего цитируют следующее:

Теорема об универсальной аппроксимации . Пусть обозначим множество непрерывных функций из подмножества евклидова пространство в евклидово пространство . Позволять . Обратите внимание, что , так обозначает применяется к каждому компоненту .

Затем не является полиномиальным тогда и только тогда, когда для любого , , компактный , существуют , , , такой, что

где

Кроме того, некоторые прерывистые функции активации можно использовать для аппроксимации сигмовидной функции, что затем позволяет применить приведенную выше теорему к этим функциям. Например, работает ступенчатая функция . В частности, это показывает, что сеть перцептронов с одним скрытым слоем бесконечной ширины может аппроксимировать произвольные функции.

Такой также может быть аппроксимирована сетью большей глубины, используя ту же конструкцию для первого слоя и аппроксимируя тождественную функцию более поздними слоями.

Эскиз доказательства

Достаточно доказать случай, когда , поскольку равномерная сходимость по это просто равномерная сходимость по каждой координате.

Позволять быть набором всех нейронных сетей с одним скрытым слоем, построенных с помощью . Позволять быть набором всех с компактной опорой.

Если функция является полиномом степени , затем содержится в замкнутом подпространстве всех многочленов степени , поэтому в нем содержится и его замыкание, что еще не все .

В противном случае мы покажем, что закрытие - это все . Предположим, мы можем построить сколь угодно хорошие аппроксимации линейной функции

тогда его можно объединить для построения произвольной непрерывной функции с компактным носителем с любой точностью. Осталось аппроксимировать функцию линейного изменения.

Любая из обычно используемых функций активации, используемых в машинном обучении, очевидно, может использоваться для аппроксимации функции линейного изменения или сначала аппроксимации ReLU, а затем функции линейного изменения.

если является «раздавливающим», то есть имеет пределы , то можно сначала аффинно уменьшить его ось X так, чтобы его график выглядел как ступенчатая функция с двумя резкими «выбросами», а затем составить линейную сумму из них, достаточных для получения «лестничной» аппроксимации функции линейного изменения. При увеличении количества ступеней лестницы выбросы сглаживаются, и мы получаем сколь угодно хорошее приближение функции линейного изменения.

Случай, когда является общей неполиномиальной функцией, это сложнее, и читатель направляется к ней. [6]

В приведенном выше доказательстве не указано, как можно использовать функцию линейного изменения для аппроксимации произвольных функций в . Схема доказательства состоит в том, что можно сначала построить плоские функции выпуклости, пересечь их, чтобы получить сферические функции выпуклости, аппроксимирующие дельта-функцию Дирака , а затем использовать их для аппроксимации произвольных функций в . [40] Оригинальные доказательства, такие как доказательство Цыбенко, используют методы функционального анализа, включая теоремы о представлении Хана-Банаха и Рисса .

Обратите также внимание, что нейронной сети требуется только аппроксимация в пределах компактного набора. . Доказательство не описывает, как функция будет экстраполироваться за пределы области.

Проблему с полиномами можно устранить, разрешив умножать выходные данные скрытых слоев («пи-сигма-сети»), что дает обобщение: [37]

Универсальная теорема аппроксимации для пи-сигма-сетей . С любой непостоянной функцией активации пи-сигма-сеть с одним скрытым слоем является универсальным аппроксиматором.

Случай произвольной глубины [ править ]

«Двойные» версии теоремы рассматривают сети ограниченной ширины и произвольной глубины. Вариант универсальной аппроксимационной теоремы был доказан для случая произвольной глубины Чжоу Лу и др. в 2017 году. [9] Они показали, что сети ширины n + 4 с функциями активации ReLU могут аппроксимировать любую интегрируемую по Лебегу функцию в n -мерном входном пространстве относительно расстояние , если разрешено увеличивать глубину сети. Было также показано, что если ширина меньше или равна n , эта общая выразительная сила аппроксимации любой интегрируемой по Лебегу функции теряется. В той же статье [9] было показано, что сетей ReLU шириной n + 1 достаточно для аппроксимации любой непрерывной функции от n -мерных входных переменных. [41] Следующее уточнение определяет оптимальную минимальную ширину, для которой такое приближение возможно и обусловлено. [42]

Теорема об универсальной аппроксимации (расстояние L1, активация ReLU, произвольная глубина, минимальная ширина) для любой Бохнера – Лебега. p-интегрируемой функции и любой , существует полностью подключенная ReLU сеть ширины точно , удовлетворяя

Более того, существует функция и немного , для которого не существует полносвязной сети ReLU шириной менее удовлетворяющее указанной выше границе приближения.

Примечание. Если активация заменена дырявым ReLU, а ввод ограничен компактной областью, то точная минимальная ширина равна [19] .

Количественное уточнение: В том случае, когда, когда и и где — это функция активации ReLU , точная глубина и ширина сети ReLU, которую необходимо достичь. ошибка тоже известна. [43] Если при этом целевая функция гладкая, то необходимое количество слоев и их ширина могут быть экспоненциально меньшими. [44] Даже если не является гладким, проклятие размерности можно снять, если допускает дополнительную «композиционную структуру». [45] [46]

В совокупности главный результат [11] дает следующую универсальную аппроксимационную теорему для сетей ограниченной ширины (см. также [7] за первый результат такого рода).

Теорема об универсальной аппроксимации (Равномерная неаффинная активация, произвольная глубина , ограниченная ширина). - Позволять быть компактным подмножеством . Позволять — любая неаффинная непрерывная функция, непрерывно дифференцируемая хотя бы в одной точке, с ненулевой производной в этой точке. Позволять обозначим пространство нейронных сетей прямого распространения с входные нейроны, выходные нейроны и произвольное количество скрытых слоев, каждый из которых нейронов, так что каждый скрытый нейрон имеет функцию активации и каждый выходной нейрон имеет идентичность в качестве функции активации, а входной слой и выходной слой . Тогда учитывая любой и любой , Существует такой, что

Другими словами, плотный в относительно топологии равномерной сходимости .

Количественное уточнение: количество слоев и ширина каждого слоя, необходимые для аппроксимации. к точность известна; [20] более того, результат справедлив, когда и неположительной кривизны заменяются любым римановым многообразием .

Определенные необходимые условия для случая ограниченной ширины и произвольной глубины установлены, но между известными достаточными и необходимыми условиями все еще существует разрыв. [9] [10] [47]

Случай ограниченной глубины и ограниченной ширины [ править ]

Первый результат об аппроксимационных возможностях нейронных сетей с ограниченным числом слоев, каждый из которых содержит ограниченное число искусственных нейронов, был получен Майоровым и Пинкусом. [12] Их замечательный результат показал, что такие сети могут быть универсальными аппроксиматорами и для достижения этого свойства достаточно двух скрытых слоев.

Универсальная теорема аппроксимации: [12] Имеется функция активации которая является аналитической, строго возрастающей, сигмоидальной и обладает следующим свойством: для любого и существуют константы и векторы для которого

для всех .

Это результат существования. В нем говорится, что существуют функции активации, обеспечивающие универсальное свойство аппроксимации для сетей ограниченной глубины и ширины. Используя определенные методы алгоритмического и компьютерного программирования, Гулиев и Исмаилов эффективно построили такие функции активации в зависимости от числового параметра. Разработанный алгоритм позволяет мгновенно вычислять функции активации в любой точке действительной оси. Алгоритм и соответствующий компьютерный код см. [13] Теоретический результат можно сформулировать следующим образом.

Универсальная теорема аппроксимации: [13] [14] - Позволять быть конечным отрезком вещественной прямой, и быть любым положительным числом. Тогда можно алгоритмически построить вычислимую сигмоидальную функцию активации. , которая бесконечно дифференцируема и строго возрастает на , - строго возрастает по и удовлетворяет следующим свойствам:

  1. Для любого и существуют числа и такой, что для всех
  2. Для любой непрерывной функции на -размерная коробка и , существуют константы , , и такая, что неравенство
    держится для всех . Здесь весы , , фиксируются следующим образом:
    Кроме того, все коэффициенты , кроме одного, равны.

Здесь " является -строго возрастает на некотором множестве означает, что существует строго возрастающая функция такой, что для всех . Ясно, что -возрастающая функция ведет себя как обычная возрастающая функция: становится маленьким. В терминологии « глубины-ширины » приведенная выше теорема гласит, что для некоторых функций активации глубина ширина- сети являются универсальными аппроксиматорами одномерных функций и глубинных ширина- сети являются универсальными аппроксиматорами -переменные функции ( ).

См. также [ править ]

Ссылки [ править ]

  1. ^ Перейти обратно: а б Хорник, Курт; Стинчкомб, Максвелл; Уайт, Халберт (январь 1989 г.). «Многослойные сети прямого распространения являются универсальными аппроксиматорами». Нейронные сети . 2 (5): 359–366. дои : 10.1016/0893-6080(89)90020-8 .
  2. ^ Чаи Балаж Чанад (2001) Приближение с помощью искусственных нейронных сетей; факультет наук; Университет Этвеша Лоранда, Венгрия
  3. ^ Перейти обратно: а б Цыбенко, Г. (1989). «Приближение суперпозициями сигмоидальной функции». Математика управления, сигналов и систем . 2 (4): 303–314. CiteSeerX   10.1.1.441.7873 . дои : 10.1007/BF02551274 . S2CID   3958369 .
  4. ^ Перейти обратно: а б Хорник, Курт (1991). «Возможности аппроксимации многослойных сетей прямого распространения». Нейронные сети . 4 (2): 251–257. дои : 10.1016/0893-6080(91)90009-T . S2CID   7343126 .
  5. ^ Перейти обратно: а б Лешно, Моше; Лин, Владимир Я.; Пинкус, Аллан; Шокен, Шимон (январь 1993 г.). «Многослойные сети прямого распространения с неполиномиальной функцией активации могут аппроксимировать любую функцию» . Нейронные сети . 6 (6): 861–867. дои : 10.1016/S0893-6080(05)80131-5 . S2CID   206089312 .
  6. ^ Перейти обратно: а б с Пинкус, Аллан (январь 1999 г.). «Теория аппроксимации модели MLP в нейронных сетях». Акта Нумерика . 8 : 143–195. Бибкод : 1999AcNum...8..143P . дои : 10.1017/S0962492900002919 . S2CID   16800260 .
  7. ^ Перейти обратно: а б Грипенберг, Густав (июнь 2003 г.). «Аппроксимация нейронными сетями с ограниченным числом узлов на каждом уровне». Журнал теории приближения . 122 (2): 260–266. дои : 10.1016/S0021-9045(03)00078-9 .
  8. ^ Яроцкий, Дмитрий (октябрь 2017 г.). «Границы погрешности для аппроксимаций с глубокими сетями ReLU». Нейронные сети . 94 : 103–114. arXiv : 1610.01145 . дои : 10.1016/j.neunet.2017.07.002 . ПМИД   28756334 . S2CID   426133 .
  9. ^ Перейти обратно: а б с д Лу, Чжоу; Пу, Хунмин; Ван, Фейчэн; Ху, Чжицян; Ван, Ливэй (2017). «Выразительная сила нейронных сетей: взгляд со стороны» . Достижения в области нейронных систем обработки информации . 30 . Карран Ассошиэйтс: 6231–6239. arXiv : 1709.02540 .
  10. ^ Перейти обратно: а б Ханин, Борис; Селлке, Марк (2018). «Аппроксимация непрерывных функций сетями ReLU минимальной ширины». arXiv : 1710.11278 [ stat.ML ].
  11. ^ Перейти обратно: а б с д Киджер, Патрик; Лайонс, Терри (июль 2020 г.). Универсальное приближение с глубокими узкими сетями . Конференция по теории обучения. arXiv : 1905.08539 .
  12. ^ Перейти обратно: а б с Майоров, Виталий; Пинкус, Аллан (апрель 1999 г.). «Нижние оценки аппроксимации нейронными сетями MLP». Нейрокомпьютинг . 25 (1–3): 81–91. дои : 10.1016/S0925-2312(98)00111-8 .
  13. ^ Перейти обратно: а б с Гулиев, Намиг; Исмаилов, Вугар (ноябрь 2018 г.). «Возможности аппроксимации двух нейронных сетей прямого распространения скрытого слоя с фиксированными весами». Нейрокомпьютинг . 316 : 262–269. arXiv : 2101.09181 . дои : 10.1016/j.neucom.2018.07.075 . S2CID   52285996 .
  14. ^ Перейти обратно: а б Гулиев, Намиг; Исмаилов, Вугар (февраль 2018 г.). «Об аппроксимации однослойными нейронными сетями прямого распространения с фиксированными весами». Нейронные сети . 98 : 296–304. arXiv : 1708.06219 . дои : 10.1016/j.neunet.2017.12.007 . ПМИД   29301110 . S2CID   4932839 .
  15. ^ Шен, Цзовэй; Ян, Хайчжао; Чжан, Шиджун (январь 2022 г.). «Оптимальная скорость аппроксимации сетей ReLU по ширине и глубине». Журнал Mathématiques Pures et Appliquées . 157 : 101–135. arXiv : 2103.00502 . дои : 10.1016/j.matpur.2021.07.009 . S2CID   232075797 .
  16. ^ Перейти обратно: а б Пак, Седжун; Юн, Чулхи; Ли, Джэхо; Шин, Джин Ву (2021). Минимальная ширина для универсального приближения . Международная конференция по обучению представлений. arXiv : 2006.08859 .
  17. ^ Табуада, Пауло; Гаресифард, Бахман (2021). Универсальная мощность аппроксимации глубоких остаточных нейронных сетей с помощью нелинейной теории управления . Международная конференция по обучению представлений. arXiv : 2007.06007 .
  18. ^ Табуада, Пауло; Гаресифард, Бахман (май 2023 г.). «Универсальная аппроксимационная сила глубоких остаточных нейронных сетей через призму управления». Транзакции IEEE при автоматическом управлении . 68 (5): 2715–2728. дои : 10.1109/TAC.2022.3190051 . S2CID   250512115 . (Ошибка: два : 10.1109/TAC.2024.3390099 )
  19. ^ Перейти обратно: а б Цай, Юнцян (01 февраля 2023 г.). «Достижение минимальной ширины нейронных сетей для универсального приближения» . ИКЛР . arXiv : 2209.11395 .
  20. ^ Перейти обратно: а б Крациос, Анастасис; Папон, Леони (2022). «Теоремы универсального приближения для дифференцируемого геометрического глубокого обучения» . Журнал исследований машинного обучения . 23 (196): 1–73. arXiv : 2101.05390 .
  21. ^ Х, Нильсен Р. (1987). «Теорема существования нейронной сети отображения Колмогорова» . Материалы международной конференции по нейронным сетям, 1987 г. 3 : 11–13.
  22. ^ Исмаилов, Вугар Э. (июль 2023 г.). «Трёхслойная нейронная сеть может представлять любую многомерную функцию». Журнал математического анализа и приложений . 523 (1): 127096. arXiv : 2012.03016 . дои : 10.1016/j.jmaa.2023.127096 . S2CID   265100963 .
  23. ^ Лю, Цзымин; Ван, Исюань; Вайдья, Сачин; Рюле, Фабиан; Халверсон, Джеймс; Солячич, Марин; Хоу, Томас Ю.; Тегмарк, Макс (24 мая 2024 г.). «КАН: Колмогоров-Арнольд Сети». arXiv : 2404.19756 [ cs.LG ].
  24. ^ ван Нуланд, Теун (2024). «Некомпактное равномерное универсальное приближение» . Нейронные сети . 173 . arXiv : 2308.03812 . дои : 10.1016/j.neunet.2024.106181 . ПМИД   38412737 .
  25. ^ Баадер, Максимилиан; Мирман, Мэтью; Вечев, Мартин (2020). Универсальное приближение сертифицированными сетями . ICLR.
  26. ^ Геленбе, Эрол; Мао, Чжи Хун; Ли, Ян Д. (1999). «Аппроксимация функции с помощью случайных сетей с шипами» . Транзакции IEEE в нейронных сетях . 10 (1): 3–9. дои : 10.1109/72.737488 . ПМИД   18252498 .
  27. ^ Линь, Хунчжоу; Джегелька, Стефани (2018). ResNet со скрытыми слоями из одного нейрона представляет собой универсальный аппроксиматор . Достижения в области нейронных систем обработки информации . Том. 30. Карран Ассошиэйтс. стр. 6169–6178.
  28. ^ Сюй, Кейулу; Ху, Вэйхуа; Лесковец, Юре; Джегелька, Стефани (2019). Насколько мощны графовые нейронные сети? . Международная конференция по обучению представлений .
  29. ^ Брюль-Габрильссон, Рикард (2020). Приближение универсальных функций на графах . Достижения в области нейронных систем обработки информации . Том. 33. Карран Ассошиэйтс.
  30. ^ Крациос, Анастасис; Белокопытов, Евгений (2020). Неевклидово универсальное приближение (PDF) . Достижения в области нейронных систем обработки информации . Том. 33. Карран Ассошиэйтс.
  31. ^ Чжоу, Дин-Сюань (2020). «Универсальность глубоких сверточных нейронных сетей». Прикладной и вычислительный гармонический анализ . 48 (2): 787–794. arXiv : 1805.10769 . дои : 10.1016/j.acha.2019.06.004 . S2CID   44113176 .
  32. ^ Хайнеке, Андреас; Хо, Джинн; Хван, Вэнь-Лян (2020). «Уточнение и универсальное приближение с помощью разреженно связанных сверточных сетей ReLU». Письма об обработке сигналов IEEE . 27 : 1175–1179. Бибкод : 2020ISPL...27.1175H . дои : 10.1109/ЛСП.2020.3005051 . S2CID   220669183 .
  33. ^ Парк, Дж.; Сандберг, И.В. (1991). «Универсальное приближение с использованием сетей с радиальными базисными функциями». Нейронные вычисления . 3 (2): 246–257. дои : 10.1162/neco.1991.3.2.246 . ПМИД   31167308 . S2CID   34868087 .
  34. ^ Яроцкий, Дмитрий (2021). «Универсальные аппроксимации инвариантных карт нейронными сетями». Конструктивная аппроксимация . 55 : 407–474. arXiv : 1804.10306 . дои : 10.1007/s00365-021-09546-1 . S2CID   13745401 .
  35. ^ Закван, Мухаммед; д'Анджело, Массимилиано; Феррари-Трекате, Джанкарло (2023). «Свойство универсальной аппроксимации гамильтоновых глубоких нейронных сетей». Письма IEEE Control Systems : 1. arXiv : 2303.12147 . дои : 10.1109/LCSYS.2023.3288350 . S2CID   257663609 .
  36. ^ Фунахаси, Кен-Ичи (январь 1989 г.). «О приближенной реализации непрерывных отображений нейронными сетями». Нейронные сети . 2 (3): 183–192. дои : 10.1016/0893-6080(89)90003-8 .
  37. ^ Перейти обратно: а б Хорник, Курт; Стинчкомб, Максвелл; Уайт, Халберт (январь 1989 г.). «Многослойные сети прямого распространения являются универсальными аппроксиматорами». Нейронные сети . 2 (5): 359–366. дои : 10.1016/0893-6080(89)90020-8 .
  38. ^ Хайкин, Саймон (1998). Нейронные сети: комплексный фундамент , Том 2, Прентис Холл. ISBN   0-13-273350-1 .
  39. ^ Хассун, М. (1995) Основы искусственных нейронных сетей MIT Press, стр. 48
  40. ^ Нильсен, Майкл А. (2015). «Нейронные сети и глубокое обучение» . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  41. ^ Ханин, Б. (2018). Аппроксимация непрерывных функций ReLU-сетями минимальной ширины . Препринт arXiv arXiv:1710.11278.
  42. ^ Пак, Юн, Ли, Шин, Седжун, Чулхи, Джэхо, Джину (28 сентября 2020 г.). «Минимальная ширина для универсального приближения» . ИКЛР . arXiv : 2006.08859 . {{cite journal}}: CS1 maint: несколько имен: список авторов ( ссылка )
  43. ^ Шен, Цзовэй; Ян, Хайчжао; Чжан, Шиджун (январь 2022 г.). «Оптимальная скорость аппроксимации сетей ReLU по ширине и глубине». Журнал Mathématiques Pures et Appliquées . 157 : 101–135. arXiv : 2103.00502 . дои : 10.1016/j.matpur.2021.07.009 . S2CID   232075797 .
  44. ^ Лу, Цзяньфэн; Шен, Цзовэй; Ян, Хайчжао; Чжан, Шиджун (январь 2021 г.). «Глубокая сетевая аппроксимация для гладких функций». SIAM Journal по математическому анализу . 53 (5): 5465–5506. arXiv : 2001.03040 . дои : 10.1137/20M134695X . S2CID   210116459 .
  45. ^ Юдицкий, Анатолий Б.; Лепский Олег В.; Цыбаков, Александр Б. (01 июня 2009 г.). «Непараметрическое оценивание сложных функций» . Анналы статистики . 37 (3). дои : 10.1214/08-aos611 . ISSN   0090-5364 . S2CID   2471890 .
  46. ^ Поджо, Томазо; Мхаскар, Хрушикеш; Росаско, Лоренцо; Миранда, Брандо; Ляо, Цяньли (14 марта 2017 г.). «Почему и когда глубокие, но не мелкие сети смогут избежать проклятия размерности: обзор» . Международный журнал автоматизации и вычислений . 14 (5): 503–519. arXiv : 1611.00740 . дои : 10.1007/s11633-017-1054-2 . ISSN   1476-8186 . S2CID   15562587 .
  47. ^ Джонсон, Джесси (2019). Глубокие, тонкие нейронные сети не являются универсальными аппроксиматорами . Международная конференция по обучению представлений.
Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 26D3CE161A44DD745EDC52956A87A58D__1718522580
URL1:https://en.wikipedia.org/wiki/Universal_approximation_theorem
Заголовок, (Title) документа по адресу, URL1:
Universal approximation theorem - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)