Кунихико Фукусима
Кунихико Фукусима | |
---|---|
Рожденный | 16 марта 1936 г., Япония. |
Гражданство | Япония |
Альма-матер | Киотский университет |
Известный | Искусственные нейронные сети , Неокогнитрон , сверточных нейронных сетей Архитектура , Обучение без учителя , Глубокое обучение , Функция активации ReLU |
Награды | Премия IEICE за достижения и награды за отличные статьи, Премия IEEE Neural Networks Pioneer, Премия APNNA за выдающиеся достижения, Премия JNNS за отличную работу, Премия Гельмгольца INNS, Премия Бауэра и Премия за достижения в науке |
Научная карьера | |
Поля | Информатика |
Учреждения | Институт нечетких логических систем |
Кунихико Фукусима ( яп . 福島 邦彦, родился 16 марта 1936 года) — японский учёный-компьютерщик , наиболее известный своими работами в области искусственных нейронных сетей и глубокого обучения . В настоящее время он работает неполный рабочий день старшим научным сотрудником в Институте систем нечеткой логики в Фукуоке , Япония. [1]
научные Выдающиеся достижения
В 1980 году на Фукусиме появился неокогнитрон . [2] [3] оригинальная архитектура глубокой сверточной нейронной сети (CNN). [4] [5] Фукусима предложила несколько алгоритмов обучения с учителем и без учителя для тренировки параметров глубокого неокогнитрона, чтобы он мог изучать внутренние представления входящих данных. [3] [6] Однако сегодня архитектура CNN обычно обучается посредством обратного распространения ошибки . Этот подход сейчас активно используется в компьютерном зрении . [5] [7]
В 1969 году на Фукусиме была представлена функция активации ReLU (линейный выпрямительный блок) в контексте извлечения визуальных признаков в иерархических нейронных сетях. [8] [9] [10] Позже утверждалось, что это имеет сильную биологическую мотивацию и математическое обоснование. [11] [12] В 2011 году было обнаружено, что это позволяет лучше обучать более глубокие сети. [13] по сравнению с широко используемыми функциями активации до 2011 года, например, логистической сигмоидой (которая основана на теории вероятностей ; см. Логистическую регрессию ) и ее более практичной функцией. [14] аналог — гиперболический тангенс . Выпрямитель по состоянию на 2017 год [update], самая популярная функция активации для глубоких нейронных сетей . [15]
Образование и карьера [ править ]
В 1958 году Фукусима получил степень бакалавра инженерных наук в области электроники в Киотском университете . [1] Он стал старшим научным сотрудником в исследовательских лабораториях науки и технологий NHK . В 1989 году он поступил на факультет Университета Осаки . [1] В 1999 году поступил на факультет Университета электросвязи . В 2001 году он поступил на факультет Токийского технологического университета . С 2006 по 2010 год он был приглашенным профессором в Университете Кансай . [1]
Фукусима был президентом-основателем Японского общества нейронных сетей (JNNS). Он также был одним из основателей совета управляющих Международного общества нейронных сетей (INNS) и президентом Азиатско-Тихоокеанской ассамблеи нейронных сетей (APNNA). [1] В 2003 году он был одним из членов совета управляющих Международного общества нейронных сетей (INNIS).
Награды [ править ]
В 2020 году Фукусима получила премию Бауэра и премию за достижения в науке . [16] Он также получил награду IEICE за достижения и награду за выдающуюся работу, премию IEEE Neural Networks Pioneer Award, премию APNNA за выдающиеся достижения, награду JNNS за отличную работу и премию INNS Гельмгольца. [1]
Внешние ссылки [ править ]
Ссылки [ править ]
- ^ Jump up to: Перейти обратно: а б с д и ж Проект устной истории СНГ (Дон Вунш) (2015). «Интервью с Кунихико Фукусимой» . IEEE-телевидение . Проверено 27 февраля 2019 г.
- ^ Фукусима, Неокогнитрон (1980). «Модель самоорганизующейся нейронной сети для механизма распознавания образов, на который не влияет сдвиг положения». Биологическая кибернетика . 36 (4): 193–202. дои : 10.1007/bf00344251 . ПМИД 7370364 . S2CID 206775608 .
- ^ Jump up to: Перейти обратно: а б Фукусима, К. (2007). «Неокогнитрон» . Схоларпедия . 2 (1): 1717. Бибкод : 2007SchpJ...2.1717F . doi : 10.4249/scholarpedia.1717 .
- ^ Фогг, Эндрю (2017). «История глубокого обучения» . импорт.io . Проверено 27 февраля 2019 г.
- ^ Jump up to: Перейти обратно: а б Шмидхубер, Юрген (2015). «Глубокое обучение» . Схоларпедия . 10 (11): 1527–54. CiteSeerX 10.1.1.76.1541 . дои : 10.1162/neco.2006.18.7.1527 . ПМИД 16764513 . S2CID 2309950 .
- ^ Фукусима, Кунихико (2018). «Видео: Искусственное зрение от Deep CNN Neocognitron» . Ютуб . Проверено 25 марта 2019 г.
- ^ ЛеКун, Янн; Бенджио, Йошуа; Хинтон, Джеффри (2015). «Глубокое обучение» (PDF) . Природа . 521 (7553): 436–444. Бибкод : 2015Natur.521..436L . дои : 10.1038/nature14539 . ПМИД 26017442 . S2CID 3074096 .
- ^ Фукусима, К. (1969). «Визуальное извлечение признаков с помощью многослойной сети аналоговых пороговых элементов». Транзакции IEEE по системным наукам и кибернетике . 5 (4): 322–333. дои : 10.1109/TSSC.1969.300225 .
- ^ Фукусима, К.; Мияке, С. (1982). «Неокогнитрон: самоорганизующаяся модель нейронной сети для механизма распознавания визуальных образов». Конкуренция и сотрудничество в нейронных сетях . В книге «Конкуренция и сотрудничество в нейронных сетях», конспекты лекций по биоматематике. Том. 45. Спрингер. стр. 267–285. дои : 10.1007/978-3-642-46466-9_18 . ISBN 978-3-540-11574-8 .
- ^ Шмидхубер, Юрген (2022). «Аннотированная история современного искусственного интеллекта и глубокого обучения». arXiv : 2212.11279 [ cs.NE ].
- ^ Ханлозер, Р.; Сарпешкар Р.; Маховальд, Массачусетс; Дуглас, Р.Дж.; Сын, HS (2000). «Цифровая селекция и аналоговое усиление сосуществуют в кремниевой схеме, основанной на коре головного мозга». Природа . 405 (6789): 947–951. Бибкод : 2000Natur.405..947H . дои : 10.1038/35016072 . ПМИД 10879535 . S2CID 4399014 .
- ^ Ханлозер, Р.; Сын, HS (2001). Разрешенные и запрещенные множества в симметричных порогово-линейных сетях . НИПС 2001.
- ^ Ксавье Глорот; Антуан Борд; Йошуа Бенджио (2011). Нейронные сети с глубоким разреженным выпрямителем (PDF) . АЙСТАТС. Архивировано из оригинала (PDF) 13 декабря 2016 г. Проверено 18 августа 2023 г.
Функции активации выпрямителя и softplus. Второй вариант является более гладкой версией первого.
- ^ Ян ЛеКун ; Леон Ботту ; Женевьева Б. Орр; Клаус-Роберт Мюллер (1998). «Эффективный BackProp» (PDF) . У Г. Орра; К. Мюллер (ред.). Нейронные сети: хитрости . Спрингер.
- ^ Рамачандран, Праджит; Баррет, Зоф; Куок, В. Ле (16 октября 2017 г.). «Поиск функций активации». arXiv : 1710.05941 [ cs.NE ].
- ^ «Кунихико Фукусима» . Институт Франклина . 25 января 2020 г. Проверено 27 января 2020 г.