Дэвид А. Макаллестер
Дэвид А. Макаллестер | |
---|---|
Рожденный | Соединенные Штаты | 30 мая 1956 г.
Альма-матер | Массачусетский технологический институт |
Известный | Искусственный интеллект |
Награды | Премия AAAI Classic Paper (2010) [1] Премия Международной конференции по логическому программированию «Испытание временем» (2014 г.) [2] |
Научная карьера | |
Поля | Информатика , Искусственный интеллект , Машинное обучение |
Учреждения | Массачусетский технологический институт Технологический институт Toyota в Чикаго |
Докторантура | Джеральд Сассман |
Дэвид А. Макаллестер (родился 30 мая 1956 г.) — американский ученый-компьютерщик, профессор и бывший главный научный сотрудник Технологического института Toyota в Чикаго . Он получил степени бакалавра, магистра и доктора философии. степени Массачусетского технологического института в 1978, 1979 и 1987 годах соответственно. Его докторскую диссертацию возглавлял Джеральд Сассман . Он работал на факультете Корнеллского университета в 1987–1988 учебном году и на факультете Массачусетского технологического института с 1988 по 1995 год. он был членом технического персонала исследовательской лаборатории AT&T. С 1995 по 2002 год Американская ассоциация искусственного интеллекта с 1997 года. [3] Он написал более 100 рецензируемых публикаций.
Области исследований Макаллестера включают теорию машинного обучения, теорию языков программирования, автоматизированное мышление, планирование искусственного интеллекта, компьютерные игры (компьютерные шахматы) и компьютерную лингвистику. Статья 1991 года о планировании ИИ. [4] оказалась одной из самых влиятельных газет десятилетия в этой области. [5] Статья 1993 года об алгоритмах компьютерных игр. [6] повлиял на разработку алгоритмов, использованных в шахматной системе Deep Blue , победившей Гарри Каспарова . [7] Статья 1998 года по теории машинного обучения. [8] представил PAC-байесовские теоремы, которые сочетают в себе байесовские и небайесовские методы.
Мнения об искусственном интеллекте
[ редактировать ]Макаллестер выразил обеспокоенность по поводу потенциальной опасности , искусственного интеллекта написав в статье в Pittsburgh Tribune-Review , что неизбежно, что полностью автоматизированные интеллектуальные машины смогут проектировать и создавать более умные и лучшие версии самих себя. Это событие известно как сингулярность . Сингулярность позволит машинам стать бесконечно разумными и создаст «невероятно опасный сценарий». Макаллестер оценивает 10-процентную вероятность того, что сингулярность произойдет в течение 25 лет, и 90-процентную вероятность того, что она произойдет в течение 75 лет. [9] В 2009 году он участвовал в президентской комиссии AAAI по долгосрочному будущему ИИ: [10] и считает, что к опасностям сверхразумного ИИ стоит отнестись серьезно:
Мне неудобно говорить, что мы на девяносто девять процентов уверены, что будем в безопасности в течение пятидесяти лет... Мне это кажется высокомерием. [11]
Позже было описано, что он обсуждал на панели сингулярность с точки зрения двух основных вех в развитии искусственного интеллекта:
1) Оперативное чутье: мы можем легко общаться с компьютерами.2) Цепная реакция искусственного интеллекта: компьютер, который загружается в лучшую сторону. Повторить. [12]
Макаллестер также написал в своем блоге о дружественном искусственном интеллекте . Он говорит, что прежде чем машины станут способными программировать себя (что потенциально приведет к сингулярности), должен наступить период, когда они станут умеренно разумными, и в течение этого времени можно будет проверить, давая им цель или миссию, которая должна сделать их безопасными для людей. :
Я лично считаю, что вполне вероятно, что через десять лет агенты будут способны вести убедительный разговор о повседневных событиях, которые являются темами нетехнических разговоров за ужином. Я думаю, что это произойдет задолго до того, как машины смогут программировать себя, что приведет к взрыву интеллекта. Ранние этапы создания общего искусственного интеллекта (AGI) будут безопасными. Тем не менее, ранние стадии AGI станут отличным испытательным полигоном для миссии слуг или других подходов к дружественному ИИ... Если наступит эра безопасного (не слишком интеллектуального) AGI, то у нас будет время подумать об этом позже. более опасные эпохи. [13]
Ссылки
[ редактировать ]- ^ «Премия AAA Classic Paper» . АААИ . 2016 . Проверено 19 августа 2016 г.
- ^ «Работа Паскаля выдержала испытание временем» . Австралийский национальный университет . 23 апреля 2014 года . Проверено 19 августа 2016 г.
- ^ «Биография Дэвида Макаллестера» . Технологический институт Тойоты в Чикаго . Проверено 19 августа 2016 г.
- ^ Макаллестер, Дэвид; Розенблит, Дэвид (декабрь 1991 г.). «Систематическое нелинейное планирование» (PDF) . Материалы АААИ-91 . АААИ : 634–639 . Проверено 19 августа 2016 г.
- ^ «Цитаты в Google Scholar» . Google Академик . 2016 . Проверено 19 августа 2016 г.
- ^ Макаллестер, Дэвид; Юрет, Дениз (20 октября 1993 г.). «Поиск альфа-бета-заговора». Черновик. CiteSeerX 10.1.1.44.6969 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Кэмпбелл, Мюррей С.; Джозеф Хоан-младший, А.; Сюй, Фэн-сюн (1999). «Методы управления поиском в Deep Blue» (PDF) . Технический отчет AAAI SS-99-07 . АААИ : 19–23. Архивировано из оригинала (PDF) 14 сентября 2016 года . Проверено 16 августа 2016 г. .
Насколько нам известно, идея разделения вычислений глубины белого и черного была впервые предложена Дэвидом Макаллестером. В более поздней статье (McAllester and Yuret 1993) на основе теории заговора был выведен алгоритм ABC (McAllester 1988).
- ^ Макаллестер, Дэвид (1998). «Некоторые PAC-байесовские теоремы» . Материалы одиннадцатой ежегодной конференции по теории вычислительного обучения - COLT'98 . Ассоциация вычислительной техники . стр. 230–234. CiteSeerX 10.1.1.21.1745 . дои : 10.1145/279943.279989 . ISBN 978-1581130577 . S2CID 53234792 . Проверено 19 августа 2016 г.
- ^ Кронин, Майк (2 ноября 2009 г.). «В докладе футуристов рассматриваются опасности умных роботов» . Питтсбург Трибьюн-Ревью . Проверено 20 августа 2016 г.
- ^ «Асиломарская встреча по долгосрочному будущему ИИ» . Исследования Майкрософт . 2009 . Проверено 20 августа 2016 г.
- ^ Хачадурян, Раффи (23 ноября 2015 г.). «Изобретение Судного дня: принесет ли искусственный интеллект нам утопию или разрушение?» . Житель Нью-Йорка . Проверено 23 августа 2016 г. .
- ^ Фортнау, Лэнс (31 июля 2009 г.). «Сингулярность» . Вычислительная сложность . Проверено 20 августа 2016 г.
- ^ Макаллестер, Дэвид (10 августа 2014 г.). «Дружественный ИИ и миссия слуг» . Машинные мысли . WordPress . Проверено 20 августа 2016 г.
Внешние ссылки
[ редактировать ]- Академическая страница Дэвида Макаллестера в TTIC .
- Machine Thoughts , личный блог Дэвида Макаллестера.
- Дэвид Аллен Макаллестер в проекте «Математическая генеалогия» .