Jump to content

Дэвид А. Макаллестер

Дэвид А. Макаллестер
Рожденный ( 1956-05-30 ) 30 мая 1956 г. (68 лет)
Соединенные Штаты
Альма-матер Массачусетский технологический институт
Известный Искусственный интеллект
Награды Премия AAAI Classic Paper (2010) [1]
Премия Международной конференции по логическому программированию «Испытание временем» (2014 г.) [2]
Научная карьера
Поля Информатика , Искусственный интеллект , Машинное обучение
Учреждения Массачусетский технологический институт
Технологический институт Toyota в Чикаго
Докторантура Джеральд Сассман

Дэвид А. Макаллестер (родился 30 мая 1956 г.) — американский ученый-компьютерщик, профессор и бывший главный научный сотрудник Технологического института Toyota в Чикаго . Он получил степени бакалавра, магистра и доктора философии. степени Массачусетского технологического института в 1978, 1979 и 1987 годах соответственно. Его докторскую диссертацию возглавлял Джеральд Сассман . Он работал на факультете Корнеллского университета в 1987–1988 учебном году и на факультете Массачусетского технологического института с 1988 по 1995 год. он был членом технического персонала исследовательской лаборатории AT&T. С 1995 по 2002 год Американская ассоциация искусственного интеллекта с 1997 года. [3] Он написал более 100 рецензируемых публикаций.

Области исследований Макаллестера включают теорию машинного обучения, теорию языков программирования, автоматизированное мышление, планирование искусственного интеллекта, компьютерные игры (компьютерные шахматы) и компьютерную лингвистику. Статья 1991 года о планировании ИИ. [4] оказалась одной из самых влиятельных газет десятилетия в этой области. [5] Статья 1993 года об алгоритмах компьютерных игр. [6] повлиял на разработку алгоритмов, использованных в шахматной системе Deep Blue , победившей Гарри Каспарова . [7] Статья 1998 года по теории машинного обучения. [8] представил PAC-байесовские теоремы, которые сочетают в себе байесовские и небайесовские методы.

Мнения об искусственном интеллекте

[ редактировать ]

Макаллестер выразил обеспокоенность по поводу потенциальной опасности , искусственного интеллекта написав в статье в Pittsburgh Tribune-Review , что неизбежно, что полностью автоматизированные интеллектуальные машины смогут проектировать и создавать более умные и лучшие версии самих себя. Это событие известно как сингулярность . Сингулярность позволит машинам стать бесконечно разумными и создаст «невероятно опасный сценарий». Макаллестер оценивает 10-процентную вероятность того, что сингулярность произойдет в течение 25 лет, и 90-процентную вероятность того, что она произойдет в течение 75 лет. [9] В 2009 году он участвовал в президентской комиссии AAAI по долгосрочному будущему ИИ: [10] и считает, что к опасностям сверхразумного ИИ стоит отнестись серьезно:

Мне неудобно говорить, что мы на девяносто девять процентов уверены, что будем в безопасности в течение пятидесяти лет... Мне это кажется высокомерием. [11]

Позже было описано, что он обсуждал на панели сингулярность с точки зрения двух основных вех в развитии искусственного интеллекта:

1) Оперативное чутье: мы можем легко общаться с компьютерами.2) Цепная реакция искусственного интеллекта: компьютер, который загружается в лучшую сторону. Повторить. [12]

Макаллестер также написал в своем блоге о дружественном искусственном интеллекте . Он говорит, что прежде чем машины станут способными программировать себя (что потенциально приведет к сингулярности), должен наступить период, когда они станут умеренно разумными, и в течение этого времени можно будет проверить, давая им цель или миссию, которая должна сделать их безопасными для людей. :

Я лично считаю, что вполне вероятно, что через десять лет агенты будут способны вести убедительный разговор о повседневных событиях, которые являются темами нетехнических разговоров за ужином. Я думаю, что это произойдет задолго до того, как машины смогут программировать себя, что приведет к взрыву интеллекта. Ранние этапы создания общего искусственного интеллекта (AGI) будут безопасными. Тем не менее, ранние стадии AGI станут отличным испытательным полигоном для миссии слуг или других подходов к дружественному ИИ... Если наступит эра безопасного (не слишком интеллектуального) AGI, то у нас будет время подумать об этом позже. более опасные эпохи. [13]

  1. ^ «Премия AAA Classic Paper» . АААИ . 2016 . Проверено 19 августа 2016 г.
  2. ^ «Работа Паскаля выдержала испытание временем» . Австралийский национальный университет . 23 апреля 2014 года . Проверено 19 августа 2016 г.
  3. ^ «Биография Дэвида Макаллестера» . Технологический институт Тойоты в Чикаго . Проверено 19 августа 2016 г.
  4. ^ Макаллестер, Дэвид; Розенблит, Дэвид (декабрь 1991 г.). «Систематическое нелинейное планирование» (PDF) . Материалы АААИ-91 . АААИ : 634–639 . Проверено 19 августа 2016 г.
  5. ^ «Цитаты в Google Scholar» . Google Академик . 2016 . Проверено 19 августа 2016 г.
  6. ^ Макаллестер, Дэвид; Юрет, Дениз (20 октября 1993 г.). «Поиск альфа-бета-заговора». Черновик. CiteSeerX   10.1.1.44.6969 . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  7. ^ Кэмпбелл, Мюррей С.; Джозеф Хоан-младший, А.; Сюй, Фэн-сюн (1999). «Методы управления поиском в Deep Blue» (PDF) . Технический отчет AAAI SS-99-07 . АААИ : 19–23. Архивировано из оригинала (PDF) 14 сентября 2016 года . Проверено 16 августа 2016 г. . Насколько нам известно, идея разделения вычислений глубины белого и черного была впервые предложена Дэвидом Макаллестером. В более поздней статье (McAllester and Yuret 1993) на основе теории заговора был выведен алгоритм ABC (McAllester 1988).
  8. ^ Макаллестер, Дэвид (1998). «Некоторые PAC-байесовские теоремы» . Материалы одиннадцатой ежегодной конференции по теории вычислительного обучения - COLT'98 . Ассоциация вычислительной техники . стр. 230–234. CiteSeerX   10.1.1.21.1745 . дои : 10.1145/279943.279989 . ISBN  978-1581130577 . S2CID   53234792 . Проверено 19 августа 2016 г.
  9. ^ Кронин, Майк (2 ноября 2009 г.). «В докладе футуристов рассматриваются опасности умных роботов» . Питтсбург Трибьюн-Ревью . Проверено 20 августа 2016 г.
  10. ^ «Асиломарская встреча по долгосрочному будущему ИИ» . Исследования Майкрософт . 2009 . Проверено 20 августа 2016 г.
  11. ^ Хачадурян, Раффи (23 ноября 2015 г.). «Изобретение Судного дня: принесет ли искусственный интеллект нам утопию или разрушение?» . Житель Нью-Йорка . Проверено 23 августа 2016 г. .
  12. ^ Фортнау, Лэнс (31 июля 2009 г.). «Сингулярность» . Вычислительная сложность . Проверено 20 августа 2016 г.
  13. ^ Макаллестер, Дэвид (10 августа 2014 г.). «Дружественный ИИ и миссия слуг» . Машинные мысли . WordPress . Проверено 20 августа 2016 г.
[ редактировать ]


Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 77d376a24d3f3067fa326cb85829fbb8__1714966260
URL1:https://arc.ask3.ru/arc/aa/77/b8/77d376a24d3f3067fa326cb85829fbb8.html
Заголовок, (Title) документа по адресу, URL1:
David A. McAllester - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)