Jump to content

Элиэзер Юдковский

Элиэзер Юдковский
Юдковский в Стэнфордском университете в 2006 году.
Рожденный
Элиэзер Шломо [а] Юдковский

( 1979-09-11 ) 11 сентября 1979 г. (44 года)
Организация Научно-исследовательский институт машинного интеллекта
Известный Введение термина «дружественный искусственный интеллект»
Исследования безопасности ИИ
Рациональное письмо
Основатель LessWrong
Веб-сайт www .юдковский .сеть

Элиэзер С. Юдковский ( / ˌ ε l i ˈ ɛ z ər ˌ j ʌ d ˈ k s k i / EH -lee- EH -zyir YUD - KOW -skee ; [1] родился 11 сентября 1979 г.) — американский исследователь искусственного интеллекта. [2] [3] [4] [5] и писатель по теории принятия решений и этике , наиболее известный благодаря популяризации идей, связанных с дружественным искусственным интеллектом . [6] [7] Он является основателем и научным сотрудником Научно-исследовательского института машинного интеллекта (MIRI), частной исследовательской некоммерческой организации, базирующейся в Беркли, Калифорния . [8] Его работа о перспективе безудержного взрыва интеллекта философа Ника Бострома повлияла на вышедшую в 2014 году книгу «Суперинтеллект: пути, опасности, стратегии» . [9]

Работа в сфере безопасности искусственного интеллекта [ править ]

и стимулы в Целевое обучение системах программных

Взгляды Юдковски на проблемы безопасности, которые будут представлять собой будущие поколения систем искусственного интеллекта, обсуждаются в Стюарта Рассела и Питера Норвига учебнике для студентов «Искусственный интеллект: современный подход» . Отмечая сложность формального определения целей общего назначения вручную, Рассел и Норвиг цитируют предложение Юдковски о том, что автономные и адаптивные системы должны разрабатываться так, чтобы с течением времени обучаться правильному поведению:

Юдковский (2008) [10] более подробно рассказывается о том, как создать дружественный ИИ . Он утверждает, что дружелюбие (желание не причинять вред людям) должно быть заложено с самого начала, но дизайнеры должны осознавать, что их собственные разработки могут быть ошибочными, а также то, что робот будет учиться и развиваться с течением времени. Таким образом, задача заключается в разработке механизма — разработать механизм развития ИИ в рамках системы сдержек и противовесов и предоставить системам полезные функции, которые останутся дружественными перед лицом таких изменений. [6]

В ответ на проблему инструментальной конвергенции , заключающуюся в том, что автономные системы принятия решений с плохо разработанными целями по умолчанию будут иметь стимулы плохо обращаться с людьми, Юдковский и другие исследователи MIRI рекомендовали провести работу по определению программных агентов, которые сходятся в безопасном поведении по умолчанию, даже если их цели указаны неверно. [11] [7]

возможностей Прогнозирование

В сценарии взрыва интеллекта , предложенном И. Дж. Гудом , рекурсивно самосовершенствующиеся системы искусственного интеллекта быстро переходят от нечеловеческого общего интеллекта к сверхразумному . В книге Ника Бострома 2014 года «Суперинтеллект: пути, опасности, стратегии» подробно излагаются аргументы Гуда, а также цитируется Юдковски о риске того, что антропоморфизация передовых систем искусственного интеллекта приведет к тому, что люди неправильно поймут природу интеллектуального взрыва. «ИИ может совершить явно резкий скачок в интеллекте исключительно в результате антропоморфизма, человеческой склонности думать о «деревенском идиоте» и «Эйнштейне» как о крайних концах шкалы интеллекта, а не как о почти неразличимых точках на шкале интеллекта. -в общем." [6] [10] [12]

Элиэзер обсуждает судьбу на Манифесте 2023

В книге «Искусственный интеллект: современный подход» Рассел и Норвиг выдвигают возражение, что существуют известные пределы интеллектуального решения проблем из теории сложности вычислений ; Если существуют строгие ограничения на эффективность алгоритмов в решении различных задач, взрыв интеллекта может быть невозможен. [6]

Время публикации [ править ]

В статье для Time журнала в 2023 году Юдковский обсудил риск, связанный с искусственным интеллектом, и предложил меры, которые можно предпринять для его ограничения, включая полную остановку развития ИИ. [13] [14] или даже «уничтожить несанкционированный центр обработки данных авиаударом». [5] Статья помогла вывести дебаты о совместимости ИИ в мейнстрим, побудив репортера задать президенту Джо Байдену вопрос о безопасности ИИ на брифинге для прессы. [2]

Рациональное письмо [ править ]

В период с 2006 по 2009 год Юдковски и Робин Хэнсон были основными авторами Overcoming Bias , блога по когнитивным и социальным наукам, спонсируемого Институтом будущего человечества Оксфордского университета. В феврале 2009 года Юдковски основал LessWrong , «блог сообщества, посвященный совершенствованию искусства человеческой рациональности». [15] [16] С тех пор Overcoming Bias стал личным блогом Хэнсона.

Более 300 сообщений в блоге Юдковски по философии и науке (первоначально написанные на страницах LessWrong и Overcoming Bias в виде электронной книги « Рациональность: от искусственного интеллекта к зомби » в 2015 году. ) были выпущены MIRI [17] MIRI также опубликовала «Неадекватное равновесие» о социальной неэффективности. в 2017 году электронную книгу Юдковского [18]

Юдковский также написал несколько художественных произведений. Его -фанфик роман «Гарри Поттер и методы рационального мышления» использует элементы сюжета из серии книг Джоан Роулинг о Гарри Поттере для иллюстрации научных тем. [15] [19] Житель Нью-Йорка описал «Гарри Поттера и методы рационального мышления» как пересказ оригинала Роулинг «в попытке объяснить волшебство Гарри с помощью научного метода». [20]

Личная жизнь [ править ]

Юдковский — самоучка [21] и не посещал среднюю школу или колледж. [22] Он был воспитан как современный ортодоксальный еврей , но с религиозной точки зрения не идентифицирует себя как еврей. [23] [24]

Научные публикации [ править ]

  • Юдковский, Элиезер (2007). «Уровни организации общей разведки» (PDF) . Общий искусственный интеллект . Берлин: Шпрингер.
  • Юдковский, Элиезер (2008). «Когнитивные искажения, потенциально влияющие на оценку глобальных рисков» (PDF) . В Бостроме, Ник ; Чиркович, Милан (ред.). Глобальные катастрофические риски . Издательство Оксфордского университета. ISBN  978-0199606504 .
  • Юдковский, Элиезер (2008). «Искусственный интеллект как положительный и отрицательный фактор глобального риска» (PDF) . В Бостроме, Ник ; Чиркович, Милан (ред.). Глобальные катастрофические риски . Издательство Оксфордского университета. ISBN  978-0199606504 .
  • Юдковский, Элиезер (2011). «Сложные системы ценностей в дружественном искусственном интеллекте» (PDF) . Общий искусственный интеллект: 4-я Международная конференция AGI 2011, Маунтин-Вью, Калифорния, США, 3–6 августа 2011 г. Берлин: Шпрингер.
  • Юдковский, Элиезер (2012). «Дружественный искусственный интеллект». В Эдеме Аммон; Мур, Джеймс; Сёракер, Джон; и др. (ред.). Гипотезы сингулярности: научная и философская оценка . Коллекция «Границы». Берлин: Шпрингер. стр. 181–195 . дои : 10.1007/978-3-642-32560-1_10 . ISBN  978-3-642-32559-5 .
  • Бостром, Ник ; Юдковский, Элиезер (2014). «Этика искусственного интеллекта» (PDF) . На франкском языке Кейт; Рэмси, Уильям (ред.). Кембриджский справочник по искусственному интеллекту . Нью-Йорк: Издательство Кембриджского университета. ISBN  978-0-521-87142-6 .
  • ЛаВиктуар, Патрик; Фалленштейн, Беня; Юдковский, Элиэзер; Барас, Михай; Кристиано, Пол; Херрешофф, Марчелло (2014). «Программное равновесие в дилемме узника посредством теоремы Лёба» . Мультиагентное взаимодействие без предварительной координации: материалы семинара AAAI-14 . Публикации АААИ. Архивировано из оригинала 15 апреля 2021 года . Проверено 16 октября 2015 г.
  • Соареш, Нейт; Фалленштейн, Беня; Юдковский, Элиезер (2015). «Исправляемость» (PDF) . Семинары AAAI: Семинары на двадцать девятой конференции AAAI по искусственному интеллекту, Остин, Техас, 25–26 января 2015 г. Публикации АААИ.

См. также [ править ]

Примечания [ править ]

  1. ^ Или Соломон

Ссылки [ править ]

  1. ^ «Элиэзер Юдковский о «Трех основных школах сингулярности»» на YouTube . 16 февраля 2012 г. Временная метка 1:18.
  2. ^ Jump up to: Перейти обратно: а б Сильвер, Нейт (10 апреля 2023 г.). «Насколько американцы обеспокоены подводными камнями искусственного интеллекта?» . ПятьТридцатьВосемь . Архивировано из оригинала 17 апреля 2023 года . Проверено 17 апреля 2023 г.
  3. ^ Окампо, Родольфо (4 апреля 2023 г.). «Раньше я работал в Google, а теперь я исследователь ИИ. Вот почему разумно замедлить развитие ИИ» . Разговор . Архивировано из оригинала 11 апреля 2023 года . Проверено 19 июня 2023 г.
  4. ^ Голт, Мэтью (31 марта 2023 г.). «Теоретик ИИ считает, что ядерная война предпочтительнее разработки передового ИИ» . Порок . Архивировано из оригинала 15 мая 2023 года . Проверено 19 июня 2023 г.
  5. ^ Jump up to: Перейти обратно: а б Хатсон, Мэтью (16 мая 2023 г.). «Можем ли мы остановить сбежавший ИИ?» . Житель Нью-Йорка . ISSN   0028-792X . Архивировано из оригинала 19 мая 2023 года . Проверено 19 мая 2023 г. Элиезер Юдковски, исследователь из Научно-исследовательского института машинного интеллекта в районе залива, сравнил рекомендации по безопасности ИИ с системой пожарной сигнализации. Классический эксперимент показал, что, когда дымный туман начал заполнять комнату, в которой находились несколько человек, большинство из них не сообщали об этом. Они видели, что другие сохраняют стойкость, и преуменьшали опасность. Официальная тревога может сигнализировать о том, что можно принять меры. Но в сфере искусственного интеллекта нет человека, обладающего явными полномочиями бить такую ​​тревогу, и люди всегда будут расходиться во мнениях относительно того, какие достижения считать свидетельством конфликта. «Не будет никакой пожарной сигнализации, которая не была бы работающим AGI», — написал Юдковский. Даже если все согласятся с угрозой, ни одна компания или страна не захочет делать паузу самостоятельно, опасаясь, что ее обойдут конкуренты. ... Для этого может потребоваться решительно отказаться от искусственного интеллекта, прежде чем мы почувствуем, что пришло время остановиться, вместо того, чтобы приближаться все ближе и ближе к краю, искушая судьбу. Но закрытие всего этого потребует драконовских мер – возможно, даже таких крайних шагов, как те, которые поддержал Юдковский, который недавно написал в редакционной статье для Время , когда мы должны «быть готовы уничтожить несанкционированный центр обработки данных авиаударом», даже рискуя спровоцировать «полный обмен ядерными ударами».
  6. ^ Jump up to: Перейти обратно: а б с д Рассел, Стюарт ; Норвиг, Питер (2009). Искусственный интеллект: современный подход . Прентис Холл. ISBN  978-0-13-604259-4 .
  7. ^ Jump up to: Перейти обратно: а б Лейтон, Джонатан (2011). Битва за сострадание: этика в апатичной вселенной . Алгора. ISBN  978-0-87586-870-7 .
  8. ^ Курцвейл, Рэй (2005). Сингулярность уже близко . Нью-Йорк: Викинг Пингвин. ISBN  978-0-670-03384-3 .
  9. ^ Форд, Пол (11 февраля 2015 г.). «Наш страх перед искусственным интеллектом» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 30 марта 2019 года . Проверено 9 апреля 2019 г.
  10. ^ Jump up to: Перейти обратно: а б Юдковский, Элиезер (2008). «Искусственный интеллект как положительный и отрицательный фактор глобального риска» (PDF) . В Бостроме, Ник ; Чиркович, Милан (ред.). Глобальные катастрофические риски . Издательство Оксфордского университета. ISBN  978-0199606504 . Архивировано (PDF) из оригинала 2 марта 2013 г. Проверено 16 октября 2015 г.
  11. ^ Соареш, Нейт; Фалленштейн, Беня; Юдковский, Элиезер (2015). «Исправляемость» . Семинары AAAI: Семинары на двадцать девятой конференции AAAI по искусственному интеллекту, Остин, Техас, 25–26 января 2015 г. Публикации АААИ. Архивировано из оригинала 15 января 2016 года . Проверено 16 октября 2015 г.
  12. ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии . Издательство Оксфордского университета. ISBN  978-0199678112 .
  13. ^ Мосс, Себастьян (30 марта 2023 г.). « Журнал Time призывает запретить большие кластеры графических процессоров Будьте готовы уничтожить несанкционированный центр обработки данных авиаударом», — пишет ведущий исследователь в сфере искусственного интеллекта . . Динамика центра обработки данных . Архивировано из оригинала 17 апреля 2023 года . Проверено 17 апреля 2023 г.
  14. ^ Фергюсон, Найл (9 апреля 2023 г.). «Инопланетяне приземлились, и мы их создали» . Блумберг . Архивировано из оригинала 9 апреля 2023 года . Проверено 17 апреля 2023 г.
  15. ^ Jump up to: Перейти обратно: а б Миллер, Джеймс (2012). Растущая сингулярность . BenBella Books, Inc. ISBN  978-1936661657 .
  16. ^ Миллер, Джеймс (28 июля 2011 г.). «Вы можете узнать, как стать более рациональным» . Бизнес-инсайдер . Архивировано из оригинала 10 августа 2018 года . Проверено 25 марта 2014 г.
  17. ^ Миллер, Джеймс Д. «Разломы в рациональности – новый обзор Рамблера» . newramblerreview.com . Архивировано из оригинала 28 июля 2018 года . Проверено 28 июля 2018 г.
  18. ^ Научно-исследовательский институт машинного интеллекта . «Неадекватное равновесие: где и как застревают цивилизации» . Архивировано из оригинала 21 сентября 2020 года . Проверено 13 мая 2020 г.
  19. ^ Снайдер, Дэниел Д. (18 июля 2011 г.). « Гарри Поттер и ключ к бессмертию» . Атлантика . Архивировано из оригинала 23 декабря 2015 года . Проверено 13 июня 2022 г.
  20. ^ Пакер, Джордж (2011). «Нет смерти, нет налогов: либертарианский футуризм миллиардера из Кремниевой долины» . Житель Нью-Йорка . п. 54. Архивировано из оригинала 14 декабря 2016 года . Проверено 12 октября 2015 г.
  21. ^ Мэтьюз, Дилан; Пинкертон, Берд (19 июня 2019 г.). «Он стал соучредителем Skype. Теперь он тратит свое состояние на то, чтобы остановить опасный ИИ» . Вокс . Архивировано из оригинала 6 марта 2020 года . Проверено 22 марта 2020 г.
  22. ^ Саперштейн, Грегори (9 августа 2012 г.). «5 минут с провидцем: Элиэзер Юдковский» . CNBC . Архивировано из оригинала 1 августа 2017 года . Проверено 9 сентября 2017 г.
  23. ^ Элиа-Шалев, Асаф (1 декабря 2022 г.). «Синагоги присоединяются к инициативе «эффективного альтруизма». Остановит ли их скандал с Сэмом Бэнкманом и Фридом?» . Еврейское телеграфное агентство . Проверено 4 декабря 2023 г.
  24. ^ Юдковский, Элиезер (4 октября 2007 г.). «Избегание реальных слабых мест вашей веры» . МеньшеНеправильно . Архивировано из оригинала 2 мая 2021 года . Проверено 30 апреля 2021 г.

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 743bbe2740eec103c5dc8149f0e36323__1717259760
URL1:https://arc.ask3.ru/arc/aa/74/23/743bbe2740eec103c5dc8149f0e36323.html
Заголовок, (Title) документа по адресу, URL1:
Eliezer Yudkowsky - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)