Jump to content

Открытое письмо об искусственном интеллекте (2015)

Приоритеты исследований в области надежного и полезного искусственного интеллекта: открытое письмо
Созданный Январь 2015 г.
Автор(ы) Стивен Хокинг , Илон Маск и десятки по искусственному интеллекту экспертов
Предмет исследования социального воздействия ИИ

В январе 2015 года Стивен Хокинг , Илон Маск и десятки по искусственному интеллекту экспертов [1] подписал открытое письмо по искусственному интеллекту, призывающее к исследованию влияния ИИ на общество. В письме подтверждалось, что общество может получить огромные потенциальные выгоды от искусственного интеллекта, но содержался призыв к конкретным исследованиям о том, как предотвратить определенные потенциальные «ловушки»: искусственный интеллект способен искоренить болезни и бедность, но исследователи не должны создавать что-то небезопасное или небезопасное. неконтролируемый . [1] В письме из четырех параграфов, озаглавленном « Приоритеты исследований надежного и полезного искусственного интеллекта: открытое письмо », подробно излагаются приоритеты исследований в сопроводительном двенадцатистраничном документе.

Предыстория [ править ]

К 2014 году и физик Стивен Хокинг, и бизнес-магнат Илон Маск публично высказали мнение, что сверхчеловеческий искусственный интеллект может принести неисчислимые преимущества, но также может положить конец человечеству, если его использовать неосторожно. В то время Хокинг и Маск входили в научный консультативный совет Института будущего жизни , организации, работающей над «смягчением экзистенциальных рисков, с которыми сталкивается человечество». Институт подготовил открытое письмо, адресованное более широкому исследовательскому сообществу в области ИИ. [2] и разослал его участникам своей первой конференции в Пуэрто-Рико в первые выходные 2015 года. [3] Письмо было обнародовано 12 января. [4]

Цель [ править ]

В письме подчеркиваются как положительные, так и отрицательные последствия искусственного интеллекта. [5] По данным Bloomberg Business , профессор Макс Тегмарк из Массачусетского технологического института распространил письмо, чтобы найти общий язык между подписавшимися сторонами, которые считают сверхразумный ИИ значительным экзистенциальным риском , и такими подписавшимися, как профессор Орен Этциони , которые считают, что область ИИ «оспаривается» одностороннее внимание СМИ к предполагаемым рискам. [4] В письме утверждается, что:

Потенциальные преимущества (ИИ) огромны, поскольку все, что может предложить цивилизация, является продуктом человеческого интеллекта; мы не можем предсказать, чего мы можем достичь, если этот интеллект будет усилен инструментами, которые может предоставить ИИ, но искоренение болезней и бедности не является чем-то непостижимым. Из-за огромного потенциала ИИ важно изучить, как воспользоваться его преимуществами, избегая при этом потенциальных ошибок. [6]

Один из подписавшихся, профессор Барт Селман из Корнелльского университета , заявил, что цель состоит в том, чтобы заставить исследователей и разработчиков ИИ уделять больше внимания безопасности ИИ. Кроме того, для политиков и широкой общественности письмо призвано носить информативный, но не паникёрский характер. [2] Другая подписавшая сторона, профессор Франческа Росси , заявила: «Я думаю, очень важно, чтобы все знали, что исследователи ИИ серьезно думают об этих проблемах и этических проблемах». [7]

Проблемы, поднятые в письме [ править ]

Подписавшиеся задаются вопросом: как инженеры могут создавать надежные и полезные для общества системы искусственного интеллекта? Люди должны продолжать контролировать ИИ ; наши системы искусственного интеллекта должны «делать то, что мы от них хотим». [1] Требуемые исследования носят междисциплинарный характер и охватывают самые разные области — от экономики и права до различных отраслей информатики , таких как компьютерная безопасность и формальная проверка . Возникающие проблемы делятся на проверку («Правильно ли я построил систему?»), обоснованность («Правильную ли я построил систему?»), безопасность и контроль («Хорошо, я построил систему неправильно, могу ли я это исправить?») ?"). [8]

Краткосрочные проблемы

Некоторые краткосрочные проблемы связаны с автономными транспортными средствами, от гражданских дронов до беспилотных автомобилей . Например, в случае чрезвычайной ситуации беспилотному автомобилю придется выбирать между небольшим риском крупной аварии и большой вероятностью небольшой аварии. Другие опасения связаны со смертоносным интеллектуальным автономным оружием: следует ли его запретить? Если да, то как следует точно определить «автономию»? Если нет, то как следует распределить ответственность за любое неправильное использование или неисправность?

Другие проблемы включают в себя проблемы конфиденциальности, поскольку ИИ становится все более способным интерпретировать большие наборы данных наблюдения, а также то, как лучше всего управлять экономическим воздействием рабочих мест, вытесненных ИИ. [2]

Долгосрочные проблемы

В конце документа повторяются Microsoft директора по исследованиям Эрика Хорвица опасения о том, что:

однажды мы можем потерять контроль над системами искусственного интеллекта из-за появления сверхразумов, которые не действуют в соответствии с человеческими желаниями – и что такие мощные системы будут угрожать человечеству. Возможны ли такие антиутопические исходы? Если да, то как могут возникнуть такие ситуации? ... Какие инвестиции в исследования следует сделать, чтобы лучше понять и устранить возможность возникновения опасного сверхинтеллекта или возникновения «интеллектуального взрыва»?

Существующие инструменты для использования ИИ, такие как обучение с подкреплением и простые служебные функции, недостаточны для решения этой проблемы; поэтому необходимы дополнительные исследования, чтобы найти и подтвердить надежное решение «проблемы управления». [8]

Подписавшиеся [ править ]

Среди подписантов - физик Стивен Хокинг , бизнес-магнат Илон Маск , предприниматели, стоящие за DeepMind и Vicarious , Google директор по исследованиям Питер Норвиг , [1] Профессор Стюарт Дж. Рассел из Калифорнийского университета в Беркли , [9] и другие эксперты по искусственному интеллекту, производители роботов, программисты и специалисты по этике. [10] Первоначальное количество подписавших составляло более 150 человек. [11] включая ученых из Кембриджа, Оксфорда, Стэнфорда, Гарварда и Массачусетского технологического института. [12]

Примечания [ править ]

  1. ^ Jump up to: Перейти обратно: а б с д Спаркс, Мэтью (13 января 2015 г.). «Ведущие учёные призывают к осторожности в отношении искусственного интеллекта» . Телеграф (Великобритания) . Проверено 24 апреля 2015 г.
  2. ^ Jump up to: Перейти обратно: а б с Чунг, Эмили (13 января 2015 г.). «ИИ должен сосредоточить внимание на безопасности, — говорят Стивен Хокинг и другие исследователи» . Канадская радиовещательная корпорация . Проверено 24 апреля 2015 г.
  3. ^ Макмиллан, Роберт (16 января 2015 г.). «ИИ прибыл, и это действительно беспокоит самые светлые умы мира» . Проводной . Проверено 24 апреля 2015 г.
  4. ^ Jump up to: Перейти обратно: а б Дина Басс; Джек Кларк (4 февраля 2015 г.). «Прав ли Илон Маск насчет искусственного интеллекта? Исследователи так не думают» . Блумберг Бизнес . Проверено 24 апреля 2015 г.
  5. ^ Брэдшоу, Тим (12 января 2015 г.). «Ученые и инвесторы предупреждают об искусственном интеллекте» . Файнэншл Таймс . Проверено 24 апреля 2015 г. Вместо того, чтобы разжигать панику, в письме старательно подчеркиваются как положительные, так и отрицательные последствия искусственного интеллекта.
  6. ^ «Приоритеты исследований надежного и полезного искусственного интеллекта: открытое письмо» . Институт будущего жизни . Проверено 24 апреля 2015 г.
  7. ^ «Крупные ученые подписывают открытое письмо, в котором подробно описываются опасности ИИ » Новый учёный . 14 января 2015 года . Проверено 24 апреля 2015 г.
  8. ^ Jump up to: Перейти обратно: а б «Приоритеты исследований в области надежного и полезного искусственного интеллекта» (PDF) . Институт будущего жизни . 23 января 2015 года . Проверено 24 апреля 2015 г.
  9. ^ Волчовер, Натали (21 апреля 2015 г.). «Опасения пионера искусственного интеллекта» . Журнал Кванта . Проверено 24 апреля 2015 г.
  10. ^ «Эксперты обещают ограничить исследования в области ИИ» . Новости Би-би-си . 12 января 2015 года . Проверено 24 апреля 2015 г.
  11. ^ Херн, Алекс (12 января 2015 г.). «Эксперты, включая Илона Маска, призывают к проведению исследований, чтобы избежать «подводных камней» ИИ » . Хранитель . Проверено 24 апреля 2015 г.
  12. ^ Гриффин, Эндрю (12 января 2015 г.). «Стивен Хокинг, Илон Маск и другие призывают к проведению исследований, чтобы избежать опасности искусственного интеллекта» . Независимый . Архивировано из оригинала 24 мая 2022 г. Проверено 24 апреля 2015 г.

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 9b933f03861049a2f517f61322d9ca01__1684862940
URL1:https://arc.ask3.ru/arc/aa/9b/01/9b933f03861049a2f517f61322d9ca01.html
Заголовок, (Title) документа по адресу, URL1:
Open letter on artificial intelligence (2015) - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)