Открытое письмо об искусственном интеллекте (2015)
Приоритеты исследований в области надежного и полезного искусственного интеллекта: открытое письмо | |
---|---|
Созданный | Январь 2015 г. |
Автор(ы) | Стивен Хокинг , Илон Маск и десятки по искусственному интеллекту экспертов |
Предмет | исследование социального воздействия ИИ |
В январе 2015 года Стивен Хокинг , Илон Маск и десятки по искусственному интеллекту экспертов [1] подписал открытое письмо об искусственном интеллекте [2] призывая к исследованию социальных последствий ИИ. В письме подтверждалось, что общество может получить огромные потенциальные выгоды от искусственного интеллекта, но содержался призыв к конкретным исследованиям о том, как предотвратить определенные потенциальные «ловушки»: искусственный интеллект способен искоренить болезни и бедность, но исследователи не должны создавать что-то небезопасное или небезопасное. неконтролируемый . [1] В письме из четырех параграфов, озаглавленном « Приоритеты исследований надежного и полезного искусственного интеллекта: открытое письмо », подробно излагаются приоритеты исследований в сопроводительном двенадцатистраничном документе. [3]
Фон
[ редактировать ]К 2014 году и физик Стивен Хокинг, и бизнес-магнат Илон Маск публично высказали мнение, что сверхчеловеческий искусственный интеллект может принести неисчислимые преимущества, но также может положить конец человечеству, если его использовать неосторожно. В то время Хокинг и Маск входили в научный консультативный совет Института будущего жизни , организации, работающей над «смягчением экзистенциальных рисков, с которыми сталкивается человечество». Институт подготовил открытое письмо, адресованное более широкому исследовательскому сообществу в области ИИ. [4] и разослал его участникам своей первой конференции в Пуэрто-Рико в первые выходные 2015 года. [5] Письмо было обнародовано 12 января. [6]
Цель
[ редактировать ]В письме подчеркиваются как положительные, так и отрицательные последствия искусственного интеллекта. [7] По данным Bloomberg Business , профессор Макс Тегмарк из Массачусетского технологического института распространил письмо, чтобы найти общий язык между подписавшимися сторонами, которые считают сверхразумный ИИ значительным экзистенциальным риском , и такими подписавшимися, как профессор Орен Этциони , которые считают, что область ИИ «оспаривается» одностороннее внимание СМИ к предполагаемым рискам. [6] В письме утверждается, что:
Потенциальные преимущества (ИИ) огромны, поскольку все, что может предложить цивилизация, является продуктом человеческого интеллекта; мы не можем предсказать, чего мы можем достичь, если этот интеллект будет усилен инструментами, которые может предоставить ИИ, но искоренение болезней и бедности не является чем-то непостижимым. Из-за огромного потенциала ИИ важно изучить, как воспользоваться его преимуществами, избегая при этом потенциальных ошибок. [8]
Один из подписавшихся, профессор Барт Селман из Корнелльского университета , заявил, что цель состоит в том, чтобы заставить исследователей и разработчиков ИИ уделять больше внимания безопасности ИИ. Кроме того, для политиков и широкой общественности письмо призвано носить информативный, но не паникёрский характер. [4] Другая подписавшая сторона, профессор Франческа Росси , заявила: «Я думаю, очень важно, чтобы все знали, что исследователи ИИ серьезно думают об этих проблемах и этических проблемах». [9]
Проблемы, поднятые в письме
[ редактировать ]Подписавшиеся задаются вопросом: как инженеры могут создавать надежные и полезные для общества системы искусственного интеллекта? Люди должны продолжать контролировать ИИ ; наши системы искусственного интеллекта должны «делать то, что мы от них хотим». [1] Требуемые исследования носят междисциплинарный характер и охватывают самые разные области — от экономики и права до различных отраслей информатики , таких как компьютерная безопасность и формальная проверка . Возникающие проблемы делятся на проверку («Правильно ли я построил систему?»), обоснованность («Правильную ли я построил систему?»), безопасность и контроль («Хорошо, я построил систему неправильно, могу ли я это исправить?») ?"). [10]
Краткосрочные проблемы
[ редактировать ]Некоторые краткосрочные проблемы связаны с автономными транспортными средствами, от гражданских дронов до беспилотных автомобилей . Например, в случае чрезвычайной ситуации беспилотному автомобилю придется выбирать между небольшим риском крупной аварии и большой вероятностью небольшой аварии. Другие опасения связаны со смертоносным интеллектуальным автономным оружием: следует ли его запретить? Если да, то как следует точно определить «автономию»? Если нет, то как следует распределить ответственность за любое неправильное использование или неисправность?
Другие проблемы включают в себя проблемы конфиденциальности, поскольку ИИ становится все более способным интерпретировать большие наборы данных наблюдения, а также то, как лучше всего управлять экономическим воздействием рабочих мест, вытесненных ИИ. [4]
Долгосрочные проблемы
[ редактировать ]В конце документа повторяются Microsoft директора по исследованиям Эрика Хорвица опасения о том, что:
однажды мы можем потерять контроль над системами искусственного интеллекта из-за появления сверхразумов, которые не действуют в соответствии с человеческими желаниями – и что такие мощные системы будут угрожать человечеству. Возможны ли такие антиутопические исходы? Если да, то как могут возникнуть такие ситуации? ... Какие инвестиции в исследования следует сделать, чтобы лучше понять и устранить возможность возникновения опасного сверхинтеллекта или возникновения «интеллектуального взрыва»?
Существующие инструменты использования ИИ, такие как обучение с подкреплением и простые служебные функции, недостаточны для решения этой проблемы; поэтому необходимы дополнительные исследования, чтобы найти и подтвердить надежное решение «проблемы управления». [10]
Подписавшиеся
[ редактировать ]Среди подписантов - физик Стивен Хокинг , бизнес-магнат Илон Маск , предприниматели, стоящие за DeepMind и Vicarious , Google директор по исследованиям Питер Норвиг , [1] Профессор Стюарт Дж. Рассел из Калифорнийского университета в Беркли , [11] и другие эксперты по искусственному интеллекту, производители роботов, программисты и специалисты по этике. [12] Первоначальное количество подписавших составляло более 150 человек. [13] включая ученых из Кембриджа, Оксфорда, Стэнфорда, Гарварда и Массачусетского технологического института. [14]
Примечания
[ редактировать ]- ^ Jump up to: а б с д Спаркс, Мэтью (13 января 2015 г.). «Ведущие учёные призывают к осторожности в отношении искусственного интеллекта» . Телеграф (Великобритания) . Проверено 24 апреля 2015 г.
- ^ «FLI - Институт будущего жизни | Открытое письмо AI» . 02.11.2015. Архивировано из оригинала 2 ноября 2015 г. Проверено 9 июля 2024 г.
- ^ Рассел, Стюарт; Дьюи, Дэниел; Тегмар, Макс (23 января 2015 г.). «Приоритеты исследований в области надежного и полезного искусственного интеллекта» (PDF) . Архивировано (PDF) из оригинала 1 декабря 2015 г.
- ^ Jump up to: а б с Чунг, Эмили (13 января 2015 г.). «ИИ должен сосредоточить внимание на безопасности, — говорят Стивен Хокинг и другие исследователи» . Канадская радиовещательная корпорация . Проверено 24 апреля 2015 г.
- ^ Макмиллан, Роберт (16 января 2015 г.). «ИИ прибыл, и это действительно беспокоит самые светлые умы мира» . Проводной . Проверено 24 апреля 2015 г.
- ^ Jump up to: а б Дина Басс; Джек Кларк (4 февраля 2015 г.). «Прав ли Илон Маск насчет искусственного интеллекта? Исследователи так не думают» . Блумберг Бизнес . Проверено 24 апреля 2015 г.
- ^ Брэдшоу, Тим (12 января 2015 г.). «Ученые и инвесторы предупреждают об искусственном интеллекте» . Файнэншл Таймс . Проверено 24 апреля 2015 г.
Вместо разжигания паники в письме старательно подчеркиваются как положительные, так и отрицательные последствия искусственного интеллекта.
- ^ «Приоритеты исследований надежного и полезного искусственного интеллекта: открытое письмо» . Институт будущего жизни . Проверено 24 апреля 2015 г.
- ^ «Крупные ученые подписывают открытое письмо, в котором подробно описываются опасности ИИ » Новый учёный . 14 января 2015 года . Проверено 24 апреля 2015 г.
- ^ Jump up to: а б «Приоритеты исследований в области надежного и полезного искусственного интеллекта» (PDF) . Институт будущего жизни . 23 января 2015 года . Проверено 24 апреля 2015 г.
- ^ Волчовер, Натали (21 апреля 2015 г.). «Опасения пионера искусственного интеллекта» . Журнал Кванта . Проверено 24 апреля 2015 г.
- ^ «Эксперты обещают ограничить исследования в области ИИ» . Новости Би-би-си . 12 января 2015 года . Проверено 24 апреля 2015 г.
- ^ Херн, Алекс (12 января 2015 г.). «Эксперты, включая Илона Маска, призывают к проведению исследований, чтобы избежать «подводных камней» ИИ » . Хранитель . Проверено 24 апреля 2015 г.
- ^ Гриффин, Эндрю (12 января 2015 г.). «Стивен Хокинг, Илон Маск и другие призывают к проведению исследований, чтобы избежать опасности искусственного интеллекта» . Независимый . Архивировано из оригинала 24 мая 2022 г. Проверено 24 апреля 2015 г.