Открытое письмо об искусственном интеллекте (2015)
Приоритеты исследований в области надежного и полезного искусственного интеллекта: открытое письмо | |
---|---|
Созданный | Январь 2015 г. |
Автор(ы) | Стивен Хокинг , Илон Маск и десятки по искусственному интеллекту экспертов |
Предмет | исследования социального воздействия ИИ |
В январе 2015 года Стивен Хокинг , Илон Маск и десятки по искусственному интеллекту экспертов [1] подписал открытое письмо по искусственному интеллекту, призывающее к исследованию влияния ИИ на общество. В письме подтверждалось, что общество может получить огромные потенциальные выгоды от искусственного интеллекта, но содержался призыв к конкретным исследованиям о том, как предотвратить определенные потенциальные «ловушки»: искусственный интеллект способен искоренить болезни и бедность, но исследователи не должны создавать что-то небезопасное или небезопасное. неконтролируемый . [1] В письме из четырех параграфов, озаглавленном « Приоритеты исследований надежного и полезного искусственного интеллекта: открытое письмо », подробно излагаются приоритеты исследований в сопроводительном двенадцатистраничном документе.
Предыстория [ править ]
К 2014 году и физик Стивен Хокинг, и бизнес-магнат Илон Маск публично высказали мнение, что сверхчеловеческий искусственный интеллект может принести неисчислимые преимущества, но также может положить конец человечеству, если его использовать неосторожно. В то время Хокинг и Маск входили в научный консультативный совет Института будущего жизни , организации, работающей над «смягчением экзистенциальных рисков, с которыми сталкивается человечество». Институт подготовил открытое письмо, адресованное более широкому исследовательскому сообществу в области ИИ. [2] и разослал его участникам своей первой конференции в Пуэрто-Рико в первые выходные 2015 года. [3] Письмо было обнародовано 12 января. [4]
Цель [ править ]
В письме подчеркиваются как положительные, так и отрицательные последствия искусственного интеллекта. [5] По данным Bloomberg Business , профессор Макс Тегмарк из Массачусетского технологического института распространил письмо, чтобы найти общий язык между подписавшимися сторонами, которые считают сверхразумный ИИ значительным экзистенциальным риском , и такими подписавшимися, как профессор Орен Этциони , которые считают, что область ИИ «оспаривается» одностороннее внимание СМИ к предполагаемым рискам. [4] В письме утверждается, что:
Потенциальные преимущества (ИИ) огромны, поскольку все, что может предложить цивилизация, является продуктом человеческого интеллекта; мы не можем предсказать, чего мы можем достичь, если этот интеллект будет усилен инструментами, которые может предоставить ИИ, но искоренение болезней и бедности не является чем-то непостижимым. Из-за огромного потенциала ИИ важно изучить, как воспользоваться его преимуществами, избегая при этом потенциальных ошибок. [6]
Один из подписавшихся, профессор Барт Селман из Корнелльского университета , заявил, что цель состоит в том, чтобы заставить исследователей и разработчиков ИИ уделять больше внимания безопасности ИИ. Кроме того, для политиков и широкой общественности письмо призвано носить информативный, но не паникёрский характер. [2] Другая подписавшая сторона, профессор Франческа Росси , заявила: «Я думаю, очень важно, чтобы все знали, что исследователи ИИ серьезно думают об этих проблемах и этических проблемах». [7]
Проблемы, поднятые в письме [ править ]
Подписавшиеся задаются вопросом: как инженеры могут создавать надежные и полезные для общества системы искусственного интеллекта? Люди должны продолжать контролировать ИИ ; наши системы искусственного интеллекта должны «делать то, что мы от них хотим». [1] Требуемые исследования носят междисциплинарный характер и охватывают самые разные области — от экономики и права до различных отраслей информатики , таких как компьютерная безопасность и формальная проверка . Возникающие проблемы делятся на проверку («Правильно ли я построил систему?»), обоснованность («Правильную ли я построил систему?»), безопасность и контроль («Хорошо, я построил систему неправильно, могу ли я это исправить?») ?"). [8]
Краткосрочные проблемы
Некоторые краткосрочные проблемы связаны с автономными транспортными средствами, от гражданских дронов до беспилотных автомобилей . Например, в случае чрезвычайной ситуации беспилотному автомобилю придется выбирать между небольшим риском крупной аварии и большой вероятностью небольшой аварии. Другие опасения связаны со смертоносным интеллектуальным автономным оружием: следует ли его запретить? Если да, то как следует точно определить «автономию»? Если нет, то как следует распределить ответственность за любое неправильное использование или неисправность?
Другие проблемы включают в себя проблемы конфиденциальности, поскольку ИИ становится все более способным интерпретировать большие наборы данных наблюдения, а также то, как лучше всего управлять экономическим воздействием рабочих мест, вытесненных ИИ. [2]
Долгосрочные проблемы
В конце документа повторяются Microsoft директора по исследованиям Эрика Хорвица опасения о том, что:
однажды мы можем потерять контроль над системами искусственного интеллекта из-за появления сверхразумов, которые не действуют в соответствии с человеческими желаниями – и что такие мощные системы будут угрожать человечеству. Возможны ли такие антиутопические исходы? Если да, то как могут возникнуть такие ситуации? ... Какие инвестиции в исследования следует сделать, чтобы лучше понять и устранить возможность возникновения опасного сверхинтеллекта или возникновения «интеллектуального взрыва»?
Существующие инструменты для использования ИИ, такие как обучение с подкреплением и простые служебные функции, недостаточны для решения этой проблемы; поэтому необходимы дополнительные исследования, чтобы найти и подтвердить надежное решение «проблемы управления». [8]
Подписавшиеся [ править ]
Среди подписантов - физик Стивен Хокинг , бизнес-магнат Илон Маск , предприниматели, стоящие за DeepMind и Vicarious , Google директор по исследованиям Питер Норвиг , [1] Профессор Стюарт Дж. Рассел из Калифорнийского университета в Беркли , [9] и другие эксперты по искусственному интеллекту, производители роботов, программисты и специалисты по этике. [10] Первоначальное количество подписавших составляло более 150 человек. [11] включая ученых из Кембриджа, Оксфорда, Стэнфорда, Гарварда и Массачусетского технологического института. [12]
Примечания [ править ]
- ^ Jump up to: Перейти обратно: а б с д Спаркс, Мэтью (13 января 2015 г.). «Ведущие учёные призывают к осторожности в отношении искусственного интеллекта» . Телеграф (Великобритания) . Проверено 24 апреля 2015 г.
- ^ Jump up to: Перейти обратно: а б с Чунг, Эмили (13 января 2015 г.). «ИИ должен сосредоточить внимание на безопасности, — говорят Стивен Хокинг и другие исследователи» . Канадская радиовещательная корпорация . Проверено 24 апреля 2015 г.
- ^ Макмиллан, Роберт (16 января 2015 г.). «ИИ прибыл, и это действительно беспокоит самые светлые умы мира» . Проводной . Проверено 24 апреля 2015 г.
- ^ Jump up to: Перейти обратно: а б Дина Басс; Джек Кларк (4 февраля 2015 г.). «Прав ли Илон Маск насчет искусственного интеллекта? Исследователи так не думают» . Блумберг Бизнес . Проверено 24 апреля 2015 г.
- ^ Брэдшоу, Тим (12 января 2015 г.). «Ученые и инвесторы предупреждают об искусственном интеллекте» . Файнэншл Таймс . Проверено 24 апреля 2015 г.
Вместо того, чтобы разжигать панику, в письме старательно подчеркиваются как положительные, так и отрицательные последствия искусственного интеллекта.
- ^ «Приоритеты исследований надежного и полезного искусственного интеллекта: открытое письмо» . Институт будущего жизни . Проверено 24 апреля 2015 г.
- ^ «Крупные ученые подписывают открытое письмо, в котором подробно описываются опасности ИИ » Новый учёный . 14 января 2015 года . Проверено 24 апреля 2015 г.
- ^ Jump up to: Перейти обратно: а б «Приоритеты исследований в области надежного и полезного искусственного интеллекта» (PDF) . Институт будущего жизни . 23 января 2015 года . Проверено 24 апреля 2015 г.
- ^ Волчовер, Натали (21 апреля 2015 г.). «Опасения пионера искусственного интеллекта» . Журнал Кванта . Проверено 24 апреля 2015 г.
- ^ «Эксперты обещают ограничить исследования в области ИИ» . Новости Би-би-си . 12 января 2015 года . Проверено 24 апреля 2015 г.
- ^ Херн, Алекс (12 января 2015 г.). «Эксперты, включая Илона Маска, призывают к проведению исследований, чтобы избежать «подводных камней» ИИ » . Хранитель . Проверено 24 апреля 2015 г.
- ^ Гриффин, Эндрю (12 января 2015 г.). «Стивен Хокинг, Илон Маск и другие призывают к проведению исследований, чтобы избежать опасности искусственного интеллекта» . Независимый . Архивировано из оригинала 24 мая 2022 г. Проверено 24 апреля 2015 г.