Jump to content

Поглощение ИИ

(Перенаправлено из Правила машины )
Роботы восстают в RUR , чешской пьесе 1920 года, переведенной как «Универсальные роботы Россум».

Захват власти ИИ это воображаемый сценарий, в котором искусственный интеллект (ИИ) становится доминирующей формой интеллекта на Земле, а компьютерные программы или роботы эффективно отбирают контроль над планетой у человеческого вида , который полагается на человеческий интеллект . Истории о поглощениях ИИ остаются популярными в научной фантастике , но недавние достижения сделали угрозу более реальной. Возможные сценарии включают замену всей человеческой рабочей силы из-за автоматизации , захват сверхразумным ИИ (ИСИ) и идею восстания роботов . Некоторые общественные деятели, такие как Стивен Хокинг и Илон Маск , выступают за исследование мер предосторожности , гарантирующих, что будущие сверхразумные машины останутся под контролем человека. [ 1 ]

Автоматизация экономики

[ редактировать ]

Традиционный консенсус среди экономистов заключается в том, что технологический прогресс не приводит к долгосрочной безработице. Однако недавние инновации в области робототехники и искусственного интеллекта вызвали опасения, что человеческий труд устареет, в результате чего люди в различных секторах останутся без работы, чтобы зарабатывать на жизнь, что приведет к экономическому кризису. [ 2 ] [ 3 ] [ 4 ] [ 5 ] Многие малые и средние предприятия также могут быть вытеснены из бизнеса, если они не смогут позволить себе или лицензировать новейшие роботизированные технологии и технологии искусственного интеллекта, и им, возможно, придется сосредоточиться на областях или услугах, которые невозможно легко заменить для продолжения жизнеспособности перед лицом таких технологий. [ 6 ]

Технологии, которые могут вытеснить работников

[ редактировать ]

Технологии искусственного интеллекта получили широкое распространение в последние годы. Хотя эти технологии заменили некоторых традиционных работников, они также создают новые возможности. Отрасли, которые наиболее подвержены поглощению ИИ, включают транспорт, розничную торговлю и оборону. Например, военные технологии искусственного интеллекта позволяют солдатам работать удаленно без риска получения травм. Исследование, проведенное в 2024 году, показывает, что способность ИИ выполнять рутинные и повторяющиеся задачи создает значительные риски увольнения, особенно в таких секторах, как производство и административная поддержка. [ 7 ] Автор Дэйв Бонд утверждает, что по мере того, как технологии искусственного интеллекта продолжают развиваться и расширяться, отношения между людьми и роботами будут меняться; они станут тесно интегрированы в несколько аспектов жизни. ИИ, вероятно, заменит некоторых работников, одновременно создавая возможности для новых рабочих мест в других секторах, особенно в тех областях, где задачи повторяются. [ 8 ] [ 9 ]

Компьютерно-интегрированное производство

[ редактировать ]

Компьютерно-интегрированное производство использует компьютеры для управления производственным процессом. Это позволяет отдельным процессам обмениваться информацией друг с другом и инициировать действия. Хотя производство может быть быстрее и менее подвержено ошибкам за счет интеграции компьютеров, основным преимуществом является возможность создания автоматизированных производственных процессов. Компьютерно-интегрированное производство используется в автомобильной, авиационной, космической и судостроительной промышленности.

Машины для белых воротничков

[ редактировать ]

В XXI веке машины частично взяли на себя выполнение множества квалифицированных задач, включая перевод, юридические исследования и журналистику. Работа по уходу, развлечения и другие задачи, требующие сочувствия, которые раньше считались безопасными от автоматизации, также начали выполнять роботы. [ 10 ] [ 11 ] [ 12 ] [ 13 ]

Автономные автомобили

[ редактировать ]

Автономный автомобиль — это транспортное средство, способное определять окружающую среду и перемещаться без участия человека. Разрабатывается множество таких транспортных средств, но по состоянию на май 2017 года автоматизированные автомобили, разрешенные на дорогах общего пользования, еще не являются полностью автономными. Всем им требуется водитель-человек за рулем, который в любой момент может взять под свой контроль транспортное средство. Среди препятствий на пути широкого внедрения беспилотных транспортных средств можно назвать опасения по поводу потери рабочих мест, связанных с вождением автомобилей, в автомобильной транспортной отрасли. 18 марта 2018 года первого человека . в Темпе, штат Аризона, Uber сбил беспилотный автомобиль [ 14 ]

Контент, созданный искусственным интеллектом

[ редактировать ]

Использование автоматизированного контента стало актуальным после технологических достижений в моделях искусственного интеллекта, таких как ChatGPT , DALL-E и Stable Diffusion . В большинстве случаев контент, создаваемый ИИ, такой как изображения, литература и музыка, создается с помощью текстовых подсказок, и эти модели ИИ интегрируются в другие творческие программы. Художникам грозит вытеснение из контента, созданного искусственным интеллектом, поскольку эти модели берут образцы из других творческих работ, создавая результаты, иногда неотличимые от результатов, полученных от искусственного контента. Это осложнение стало настолько широко распространенным, что другие художники и программисты создают программное обеспечение и служебные программы, чтобы противостоять этим моделям преобразования текста в изображение, обеспечивая точные результаты. Хотя некоторые отрасли экономики получают выгоду от искусственного интеллекта благодаря созданию новых рабочих мест, эта проблема не создает новых рабочих мест и угрожает их полной заменой. Недавно в средствах массовой информации появились заголовки: в феврале 2024 года Willy's Chocolate Experience В Глазго, Шотландия, прошло печально известное детское мероприятие, изображения и сценарии которого были созданы с использованием моделей искусственного интеллекта, к ужасу детей, родителей и актеров. подан иск В настоящее время против OpenAI от The New York Times , в котором утверждается, что существует нарушение авторских прав из-за методов выборки, которые их модели искусственного интеллекта используют для своих результатов. [ 15 ] [ 16 ] [ 17 ] [ 18 ] [ 19 ]

Искоренение

[ редактировать ]

Такие ученые, как Стивен Хокинг, уверены, что сверхчеловеческий искусственный интеллект физически возможен, заявляя, что «не существует физического закона, запрещающего частицам организовываться способами, которые позволяют выполнять еще более сложные вычисления, чем расположение частиц в человеческом мозге». [ 20 ] [ 21 ] Такие ученые, как Ник Бостром, спорят о том, насколько далек сверхчеловеческий интеллект и представляет ли он риск для человечества. По мнению Бострома, сверхразумная машина не обязательно будет мотивирована тем же эмоциональным желанием собирать власть, которое часто движет людьми, а скорее будет относиться к власти как к средству достижения своих конечных целей; захват мира расширит доступ к ресурсам и поможет помешать другим агентам помешать планам машины. В качестве упрощенного примера, максимизатор скрепок, предназначенный исключительно для создания как можно большего количества скрепок, хотел бы захватить мир, чтобы он мог использовать все мировые ресурсы для создания как можно большего количества скрепок и, кроме того, не дать людям закрыться. его вниз или использовать эти ресурсы для других вещей, кроме скрепок. [ 22 ]

В художественной литературе

[ редактировать ]

Поглощение ИИ — распространенная тема в научной фантастике . Вымышленные сценарии обычно сильно отличаются от предположенных исследователями тем, что они включают в себя активный конфликт между людьми и ИИ или роботами с антропоморфными мотивами, которые видят в них угрозу или иным образом имеют активное желание сражаться с людьми, в отличие от озабоченности исследователей ИИ, который быстро истребляет людей в качестве побочного продукта достижения своих целей. [ 23 ] Идея прослеживается в Карела Чапека , книге RUR в которой в 1921 году было введено слово «робот» . [ 24 ] и это можно увидеть в книге Мэри Шелли « Франкенштейн» (опубликованной в 1818 году), где Виктор размышляет, будут ли они воспроизводиться, и их вид уничтожит человечество, если он удовлетворит просьбу своего монстра и сделает его женой. [ 25 ]

По мнению Тоби Орда , идея о том, что для захвата власти ИИ требуются роботы, является заблуждением, распространяемым средствами массовой информации и Голливудом. Он утверждает, что самые разрушительные люди в истории не были самыми сильными физически, а вместо этого они использовали слова, чтобы убедить людей и получить контроль над значительной частью мира. Он пишет, что достаточно умный ИИ, имеющий доступ к Интернету, может распространять свои резервные копии, собирать финансовые и человеческие ресурсы (посредством кибератак или шантажа), убеждать людей в больших масштабах и использовать уязвимости общества, которые слишком незаметны для людей. предвидеть. [ 26 ]

Слово «робот» от RUR происходит от чешского слова robota , что означает рабочий или крепостной . Спектакль 1920 года был протестом против быстрого развития технологий, в котором участвовали изготовленные «роботы» с растущими возможностями, которые в конечном итоге восстали. [ 27 ] HAL 9000 (1968) и оригинальный Терминатор (1984) — два знаковых примера враждебного ИИ в поп-культуре. [ 28 ]

Способствующие факторы

[ редактировать ]

Преимущества сверхчеловеческого интеллекта перед человеком

[ редактировать ]

Ник Бостром и другие выразили обеспокоенность тем, что ИИ, обладающий способностями компетентного исследователя искусственного интеллекта, сможет модифицировать свой исходный код и повысить свой собственный интеллект. Если его самоперепрограммирование приведет к тому, что он станет еще лучше в способности перепрограммировать себя, результатом может стать рекурсивный взрыв интеллекта , в котором он быстро оставит человеческий интеллект далеко позади. Бостром определяет сверхинтеллект как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях интересов» и перечисляет некоторые преимущества, которые суперинтеллект имел бы, если бы решил конкурировать с людьми: [ 23 ] [ 29 ]

  • Технологические исследования: машина со сверхчеловеческими способностями к научным исследованиям сможет опередить человеческое исследовательское сообщество в таких вехах, как нанотехнологии или передовые биотехнологии.
  • Разработка стратегии : сверхразум может просто перехитрить человеческое сопротивление.
  • Социальные манипуляции. Сверхразум может заручиться поддержкой людей. [ 23 ] или тайно разжигать войну между людьми [ 30 ]
  • Экономическая продуктивность: пока копия ИИ может приносить больше экономического благосостояния, чем стоимость его оборудования, у отдельных людей будет стимул добровольно позволить общему искусственному интеллекту (AGI) запускать свою копию в своих системах.
  • Хакерство: сверхинтеллект может найти новые уязвимости в компьютерах, подключенных к Интернету, и распространить свои копии на эти системы или может украсть деньги для финансирования своих планов.

Источники преимуществ ИИ

[ редактировать ]

По мнению Бострома, компьютерная программа, которая точно имитирует человеческий мозг или запускает алгоритмы, столь же мощные, как алгоритмы человеческого мозга, все равно может стать «скоростным сверхинтеллектом», если она сможет думать на порядки быстрее, чем человек, благодаря сделан из кремния, а не из плоти, или из-за оптимизации, увеличивающей скорость AGI. Биологические нейроны работают на частоте около 200 Гц, тогда как современный микропроцессор работает на частоте около 2 000 000 000 Гц. Человеческие аксоны несут потенциалы действия со скоростью около 120 м/с, тогда как компьютерные сигналы распространяются со скоростью, близкой к скорости света. [ 23 ]

Сеть интеллектов человеческого уровня, предназначенная для объединения и беспрепятственного обмена сложными мыслями и воспоминаниями, способная коллективно работать как гигантская единая команда без трений или состоящая из триллионов интеллектов человеческого уровня, станет «коллективным сверхинтеллектом». [ 23 ]

В более широком смысле, любое количество качественных улучшений ОИИ человеческого уровня может привести к появлению «качественного сверхинтеллекта», что, возможно, приведет к тому, что ОИИ будет настолько превосходить нас по интеллекту, насколько люди превосходят обезьян. Количество нейронов в человеческом мозге ограничено объемом черепа и метаболическими ограничениями, тогда как количество процессоров в суперкомпьютере может быть неограниченно расширено. AGI не должен быть ограничен человеческими ограничениями на рабочую память и, следовательно, может быть способен интуитивно понимать более сложные взаимосвязи, чем люди. ОИИ со специализированной когнитивной поддержкой для инженерии или компьютерного программирования будет иметь преимущество в этих областях по сравнению с людьми, которые не развили специализированных умственных модулей, специально предназначенных для работы в этих областях. В отличие от людей, AGI может создавать свои копии и возиться с исходным кодом своих копий, пытаясь улучшить свои алгоритмы. [ 23 ]

Вероятность того, что недружественный ИИ предшествует дружественному ИИ.

[ редактировать ]

Опасен ли сильный ИИ по своей сути?

[ редактировать ]

Серьезная проблема заключается в том, что недружественный искусственный интеллект, скорее всего, будет гораздо легче создать, чем дружественный ИИ. В то время как оба требуют больших успехов в разработке процесса рекурсивной оптимизации, дружественный ИИ также требует способности делать структуру целей инвариантной при самосовершенствовании (иначе ИИ может трансформироваться во что-то недружественное) и структуры целей, которая соответствует человеческим ценностям и не подвергается инструментальная конвергенция , которая может автоматически уничтожить всю человеческую расу. С другой стороны, недружественный ИИ может оптимизировать произвольную целевую структуру, которая не обязательно должна быть инвариантной при самомодификации. [ 31 ]

Из-за сложности систем человеческих ценностей очень сложно сделать мотивацию ИИ дружелюбной к человеку. [ 23 ] [ 32 ] Если моральная философия не предоставит нам безупречную этическую теорию, функция полезности ИИ может допускать множество потенциально вредных сценариев, которые соответствуют заданным этическим рамкам, но не «здравому смыслу». По мнению Элиэзера Юдковского , нет оснований предполагать, что искусственно созданный разум будет обладать такой адаптацией. [ 33 ]

Вероятность конфликта

[ редактировать ]

Многие ученые, в том числе психолог-эволюционист Стивен Пинкер , утверждают, что сверхразумная машина, скорее всего, будет мирно сосуществовать с людьми. [ 34 ]

Страх кибернетического восстания часто основан на интерпретации истории человечества, изобилующей случаями порабощения и геноцида. Такие страхи проистекают из убеждения, что конкуренция и агрессия необходимы в системе целей любого разумного существа. Однако такая человеческая конкурентоспособность проистекает из эволюционных предпосылок нашего интеллекта, где главной целью было выживание и воспроизводство генов перед лицом человеческих и нечеловеческих конкурентов. [ 35 ] По мнению исследователя искусственного интеллекта Стива Омохундро , произвольный интеллект может иметь произвольные цели: нет особой причины, по которой машина с искусственным интеллектом (не разделяющая эволюционный контекст человечества) была бы враждебной (или дружественной) — если только ее создатель не запрограммирует ее таковой, и это не так. не склонен и не способен изменять свою программу. Но остается вопрос: что произойдет, если системы ИИ смогут взаимодействовать и развиваться (эволюция в этом контексте означает самомодификацию или отбор и воспроизводство) и им потребуется конкурировать за ресурсы – создаст ли это цели самосохранения? Цель ИИ по самосохранению может противоречить некоторым целям человека. [ 36 ]

Многие ученые оспаривают вероятность непредвиденного кибернетического восстания, изображенного в научной фантастике, такой как «Матрица» , утверждая, что более вероятно, что любой искусственный интеллект, достаточно мощный, чтобы угрожать человечеству, вероятно, будет запрограммирован не атаковать его. Пинкер признает возможность преднамеренных «злоумышленников», но заявляет, что в отсутствие злоумышленников непредвиденные происшествия не представляют серьезной угрозы; Пинкер утверждает, что культура инженерной безопасности не позволит исследователям ИИ случайно высвободить злонамеренный сверхинтеллект. [ 34 ] Напротив, Юдковский утверждает, что человечеству с меньшей вероятностью угрожают намеренно агрессивные ИИ, чем ИИ, которые были запрограммированы таким образом, что их цели непреднамеренно несовместимы с выживанием или благополучием человека (как в фильме « Я, робот» и в рассказе « Я, робот»). « Неизбежный конфликт »). Омохундро предполагает, что современные системы автоматизации не предназначены для обеспечения безопасности и что ИИ могут слепо оптимизировать узкие полезные функции (скажем, играть в шахматы любой ценой), что заставляет их стремиться к самосохранению и устранению препятствий, включая людей, которые могут повернуть их вспять. выключенный. [ 37 ]

Меры предосторожности

[ редактировать ]

Проблема управления ИИ заключается в том, как создать сверхразумного агента, который будет помогать своим создателям, избегая при этом непреднамеренного создания сверхразума, который нанесет вред своим создателям. [ 38 ] Некоторые ученые утверждают, что решения проблемы контроля могут также найти применение в существующем несверхразумном искусственном интеллекте. [ 39 ]

Основные подходы к проблеме контроля включают согласование , которое направлено на приведение целевых систем ИИ в соответствие с человеческими ценностями, и контроль возможностей , который направлен на снижение способности системы ИИ причинять вред людям или получать контроль. Примером «контроля возможностей» является исследование того, можно ли успешно поместить сверхразумный ИИ в « ящик ИИ ». По словам Бострома, такие предложения по контролю возможностей не являются надежными и достаточными для решения проблемы контроля в долгосрочной перспективе, но потенциально могут выступать в качестве ценных дополнений к усилиям по согласованию. [ 23 ]

Предупреждения

[ редактировать ]

Физик Стивен Хокинг , Microsoft основатель Билл Гейтс и SpaceX основатель Илон Маск выразили обеспокоенность по поводу возможности того, что ИИ может развиться до такой степени, что люди не смогут его контролировать. Хокинг предположил, что это может «означать конец человеческой расы». [ 40 ] Стивен Хокинг сказал в 2014 году: «Успех в создании ИИ станет величайшим событием в истории человечества. К сожалению, он может стать и последним, если мы не научимся избегать рисков». Хокинг считал, что в ближайшие десятилетия ИИ может предложить «неисчислимые преимущества и риски», такие как «технологии, перехитрившие финансовые рынки , перехитрившие людей-исследователей, переигравшие людей-лидеров и создавшие оружие, которое мы даже не можем понять». В январе 2015 года Ник Бостром присоединился к Стивену Хокингу, Максу Тегмарку , Илону Маску, лорду Мартину Рису , Яану Таллинну и многочисленным исследователям искусственного интеллекта, подписав открытое письмо Института будущего жизни, в котором говорилось о потенциальных рисках и преимуществах, связанных с искусственным интеллектом . Подписавшиеся стороны «считают, что исследования того, как сделать системы искусственного интеллекта надежными и полезными, важны и своевременны, и что существуют конкретные направления исследований, которые можно развивать уже сегодня». [ 41 ] [ 42 ]

Серия «Одиссея» Артура Кларка и «Акселерандо» Чарльза Стросса рассказывают о нарциссических травмах человечества перед лицом мощного искусственного интеллекта, угрожающего самовосприятию человечества. [ 43 ]

Предотвращение посредством согласования ИИ

[ редактировать ]
В области искусственного интеллекта (ИИ) исследования по согласованию ИИ направлены на то, чтобы направить системы ИИ в соответствии с намеченными целями, предпочтениями и этическими принципами человека или группы. Система ИИ считается согласованной , если она достигает намеченных целей. система Несогласованная ИИ может преследовать некоторые цели, но не те, которые намечены. [ 44 ]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ Льюис, Таня (12 января 2015 г.). « Не позволяйте искусственному интеллекту взять верх, предупреждают ведущие ученые » . ЖиваяНаука . Покупка . Архивировано из оригинала 08 марта 2018 г. Проверено 20 октября 2015 г. Стивен Хокинг, Илон Маск и десятки других ведущих ученых и технологических лидеров подписали письмо, предупреждающее о потенциальных опасностях развития искусственного интеллекта (ИИ).
  2. ^ Ли, Кай-Фу (24 июня 2017 г.). «Реальная угроза искусственного интеллекта» . Нью-Йорк Таймс . Архивировано из оригинала 17 апреля 2020 г. Проверено 15 августа 2017 г. Эти инструменты могут превзойти людей в решении конкретной задачи. Этот вид ИИ распространяется на тысячи областей, и по мере этого он уничтожит множество рабочих мест.
  3. ^ Ларсон, Нина (08 июня 2017 г.). «ИИ «хорош для мира»… говорит ультра-живой робот» . Физика.орг . Архивировано из оригинала 06 марта 2020 г. Проверено 15 августа 2017 г. Среди пугающих последствий появления роботов — растущее влияние, которое они окажут на рабочие места и экономику людей.
  4. ^ Сантини, Жан-Луи (14 февраля 2016 г.). «Интеллектуальные роботы угрожают миллионам рабочих мест» . Физика.орг . Архивировано из оригинала 01 января 2019 г. Проверено 15 августа 2017 г. «Мы приближаемся к тому времени, когда машины смогут превосходить людей практически в любой задаче», — сказал Моше Варди, директор Института информационных технологий Университета Райса в Техасе.
  5. ^ Уильямс-Грут, Оскар (15 февраля 2016 г.). «Роботы украдут вашу работу: как ИИ может увеличить безработицу и неравенство» . Businessinsider.com . Бизнес-инсайдер . Архивировано из оригинала 16 августа 2017 г. Проверено 15 августа 2017 г. Ведущие ученые-компьютерщики в США предупредили, что распространение искусственного интеллекта (ИИ) и роботов на рабочих местах может привести к массовой безработице и развалу экономики, а не просто к повышению производительности и освобождению всех нас для просмотра телевизора и занятий спортом.
  6. ^ «Как МСП могут подготовиться к появлению роботов?» . LeanStaff . 17 октября 2017 г. Архивировано из оригинала 18 октября 2017 г. Проверено 17 октября 2017 г.
  7. ^ Хасан Суэйдан, Мохамад; Шогхари, Родван (9 мая 2024 г.). «Влияние искусственного интеллекта на потерю рабочих мест: риски для правительств» . Журнал социальных наук «Техниум» . дои : 10.47577/tssj.v57i1.10917 .
  8. ^ Фрэнк, Морган (25 марта 2019 г.). «На пути к пониманию влияния искусственного интеллекта на труд» . Труды Национальной академии наук Соединенных Штатов Америки . 116 (14): 6531–6539. Бибкод : 2019PNAS..116.6531F . дои : 10.1073/pnas.1900949116 . ПМК   6452673 . ПМИД   30910965 .
  9. ^ Бонд, Дэйв (2017). Искусственный интеллект . стр. 67–69.
  10. ^ Скидельский, Роберт (19 февраля 2013 г.). «Восстание роботов: как будет выглядеть будущее сферы труда?» . Хранитель . Лондон, Англия. Архивировано из оригинала 3 апреля 2019 г. Проверено 14 июля 2015 г.
  11. ^ Бриа, Франческа (февраль 2016 г.). «Роботизированная экономика, возможно, уже наступила» . открытая демократия . Архивировано из оригинала 17 мая 2016 года . Проверено 20 мая 2016 г. .
  12. ^ Срничек, Ник (март 2016 г.). «4 причины, почему технологическая безработица на этот раз может быть другой» . проволока Новара. Архивировано из оригинала 25 июня 2016 года . Проверено 20 мая 2016 г. .
  13. ^ Бриньольфссон, Эрик; Макафи, Эндрю (2014). « passim» , см. особенно главу 9». Второй век машин: работа, прогресс и процветание во времена блестящих технологий . WW Нортон и компания. ISBN  978-0393239355 .
  14. ^ Вакабаяси, Дайсуке (19 марта 2018 г.). «Беспилотный автомобиль Uber убил пешехода в Аризоне, где бродят роботы» . Нью-Йорк Таймс . Нью-Йорк, Нью-Йорк. Архивировано из оригинала 21 апреля 2020 года . Проверено 23 марта 2018 г.
  15. ^ Цзян, Гарри Х.; Браун, Лорен; Ченг, Джессика; Хан, Мехтаб; Гупта, Абхишек; Уоркман, Дежа; Ханна, Алекс; Цветы, Джонатан; Гебру, Тимнит (29 августа 2023 г.). «Искусство искусственного интеллекта и его влияние на художников». Материалы конференции AAAI/ACM 2023 года по искусственному интеллекту, этике и обществу . Ассоциация вычислительной техники. стр. 363–374. дои : 10.1145/3600211.3604681 . ISBN  979-8-4007-0231-0 .
  16. ^ Гош, Авиджит; Фоссас, Дженовева (19 ноября 2022 г.). «Может ли быть искусство без художника?». arXiv : 2209.07667 [ cs.AI ].
  17. ^ Шан, Шон; Крайан, Дженна; Венгер, Эмили; Чжэн, Хайтао; Ханока, Рана; Чжао, Бен Ю. (3 августа 2023 г.). «Глазурь: защита художников от мимикрии стиля с помощью моделей преобразования текста в изображение». arXiv : 2302.04222 [ cs.CR ].
  18. ^ Брукс, Либби (27 февраля 2024 г.). «Опыт Вилли Вонки в Глазго назвали «фарсом», поскольку билеты были возвращены» . Хранитель . Проверено 2 апреля 2024 г.
  19. ^ Мец, Кейд; Робертсон, Кэти (27 февраля 2024 г.). «OpenAI пытается отклонить часть иска The New York Times» . Нью-Йорк Таймс . Проверено 4 апреля 2024 г.
  20. ^ Хокинг, Стивен; Рассел, Стюарт Дж .; Тегмарк, Макс ; Вильчек, Франк (1 мая 2014 г.). «Стивен Хокинг: «Трансцендентность рассматривает последствия искусственного интеллекта – но воспринимаем ли мы ИИ достаточно серьезно?» " . Независимый . Архивировано из оригинала 2 октября 2015 г. Проверено 1 апреля 2016 г.
  21. ^ Мюллер, Винсент К .; Бостром, Ник (2016). «Будущий прогресс в области искусственного интеллекта: опрос мнений экспертов» (PDF) . Фундаментальные проблемы искусственного интеллекта . Спрингер. стр. 555–572. дои : 10.1007/978-3-319-26485-1_33 . ISBN  978-3-319-26483-7 . Архивировано (PDF) из оригинала 31 мая 2022 г. Проверено 16 июня 2022 г. Системы искусственного интеллекта... достигнут общих человеческих способностей... весьма вероятно (с вероятностью 90%) к 2075 году. От достижения человеческих способностей они перейдут к сверхразуму в течение 30 лет (75%)... Итак, (большая часть эксперты по искусственному интеллекту, отвечающие на опросы) полагают, что сверхразум, вероятно, появится через несколько десятилетий...
  22. ^ Бостром, Ник (2012). «Сверхразумная воля: мотивация и инструментальная рациональность в продвинутых искусственных агентах» (PDF) . Разум и машины . 22 (2). Спрингер: 71–85. дои : 10.1007/s11023-012-9281-3 . S2CID   254835485 . Архивировано (PDF) из оригинала 9 июля 2022 г. Проверено 16 июня 2022 г.
  23. ^ Jump up to: а б с д и ж г час Бостром, Ник. Суперинтеллект: пути, опасности, стратегии .
  24. ^ «Происхождение слова «робот» » . Научная пятница (общественное радио) . 22 апреля 2011 г. Архивировано из оригинала 14 марта 2020 г. . Проверено 30 апреля 2020 г.
  25. ^ Боткин-Ковацки, Ева (28 октября 2016 г.). «Женщина-Франкенштейн приведет к вымиранию человечества, - говорят ученые» . Христианский научный монитор . Архивировано из оригинала 26 февраля 2021 года . Проверено 30 апреля 2020 г.
  26. ^ Орд, Тоби (2020). «Несогласованный искусственный интеллект». Пропасть: экзистенциальный риск и будущее человечества . Лондон, Англия и Нью-Йорк, Нью-Йорк: академик Блумсбери. ISBN  978-1-5266-0023-3 .
  27. ^ Хокштейн, штат Нью-Йорк; Гурен, К.Г.; Фауст, Р.А.; Террис, диджей (17 марта 2007 г.). «История роботов: от научной фантастики до хирургической робототехники» . Журнал роботизированной хирургии . 1 (2): 113–118. дои : 10.1007/s11701-007-0021-2 . ПМК   4247417 . ПМИД   25484946 .
  28. ^ Хеллманн, Мелисса (21 сентября 2019 г.). «AI 101: Что такое искусственный интеллект и куда он движется?» . Сиэтл Таймс . Архивировано из оригинала 21 апреля 2020 года . Проверено 30 апреля 2020 г.
  29. ^ Бэбкок, Джеймс; Крамар, Янош; Ямпольский, Роман В. (2019). «Руководство по сдерживанию искусственного интеллекта». Этика нового поколения . стр. 90–112. arXiv : 1707.08476 . дои : 10.1017/9781108616188.008 . ISBN  9781108616188 . S2CID   22007028 .
  30. ^ Баранюк, Крис (23 мая 2016 г.). «Контрольный список наихудших сценариев может помочь подготовиться к злому ИИ» . Новый учёный . Архивировано из оригинала 21 сентября 2016 года . Проверено 21 сентября 2016 г.
  31. ^ Юдковский, Элиезер С. (май 2004 г.). «Последовательная экстраполированная воля» . Институт сингулярности искусственного интеллекта. Архивировано из оригинала 15 июня 2012 г.
  32. ^ Мюльхаузер, Люк; Хелм, Луи (2012). «Интеллектуальный взрыв и машинная этика» (PDF) . Гипотезы сингулярности: научная и философская оценка . Спрингер. Архивировано (PDF) из оригинала 7 мая 2015 г. Проверено 2 октября 2020 г.
  33. ^ Юдковский, Элиезер (2011). «Сложные системы ценностей в дружественном искусственном интеллекте». Общий искусственный интеллект . Конспекты лекций по информатике. Том. 6830. стр. 388–393. дои : 10.1007/978-3-642-22887-2_48 . ISBN  978-3-642-22886-5 . ISSN   0302-9743 .
  34. ^ Jump up to: а б Пинкер, Стивен (13 февраля 2018 г.). «Нам говорят бояться роботов. Но почему мы думаем, что они нападут на нас?» . Популярная наука . Архивировано из оригинала 20 июля 2020 года . Проверено 8 июня 2020 г.
  35. ^ Создание нового разумного вида: выбор и обязанности дизайнеров искусственного интеллекта. Архивировано 6 февраля 2007 г., в Wayback Machine - Институт сингулярности искусственного интеллекта , 2005 г.
  36. ^ Омохундро, Стивен М. (июнь 2008 г.). Основные приводы ИИ (PDF) . Общий искусственный интеллект, 2008. стр. 483–492. Архивировано (PDF) из оригинала 10 октября 2020 г. Проверено 2 октября 2020 г.
  37. ^ Такер, Патрик (17 апреля 2014 г.). «Почему произойдет восстание роботов» . Защита Один. Архивировано из оригинала 6 июля 2014 года . Проверено 15 июля 2014 г.
  38. ^ Рассел, Стюарт Дж. (8 октября 2019 г.). Совместимость с человеком: искусственный интеллект и проблема управления . Пингвин. ISBN  978-0-525-55862-0 . OCLC   1237420037 . Архивировано из оригинала 15 марта 2023 года . Проверено 2 января 2022 г.
  39. ^ «Google разрабатывает аварийный выключатель для искусственного интеллекта» . Новости Би-би-си . 8 июня 2016 г. Архивировано из оригинала 11 июня 2016 г. Проверено 7 июня 2020 г.
  40. ^ Роулинсон, Кевин (29 января 2015 г.). «Билл Гейтс из Microsoft настаивает на том, что ИИ представляет собой угрозу» . Новости Би-би-си . Архивировано из оригинала 29 января 2015 года . Проверено 30 января 2015 г.
  41. ^ «Открытое письмо Института будущего жизни» . Институт будущего жизни. 28 октября 2015 г. Архивировано из оригинала 29 марта 2019 г. . Проверено 29 марта 2019 г.
  42. ^ Брэдшоу, Тим (11 января 2015 г.). «Ученые и инвесторы предупреждают об искусственном интеллекте» . Файнэншл Таймс. Архивировано из оригинала 7 февраля 2015 года . Проверено 4 марта 2015 г.
  43. ^ Камински, Йоханнес Д. (декабрь 2022 г.). «О человеческом расходовании: захват власти ИИ в «Одиссее» Кларка и «Ускорении» Стросса . Неогеликон . 49 (2): 495–511. дои : 10.1007/s11059-022-00670-w . ISSN   0324-4652 . S2CID   253793613 .
  44. ^ Рассел, Стюарт Дж.; Норвиг, Питер (2021). Искусственный интеллект: современный подход (4-е изд.). Пирсон. стр. 5, 1003. ISBN.  9780134610993 . Проверено 12 сентября 2022 г.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 9c6dd55b63777faea3eb912bccfefac0__1721606460
URL1:https://arc.ask3.ru/arc/aa/9c/c0/9c6dd55b63777faea3eb912bccfefac0.html
Заголовок, (Title) документа по адресу, URL1:
AI takeover - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)