Гонка вооружений искусственного интеллекта
Гонка вооружений в области военного искусственного интеллекта — это гонка вооружений между двумя или более государствами за разработку и развертывание смертоносных автономных систем вооружения (СОЛН). С середины 2010-х годов многие аналитики отмечают появление такой гонки вооружений между сверхдержавами за лучший военный ИИ . [1] [2] вызвано растущей геополитической и военной напряженностью .
Гонку вооружений в области искусственного интеллекта иногда рассматривают в контексте « холодной войны» в области искусственного интеллекта между Соединенными Штатами, Россией и Китаем . [3]
Терминология
[ редактировать ]Летальные автономные системы вооружения используют искусственный интеллект для идентификации и уничтожения человеческих целей без вмешательства человека. [4] ЗАКОНЫ в просторечии называют « роботами-убийцами » или «роботами-убийцами». В широком смысле любую конкуренцию за лучший ИИ иногда называют «гонкой вооружений». [5] [6] Преимущества военного ИИ совпадают с преимуществами в других секторах, поскольку страны преследуют как экономические, так и военные преимущества. [7]
История
[ редактировать ]В 2014 году специалист по искусственному интеллекту Стив Омохундро предупредил, что «гонка вооружений в области автономного вооружения уже происходит». [8] По данным Siemens , мировые военные расходы на робототехнику составили 5,1 миллиарда долларов США в 2010 году и 7,5 миллиарда долларов США в 2015 году. [9] [10]
Китай стал ведущим игроком в исследованиях искусственного интеллекта в 2010-х годах. По данным Financial Times , в 2016 году Китай впервые опубликовал больше статей об искусственном интеллекте, чем весь Евросоюз. При ограничении количества статей по искусственному интеллекту в топ-5% цитируемых статей Китай обогнал США в 2016 году, но отстал от Европейского Союза. [11] 23% исследователей, присутствовавших на конференции Американской ассоциации по развитию искусственного интеллекта (AAAI) в 2017 году, были китайцами. [12] Эрик Шмидт , бывший председатель Alphabet , предсказал, что к 2025 году Китай станет ведущей страной в области искусственного интеллекта. [13]
Страна | в 2012 году | в 2017 году |
---|---|---|
Соединенные Штаты | 41% | 34% |
Китай | 10% | 23% |
Великобритания | 5% | 13% |
Риски
[ редактировать ]Один из рисков касается самой гонки ИИ, независимо от того, выиграет ли гонку какая-либо одна группа или нет. У команд разработчиков есть сильные стимулы срезать углы в отношении безопасности системы, что может привести к увеличению алгоритмической предвзятости . [14] [15] Частично это связано с осознанием преимущества того, что мы первыми разработали передовые технологии искусственного интеллекта. Одна команда, которая оказывается на грани прорыва, может побудить другие команды пойти коротким путем, игнорировать меры предосторожности и развернуть менее готовую систему. Некоторые утверждают, что использование «расовой» терминологии в этом контексте может усугубить этот эффект. [16]
Другая потенциальная опасность гонки вооружений ИИ — это возможность потери контроля над системами ИИ; риск усугубляется в случае гонки за всеобщим искусственным интеллектом, которая может представлять экзистенциальный риск . [16] Сообщается, что в 2023 году представитель ВВС США заявил, что во время компьютерного испытания смоделированный дрон с искусственным интеллектом убил человека, управлявшего им. Позже в ВВС США заявили, что чиновник оговорился и что они никогда не проводили такого моделирования. [17]
Третий риск гонки вооружений ИИ заключается в том, выиграет ли гонку одна группа. Беспокойство вызывает консолидация власти и технологических преимуществ в руках одной группы. [16] В отчете правительства США утверждается, что «возможности искусственного интеллекта могут быть использованы для угрозы критически важной инфраструктуре, усиления кампаний по дезинформации и ведения войны». [18] :1 и что «глобальная стабильность и ядерное сдерживание могут быть подорваны». [18] :11
Позиция в отношении военного искусственного интеллекта
[ редактировать ]Россия
[ редактировать ]Российский генерал Виктор Бондарев , главнокомандующий ВВС России, заявил, что еще в феврале 2017 года Россия работала над ракетами с искусственным наведением, которые могли бы менять цель в полете. [19] Военно -промышленная комиссия России одобрила планы к 2030 году получить 30 процентов боевой мощи России от роботизированных платформ с дистанционным управлением и искусственным интеллектом. [20] В середине 2017 года участились сообщения спонсируемых государством российских СМИ о потенциальном использовании ИИ в военных целях. [21] В мае 2017 года генеральный директор российской оборонной компании «Группа Кронштадт» заявил, что «уже существуют полностью автономные операционные системы искусственного интеллекта, которые обеспечивают средства для кластеров БПЛА, когда они выполняют задачи автономно, разделяя между собой задачи и взаимодействуя». что однажды над зонами боевых действий неизбежно пролетят «стаи дронов». [22] Россия тестирует несколько автономных и полуавтономных боевых систем, таких как боевой модуль «нейронная сеть» Калашникова с пулеметом, камерой и искусственным интеллектом, который, как утверждают его создатели, может принимать собственные решения о выборе цели без вмешательства человека. [23]
В сентябре 2017 года во время обращения к более чем миллиону учеников в 16 000 российских школах в честь Национального дня знаний президент России Владимир Путин заявил: «Искусственный интеллект — это будущее не только России, но и всего человечества... Кто станет лидером в этой сфере?» станет владыкой мира». Путин также сказал, что было бы лучше не допустить достижения монополии каким-либо отдельным игроком, но что, если Россия станет лидером в области искусственного интеллекта, она поделится своими «технологиями с остальным миром, как мы делаем сейчас с атомными и ядерными технологиями». . [24] [25] [26]
Россия создает ряд организаций, занимающихся разработкой военного ИИ. В марте 2018 года российское правительство опубликовало программу из 10 пунктов в области ИИ, которая предусматривает создание консорциума ИИ и больших данных, Фонда аналитических алгоритмов и программ, государственной программы обучения и образования в области ИИ, специализированной лаборатории ИИ. и Национальный центр искусственного интеллекта, среди других инициатив. [27] Кроме того, Россия недавно создала оборонную исследовательскую организацию, примерно эквивалентную DARPA, занимающуюся автономией и робототехникой, под названием «Фонд перспективных исследований», и инициировала ежегодную конференцию «Роботизация Вооружённых Сил Российской Федерации». [28] [29]
Российские военные исследуют ряд приложений ИИ, уделяя особое внимание полуавтономным и автономным транспортным средствам. В официальном заявлении от 1 ноября 2017 года председатель комитета Совета Федерации по обороне и безопасности Виктор Бондарев заявил, что "искусственный интеллект сможет заменить солдата на поле боя и летчика в кабине самолета", а позже отметил, что «Приближается день, когда транспортные средства получат искусственный интеллект». [30] Бондарев сделал эти замечания в непосредственной близости от успешных испытаний «Нерехты», безэкипажной российской наземной машины, которая, как сообщается, «превзошла существующие боевые машины с экипажем». Россия планирует использовать «Нерехту» в качестве платформы для исследований и разработок искусственного интеллекта и однажды может использовать систему в боевых целях, сборе разведывательной информации или логистике. [31] Сообщается, что Россия также создала боевой модуль для безэкипажных наземных транспортных средств, способный автономно идентифицировать цели – и, возможно, поражать цели – и планирует разработать набор автономных систем с поддержкой искусственного интеллекта. [32] [33] [29]
Кроме того, российские военные планируют внедрить ИИ в безэкипажные воздушные, военно-морские и подводные транспортные средства и в настоящее время разрабатывают возможности роения. [28] Он также изучает инновационные варианты использования искусственного интеллекта для дистанционного зондирования и радиоэлектронной борьбы, включая адаптивную скачкообразную перестройку частоты, формы сигналов и меры противодействия. [34] [35] Россия также широко использовала технологии искусственного интеллекта для внутренней пропаганды и наблюдения, а также для информационных операций, направленных против США и их союзников. [36] [37] [29]
Российское правительство решительно отвергло любой запрет на смертоносные автономные системы вооружения, предполагая, что такой международный запрет можно игнорировать. [38] [39]
Китай
[ редактировать ]Китай проводит стратегическую политику военно-гражданского слияния с использованием ИИ для глобального технологического превосходства . [18] [40] Согласно отчету Грегори Аллена из Центра новой американской безопасности , , руководство Китая за февраль 2019 года включая верховного лидера Си Цзиньпина , считает, что быть на переднем крае технологий искусственного интеллекта имеет решающее значение для будущего глобальной военной и экономической политики. силовая конкуренция. [7] Китайские военные чиновники заявили, что их цель — внедрить коммерческие технологии искусственного интеллекта, чтобы «сократить разрыв между китайской армией и передовыми мировыми державами». [7] Тесные связи между Кремниевой долиной и Китаем, а также открытость американского исследовательского сообщества сделали самые передовые западные технологии искусственного интеллекта легко доступными для Китая; Кроме того, китайская промышленность имеет множество собственных достижений в области искусственного интеллекта, например, Baidu, прошедшая в 2015 году заметный тест на способность распознавания речи на китайском языке. [41] По состоянию на 2017 год дорожная карта Пекина направлена на создание к 2030 году индустрии искусственного интеллекта стоимостью 150 миллиардов долларов. [11] До 2013 года оборонные закупки Китая в основном ограничивались несколькими конгломератами; однако по состоянию на 2017 год Китай часто закупает новые чувствительные технологии, такие как дроны и искусственный интеллект, у частных начинающих компаний. [42] В отчете Центра безопасности и новых технологий за октябрь 2021 года говорится, что «большинство поставщиков оборудования для искусственного интеллекта [китайских военных] являются не государственными оборонными предприятиями, а частными китайскими технологическими компаниями, основанными после 2010 года». [43] По оценкам отчета, военные расходы Китая на ИИ ежегодно превышают 1,6 миллиарда долларов. [43] В 2018 году газета Japan Times сообщила, что ежегодные частные китайские инвестиции в искусственный интеллект составляют менее 7 миллиардов долларов в год. Стартапы искусственного интеллекта в Китае получили почти половину общих мировых инвестиций в стартапы искусственного интеллекта в 2017 году; Китайцы подали почти в пять раз больше патентов на ИИ, чем американцы. [44]
В 2016 году Китай опубликовал позиционный документ, ставящий под сомнение адекватность существующего международного права для рассмотрения возможности создания полностью автономного оружия, став первым постоянным членом Совета Безопасности ООН, затронувшим этот вопрос. [45] В 2018 году Си Цзиньпин призвал к расширению международного сотрудничества в области фундаментальных исследований в области искусственного интеллекта. [46] Китайские официальные лица выразили обеспокоенность тем, что искусственный интеллект, такой как дроны, может привести к случайной войне, особенно в отсутствие международных норм. [47] В 2019 году бывший министр обороны США Марк Эспер раскритиковал Китай за продажу дронов, способных уносить жизни без надзора человека. [48]
Соединенные Штаты
[ редактировать ]В 2014 году бывший министр обороны Чак Хейгел сформулировал « Третью стратегию компенсации », согласно которой быстрый прогресс в области искусственного интеллекта определит следующее поколение войн. [49] По данным аналитической компании Govini, Министерство обороны США увеличило инвестиции в искусственный интеллект, большие данные и облачные вычисления с $5,6 млрд в 2011 году до $7,4 млрд в 2016 году. [50] Однако гражданский бюджет NSF на ИИ в 2017 году не увеличился. [11] В 2018 году Japan Times сообщила, что частные инвестиции в США составляют около 70 миллиардов долларов в год. [44] «Промежуточный отчет» Комиссии национальной безопасности США по искусственному интеллекту за ноябрь 2019 года подтвердил, что ИИ имеет решающее значение для технологического военного превосходства США. [18]
В США существует множество военных боевых программ искусственного интеллекта, таких как автономный военный корабль Sea Hunter , который предназначен для работы в течение длительных периодов времени в море без единого члена экипажа и даже для самостоятельного входа в порт и выхода из него. [23] С 2017 года временная директива Министерства обороны США требует, чтобы человек-оператор был в курсе событий, когда дело доходит до убийства людей с помощью автономных систем вооружения. [51] 31 октября 2019 года Совет по оборонным инновациям Министерства обороны США опубликовал проект отчета, в котором рекомендуются принципы этического использования искусственного интеллекта Министерством обороны, которые гарантировали бы, что человек-оператор всегда сможет изучить ситуацию. черный ящик» и понять процесс цепочки убийств . Однако серьезное беспокойство вызывает то, как этот отчет будет реализован. [52]
Объединенный центр искусственного интеллекта (JAIC) (произносится «Джейк») [53] — американская организация, занимающаяся изучением использования искусственного интеллекта (особенно периферийных вычислений ), сети сетей и связи с использованием искусственного интеллекта для использования в реальных боевых действиях. [54] [55] [56] [57] Это подразделение Вооруженных сил США , созданное в июне 2018 года. Заявленная цель организации — «трансформировать Министерство обороны США путем ускорения доставки и внедрения ИИ для достижения масштабного воздействия на миссии. Цель — использовать ИИ для решения больших и сложных наборов задач, охватывающих несколько боевых систем, а затем обеспечить боевым системам и компонентам доступ в режиме реального времени к постоянно улучшающимся библиотекам наборов данных и инструментов». [55]
В 2023 году Microsoft предложила Министерству обороны использовать модели DALL-E для обучения своей системы управления полем боя . [58] OpenAI , разработчик DALL-E, снял полный запрет на использование в военных целях из своей политики использования в январе 2024 года. [59]
Проект Мавен
[ редактировать ]Project Maven — это проект Пентагона, включающий использование машинного обучения и инженерных талантов для распознавания людей и объектов в видео с дронов. [60] по-видимому, предоставляя правительству командование и контроль на поле боя в реальном времени, а также возможность отслеживать, помечать и шпионить за целями без участия человека. Первоначально усилия возглавил Роберт О. Уорк , который был обеспокоен военным использованием Китаем новой технологии. [61] Как сообщается, разработка Пентагона не дотягивает до того, чтобы действовать как система вооружения с искусственным интеллектом, способная стрелять по самостоятельно назначенным целям. [62] Проект был основан в меморандуме заместителя министра обороны США от 26 апреля 2017 года. [63] Также известна как Межфункциональная группа алгоритмической войны . [64] По словам генерал-лейтенанта ВВС США Джека Шанахана в ноябре 2017 года, это проект, «задуманный как пилотный проект, тот первопроходец, та искра, которая разжигает пламя искусственного интеллекта во всем мире». Министерство обороны]. [65] Его руководитель, полковник Корпуса морской пехоты США Дрю Кьюкор, заявил: «Люди и компьютеры будут работать совместно, чтобы повысить способность систем вооружения обнаруживать объекты». [66] Проект Maven был отмечен союзниками, такими как австралиец Ян Лэнгфорд , за способность идентифицировать противников путем сбора данных с датчиков на БПЛА и спутниках. [67] На втором технологическом саммите Defense One в июле 2017 года Кьюкор также заявил, что инвестиции в «обдуманный рабочий процесс» финансировались Министерством [обороны] через его «органы быстрого приобретения» примерно на «следующие 36 месяцев». [68]
Великобритания
[ редактировать ]В 2015 году правительство Великобритании выступило против запрета на смертоносное автономное оружие, заявив, что «международное гуманитарное право уже обеспечивает достаточное регулирование в этой области», но что все оружие, используемое вооруженными силами Великобритании, будет «под надзором и контролем человека». [69]
Израиль
[ редактировать ]Израиль широко использует ИИ в военных целях, особенно во время войны между Израилем и Хамасом . Основными системами искусственного интеллекта, используемыми для идентификации целей, являются Евангелие и Лаванда. Лаванда, разработанная подразделением 8200, идентифицирует и создает базу данных лиц, в основном низкоранговых боевиков Хамаса и Палестинского исламского джихада, имеет точность 90% и базу данных из десятков тысяч. Евангелие в сравнениях рекомендовало здания и сооружения, а не отдельных людей. Приемлемый сопутствующий ущерб и тип оружия, используемого для уничтожения цели, определяются членами ЦАХАЛа и могут отслеживать боевиков, даже находясь дома. [70]
Израильский Harpy «выстрелил и забыл» предназначен для запуска наземными войсками и автономного полета над территорией для поиска и уничтожения радара, который соответствует заранее определенным критериям. противорадиолокационный беспилотник [71] Ожидается, что применение искусственного интеллекта также будет расширено в безэкипажных наземных системах и роботизированных транспортных средствах, таких как Guardium MK III и более поздних версиях. [72] Эти роботизированные машины используются при охране границы.
Южная Корея
[ редактировать ]Южнокорейский пулемет Super aEgis II , представленный в 2010 году, используется как в Южной Корее, так и на Ближнем Востоке. Он может идентифицировать, сопровождать и уничтожать движущуюся цель на расстоянии до 4 км. Хотя технология теоретически может работать без вмешательства человека, на практике устанавливаются меры безопасности, требующие ручного ввода. Южнокорейский производитель заявляет: «Наше оружие не спит, как это делают люди. Оно может видеть в темноте, чего люди не могут. Таким образом, наша технология закрывает пробелы в человеческих возможностях», и они хотят «достичь место, где наше программное обеспечение может определить, является ли цель другом, врагом, гражданским лицом или военным». [73]
Евросоюз
[ редактировать ]Европейский парламент придерживается позиции, согласно которой люди должны иметь право надзора и принятия решений в отношении смертоносного автономного оружия. [74] Однако каждое государство-член Европейского Союза должно определить свою позицию по использованию автономного оружия, и неоднозначные позиции государств-членов, возможно, являются самым большим препятствием для способности Европейского Союза разрабатывать автономное оружие. Некоторые члены, такие как Франция, Германия, Италия и Швеция, разрабатывают смертоносное автономное оружие. Некоторые члены по-прежнему не определились с использованием автономного боевого оружия, а Австрия даже призвала запретить использование такого оружия. [75]
Некоторые государства-члены ЕС разработали и разрабатывают автоматизированное оружие. Германия разработала систему активной защиты , Active Defense System, которая может реагировать на угрозу с полной автономностью менее чем за миллисекунду. [75] [76] Италия планирует включить автономные системы вооружения в свои будущие военные планы. [75]
Предложения по международному регулированию
[ редактировать ]Международное регулирование автономного оружия является новой проблемой международного права. [77] Контроль над вооружениями с использованием ИИ, скорее всего, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной дипломатией со стороны экспертных сообществ, а также процессом юридической и политической проверки. [1] [2] Еще в 2007 году такие ученые, как профессор искусственного интеллекта Ноэль Шарки, предупреждали о «возникающей гонке вооружений среди высокотехнологичных стран за разработку автономных подводных лодок, истребителей, линкоров и танков, которые могут находить свои собственные цели и применять насильственную силу без их участия». осмысленных человеческих решений». [78] [79]
Майлз Брандейдж из Оксфордского университета утверждает, что гонку вооружений ИИ можно несколько смягчить с помощью дипломатии: «На примере различных исторических гонок вооружений мы видели, что сотрудничество и диалог могут принести дивиденды». [80] В 2017 году более ста экспертов подписали открытое письмо, призывающее ООН заняться проблемой смертоносного автономного оружия; [81] [82] однако на ноябрьской сессии Конвенции ООН по конкретным видам обычного оружия (КОО) в ноябре 2017 года дипломаты не смогли договориться даже о том, как определять такое оружие. [83] Индийский посол и председатель КНО заявил, что достижение соглашения по правилам остается отдаленной перспективой. [84] По состоянию на 2019 год 26 глав государств и 21 лауреат Нобелевской премии мира поддержали запрет на автономное оружие. [85] Однако по состоянию на 2022 год большинство крупных держав продолжают выступать против запрета автономного оружия. [86]
Многие эксперты полагают, что попытки полностью запретить роботов-убийц, скорее всего, потерпят неудачу. [87] отчасти потому, что выявление нарушений договора будет чрезвычайно трудным. [88] [89] В докладе Гарварда Белферовского центра за 2017 год прогнозируется, что ИИ может стать столь же преобразующим, как и ядерное оружие. [80] [90] [91] В докладе далее утверждается, что «предотвратить расширенное военное использование ИИ, скорее всего, невозможно» и что «необходимо преследовать более скромную цель безопасного и эффективного управления технологиями», например, запрет на присоединение переключателя «мертвеца» ИИ к ядерному арсеналу. [91]
Другие реакции на автономное оружие
[ редактировать ]Открытое письмо Института будущего жизни от 2015 года , призывающее к запрету смертоносных автономных систем вооружения, подписали более 26 000 граждан, в том числе физик Стивен Хокинг , Tesla магнат Илон Маск , Apple из Стив Возняк и Twitter соучредитель Джек Дорси . и более 4600 исследователей искусственного интеллекта, включая Стюарта Рассела , Барта Селмана и Франческу Росси . [92] [83] Институт будущего жизни также выпустил два художественных фильма: «Бойни-боты» (2017 г.) и «Бойни-боты – если человек: kill()» (2021 г.), в которых изображены угрозы автономного оружия и пропагандируются его запрет, оба из которых стали вирусными.
Профессор Ноэль Шарки из Университета Шеффилда утверждает, что автономное оружие неизбежно попадет в руки террористических группировок, таких как « Исламское государство» . [93]
Диссоциация
[ редактировать ]Многие западные технологические компании избегают слишком тесного сотрудничества с вооруженными силами США, опасаясь потерять доступ к китайскому рынку. [41] Более того, некоторые исследователи, такие как DeepMind генеральный директор Демис Хассабис , идеологически против участия в военной работе. [94]
Например, в июне 2018 года источники компании в Google сообщили, что топ-менеджер Дайан Грин сообщила сотрудникам, что компания не будет заниматься проектом Maven после истечения текущего контракта в марте 2019 года. [60]
См. также
[ редактировать ]- Выравнивание ИИ
- Развитие искусственного интеллекта
- Гонка вооружений
- Общий искусственный интеллект
- Искусственный интеллект
- Программное обеспечение для обнаружения искусственного интеллекта
- Искусственный интеллект Холодная война
- Холодная война
- Этика искусственного интеллекта
- Экзистенциальный риск от общего искусственного интеллекта
- Летальное автономное оружие
- Военный робот
- Гонка ядерных вооружений
- Эпоха после холодной войны
- Вторая холодная война
- Космическая гонка
- Беспилотный боевой летательный аппарат
- Слабый ИИ
Ссылки
[ редактировать ]- ^ Перейти обратно: а б Гейст, Эдвард Мур (15 августа 2016 г.). «Уже слишком поздно останавливать гонку вооружений ИИ. Вместо этого мы должны ею управлять». Бюллетень ученых-атомщиков . 72 (5): 318–321. Бибкод : 2016БуАтС..72э.318Г . дои : 10.1080/00963402.2016.1216672 . ISSN 0096-3402 . S2CID 151967826 .
- ^ Перейти обратно: а б Маас, Маттейс М. (06 февраля 2019 г.). «Насколько жизнеспособен международный контроль над вооружениями для военного искусственного интеллекта? Три урока ядерного оружия». Современная политика безопасности . 40 (3): 285–311. дои : 10.1080/13523260.2019.1576464 . ISSN 1352-3260 . S2CID 159310223 .
- ^ Чемпион, Марк (12 декабря 2019 г.). «Цифровая холодная война» . Блумберг . Архивировано из оригинала 9 июля 2021 года . Проверено 3 июля 2021 г.
- ^ «Домашняя страница» . Летальное автономное оружие . 20.10.2021. Архивировано из оригинала 17 февраля 2022 г. Проверено 17 февраля 2022 г.
- ^ Рофф, Хизер М. (26 апреля 2019 г.). «Проблема фрейма: «гонка вооружений» ИИ не такова». Бюллетень ученых-атомщиков . 75 (3): 95–98. Бибкод : 2019БуАтС..75с..95Р . дои : 10.1080/00963402.2019.1604836 . ISSN 0096-3402 . S2CID 150835614 .
- ^ «Для Google это шаг вперед в гонке вооружений в области искусственного интеллекта» . Удача . 2014. Архивировано из оригинала 15 сентября 2021 года . Проверено 11 апреля 2020 г.
- ^ Перейти обратно: а б с Аллен, Грегори. «Понимание стратегии Китая в области искусственного интеллекта» . Центр новой американской безопасности . Архивировано из оригинала 17 марта 2019 года . Проверено 15 марта 2019 г.
- ^ Маркофф, Джон (11 ноября 2014 г.). «Боюсь бомб, которые могут выбрать, кого убить» . Нью-Йорк Таймс . Архивировано из оригинала 27 ноября 2021 года . Проверено 11 января 2018 г.
- ^ «Ознакомимся с военной робототехникой» . Экономист . 25 января 2018 г. Архивировано из оригинала 7 февраля 2018 г. . Проверено 7 февраля 2018 г.
- ^ «Автономные системы: Инфографика» . www.siemens.com . Архивировано из оригинала 7 февраля 2018 года . Проверено 7 февраля 2018 г.
- ^ Перейти обратно: а б с «Китай стремится к доминированию в мировой индустрии искусственного интеллекта» . Файнэншл Таймс . 15 октября 2017 года. Архивировано из оригинала 19 сентября 2019 года . Проверено 24 декабря 2017 г.
- ^ Перейти обратно: а б Копф, Дэн (2018). «Китай быстро приближает США к лидерству в области исследований в области искусственного интеллекта» . Кварц . Архивировано из оригинала 6 февраля 2018 года . Проверено 7 февраля 2018 г.
- ^ «Битва за цифровое превосходство» . Экономист . 2018. Архивировано из оригинала 18 марта 2018 года . Проверено 19 марта 2018 г.
- ^ Армстронг, Стюарт; Бостром, Ник; Шульман, Карл (01 августа 2015 г.). «Гонки к пропасти: модель развития искусственного интеллекта». ИИ и общество . 31 (2): 201–206. дои : 10.1007/s00146-015-0590-y . ISSN 0951-5666 . S2CID 16199902 .
- ^ Шарре, Пол (18 февраля 2020 г.). «Убийственные приложения: реальная опасность гонки вооружений ИИ» . Архивировано из оригинала 12 марта 2020 года . Проверено 15 марта 2020 г.
- ^ Перейти обратно: а б с Кейв, Стивен; Охейгеартай, Шон С. (2018). «Гонка ИИ за стратегическим преимуществом». Материалы конференции AAAI/ACM 2018 года по искусственному интеллекту, этике и обществу . Нью-Йорк, Нью-Йорк, США: ACM Press. п. 2. дои : 10.1145/3278721.3278780 . ISBN 978-1-4503-6012-8 .
- ^ Сян, Хлоя; Голт, Мэтью (1 июня 2023 г.). «Официальный представитель ВВС США заявил, что он «ошибся» о том, что дрон с искусственным интеллектом убил оператора в ходе симулированного испытания» . Порок .
- ^ Перейти обратно: а б с д Промежуточный отчет . Вашингтон, округ Колумбия: Комиссия национальной безопасности по искусственному интеллекту. 2019. Архивировано из оригинала 10 сентября 2021 г. Проверено 4 апреля 2020 г.
- ^ «Россия создает ракету, которая может принимать собственные решения» . Newsweek . 20 июля 2017 года. Архивировано из оригинала 30 декабря 2019 года . Проверено 24 декабря 2017 г.
- ^ Уолтерс, Грег (7 сентября 2017 г.). «Искусственный интеллект готов совершить революцию в войне» . Искатель . Архивировано из оригинала 7 октября 2021 года . Проверено 8 мая 2022 г.
- ^ «Почему Илон Маск прав относительно угрозы, исходящей от российского искусственного интеллекта» . Независимый . 6 сентября 2017 года. Архивировано из оригинала 25 апреля 2019 года . Проверено 24 декабря 2017 г.
- ^ «Россия разрабатывает автономные «поли дронов», которые она называет неизбежной частью будущих войн» . Newsweek . 15 мая 2017 года. Архивировано из оригинала 3 июня 2019 года . Проверено 24 декабря 2017 г.
- ^ Перейти обратно: а б Смит, Марк (25 августа 2017 г.). «Война «роботов-убийц» ближе, чем мы думаем?» . Новости Би-би-си . Архивировано из оригинала 24 декабря 2019 года . Проверено 24 декабря 2017 г.
- ^ «Искусственный интеллект стимулирует новую глобальную гонку вооружений» . ПРОВОДНОЙ . Архивировано из оригинала 24 октября 2019 года . Проверено 24 декабря 2017 г.
- ^ Клиффорд, Кэтрин (29 сентября 2017 г.). «Точно так же, как была гонка ядерных вооружений, будет и гонка за создание искусственного интеллекта, — говорит технический руководитель» . CNBC . Архивировано из оригинала 15 августа 2019 года . Проверено 24 декабря 2017 г.
- ^ Радина Гигова (2 сентября 2017 г.). «Кто, по мнению Владимира Путина, будет править миром» . CNN . Архивировано из оригинала 10 января 2022 года . Проверено 22 марта 2020 г.
- ^ «Вот как российские военные готовятся к разработке искусственного интеллекта» . Защита Один . 20 июля 2018 г. Архивировано из оригинала 26 июня 2020 г. Проверено 1 мая 2020 г.
- ^ Перейти обратно: а б «Восстание красных роботов: причина быстрого развития российских беспилотных военных систем» . Стратегический мост . 12 декабря 2017 г. Архивировано из оригинала 12 августа 2020 г. Проверено 1 мая 2020 г.
- ^ Перейти обратно: а б с Искусственный интеллект и национальная безопасность (PDF) . Вашингтон, округ Колумбия: Исследовательская служба Конгресса. 2019. Архивировано (PDF) из оригинала 8 мая 2020 г. Проверено 1 мая 2020 г. В данную статью включен текст из этого источника, находящегося в свободном доступе .
- ^ Бендетт, Сэмюэл (08 ноября 2017 г.). «Следует ли армии США бояться российских роботов-убийц?» . Национальный интерес . Архивировано из оригинала 09.11.2020 . Проверено 1 мая 2020 г.
- ^ «Россия заявляет, что выпустит на вооружение робот-танк, который превосходит людей по характеристикам» . Защита Один . 8 ноября 2017 г. Архивировано из оригинала 29 августа 2020 г. Проверено 1 мая 2020 г.
- ^ Грин, Тристан (27 июля 2017 г.). «Россия разрабатывает ракеты с искусственным интеллектом, чтобы доминировать в новой гонке вооружений» . Следующая сеть . Архивировано из оригинала 21 сентября 2020 г. Проверено 1 мая 2020 г.
- ^ Мизоками, Кайл (19 июля 2017 г.). «Калашников создаст робота-убийцу с искусственным интеллектом» . Популярная механика . Архивировано из оригинала 2 августа 2020 г. Проверено 1 мая 2020 г.
- ^ Догерти, Джилл; Джей, Молли. «Россия пытается разумно относиться к искусственному интеллекту» . Уилсон Ежеквартально . Архивировано из оригинала 25 июля 2020 г. Проверено 1 мая 2020 г.
- ^ «Российские боевые действия с использованием искусственного интеллекта: прибывают в ближайший к вам город?» . Война на камнях . 2019-07-31. Архивировано из оригинала 6 июня 2020 г. Проверено 1 мая 2020 г.
- ^ Полякова, Алина (15 ноября 2018 г.). «Оружие слабых: Россия и асимметричная война с использованием ИИ» . Брукингс . Архивировано из оригинала 06 апреля 2019 г. Проверено 1 мая 2020 г.
- ^ Полякова, Крис Мезероль, Алина (25 мая 2018 г.). «Дезинформационные войны» . Внешняя политика . Архивировано из оригинала 08 марта 2020 г. Проверено 1 мая 2020 г.
{{cite web}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ «Россия отвергает потенциальный запрет ООН на «роботов-убийц», — говорится в официальном заявлении» . Институт техники и технологий . 1 декабря 2017 года. Архивировано из оригинала 4 ноября 2019 года . Проверено 12 января 2018 г.
- ^ «Изучение различных аспектов новых технологий в области летальных автономных систем вооружения, Российская Федерация, ноябрь 2017 г.» (PDF) . Архивировано (PDF) из оригинала 19 августа 2019 года . Проверено 12 января 2018 г.
- ^ «Технологии, торговля и военно-гражданский синтез: стремление Китая к искусственному интеллекту, новым материалам и новой энергии | США-КИТАЙ | КОМИССИЯ ПО ОБЗОРУ ЭКОНОМИКИ И БЕЗОПАСНОСТИ» . www.uscc.gov . Архивировано из оригинала 11 апреля 2020 г. Проверено 4 апреля 2020 г.
- ^ Перейти обратно: а б Маркофф, Джон; Розенберг, Мэтью (3 февраля 2017 г.). «Интеллектуальное вооружение Китая становится умнее» . Нью-Йорк Таймс . Архивировано из оригинала 2 января 2020 года . Проверено 24 декабря 2017 г.
- ^ «Китай вовлекает стартапы в гонку высокотехнологичных вооружений» . Файнэншл Таймс . 9 июля 2017 года. Архивировано из оригинала 14 февраля 2018 года . Проверено 24 декабря 2017 г.
- ^ Перейти обратно: а б Федасюк, Райан; Мелот, Дженнифер; Мерфи, Бен (октябрь 2021 г.). «Обузданная молния: как китайские военные внедряют искусственный интеллект» . Центр безопасности и новых технологий . Архивировано из оригинала 21 апреля 2022 года . Проверено 22 апреля 2022 г.
- ^ Перейти обратно: а б «Гонка искусственного интеллекта накаляется» . Джапан Таймс . 1 марта 2018 г. Архивировано из оригинала 3 января 2020 г. Проверено 5 марта 2018 г.
- ^ «Роботы с оружием: развитие автономных систем вооружения» . Snopes.com . 21 апреля 2017 года . Проверено 24 декабря 2017 г.
- ^ Пекотик, Адриан (2019). «Тот, кто предсказывает будущее, выиграет гонку вооружений ИИ» . Внешняя политика . Архивировано из оригинала 16 июля 2019 года . Проверено 16 июля 2019 г.
- ^ Винсент, Джеймс (6 февраля 2019 г.). «Китай обеспокоен тем, что гонка вооружений ИИ может привести к случайной войне» . Грань . Архивировано из оригинала 16 июля 2019 года . Проверено 16 июля 2019 г.
- ^ «Экспортирует ли Китай роботов-убийц на Ближний Восток?» . Азия Таймс . 2019-11-28. Архивировано из оригинала 21 декабря 2019 г. Проверено 21 декабря 2019 г.
- ^ «США рискуют проиграть гонку вооружений в области искусственного интеллекта Китаю и России» . CNN . 29 ноября 2017 г. Архивировано из оригинала 15 сентября 2021 г. Проверено 24 декабря 2017 г.
- ^ Давенпорт, Кристиан (3 декабря 2017 г.). «Будущие войны могут зависеть как от алгоритмов, так и от боеприпасов, — говорится в докладе» . Вашингтон Пост . Архивировано из оригинала 15 августа 2019 года . Проверено 24 декабря 2017 г.
- ^ «Американский генерал предупреждает о вышедших из-под контроля роботах-убийцах» . CNN . 18 июля 2017 г. Архивировано из оригинала 15 сентября 2021 г. Проверено 24 декабря 2017 г.
- ^ Соединенные Штаты. Совет оборонных инноваций. Принципы искусственного интеллекта: рекомендации по этическому использованию искусственного интеллекта Министерством обороны . OCLC 1126650738 .
- ^ Келли М. Сэйлер (8 июня 2021 г.). Учебник по обороне: новые технологии (PDF) (отчет). Исследовательская служба Конгресса . Архивировано (PDF) оригинала 10 июля 2021 г. Проверено 22 июля 2021 г.
- ^ «Министерство обороны раскрывает свою стратегию искусственного интеллекта» . Министерство обороны США . Архивировано из оригинала 02 сентября 2021 г. Проверено 10 октября 2021 г.
- ^ Перейти обратно: а б «Объединенный центр искусственного интеллекта» . Министерство обороны. Архивировано из оригинала 25 июня 2020 года . Проверено 26 июня 2020 г.
- ^ Маклири, Пол (29 июня 2018 г.). «Объединенный центр искусственного интеллекта создан при директоре по информационным технологиям Министерства обороны» . Архивировано из оригинала 10 октября 2021 года . Проверено 10 октября 2021 г.
- ^ Барнетт, Джексон (19 июня 2020 г.). «Для того, чтобы военный ИИ вышел на поле боя, необходимо решить не только проблемы с программным обеспечением» . ФедСкоп. Архивировано из оригинала 26 июня 2020 года . Проверено 26 июня 2020 г.
- ^ Биддл, Сэм (10 апреля 2024 г.). «Microsoft представила DALL-E от OpenAI как боевой инструмент для вооруженных сил США» . Перехват .
- ^ Биддл, Сэм (12 января 2024 г.). «OpenAI незаметно снимает запрет на использование ChatGPT для «Военного дела» » . Перехват .
- ^ Перейти обратно: а б «Google «завершит» проект Пентагона по искусственному интеллекту» . Новости Би-би-си . 2 июня 2018 г. Архивировано из оригинала 2 июня 2018 г. Проверено 3 июня 2018 г.
- ^ Кейд Мец. (15 марта 2018 г.). «Пентагон хочет помощи Кремниевой долины в области искусственного интеллекта». Веб-сайт NY Times. Архивировано 8 апреля 2022 г. на Wayback Machine . Проверено 8 марта 2022 г.
- ^ «Отчет: Palantir взяла на себя управление Project Maven, военной программой искусственного интеллекта, слишком неэтичной для Google» . Следующая сеть . 11 декабря 2020 года. Архивировано из оригинала 24 января 2020 года . Проверено 17 января 2020 г.
- ^ Роберт О. Уорк (26 апреля 2017 г.). «Создание межфункциональной группы алгоритмической войны (проект Maven)» (PDF) . Архивировано (PDF) из оригинала 21 апреля 2018 г. Проверено 3 июня 2018 г.
- ^ «Сотрудники Google уходят в отставку в знак протеста против проекта ВВС Maven» . Федсовок . 14 мая 2018 г. Архивировано из оригинала 15 июля 2018 г. . Проверено 3 июня 2018 г.
- ^ Аллен, Грегори К. (21 декабря 2017 г.). «Проект Maven использует искусственный интеллект в борьбе с ИГИЛ» . Бюллетень ученых-атомщиков . Архивировано из оригинала 4 июня 2018 года . Проверено 3 июня 2018 г.
- ^ Итан Бэрон (3 июня 2018 г.). «Google отказывается от проекта Пентагона после скандала: отчет» . Military.com . Меркурий.com. Архивировано из оригинала 14 июля 2018 года . Проверено 3 июня 2018 г.
- ^ Скиннер, Дэн (29 января 2020 г.). «Управление сигнатурами в ускоренной войне | Ближний бой в 21 веке» . Бухта . Архивировано из оригинала 15 июля 2023 года . Проверено 15 июля 2023 г.
- ^ Шерил Пеллерин (21 июля 2017 г.). «Проект Maven к концу года развернет компьютерные алгоритмы в зоне боевых действий» . Новости Министерства обороны, Деятельность оборонных СМИ. Министерство обороны США . Архивировано из оригинала 4 июня 2018 года . Проверено 3 июня 2018 г.
- ^ Гиббс, Сэмюэл (20 августа 2017 г.). «Илон Маск возглавляет 116 экспертов, призывающих к полному запрету роботов-убийц» . Хранитель . Архивировано из оригинала 30 декабря 2019 года . Проверено 24 декабря 2017 г.
- ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 19 мая 2024 г.
- ^ « Роботы-убийцы: автономное оружие представляет собой моральную дилемму | Мир | Последние новости и перспективы со всего мира | DW | 14.11.2017» . DW.COM . 14 ноября 2017 года. Архивировано из оригинала 11 июля 2019 года . Проверено 12 января 2018 г.
- ^ Слокомб, Джефф (2015). «Необитаемые наземные системы (УГС)». Обозреватель Азиатско-Тихоокеанского региона . 41 (7): 28–29.
- ^ Паркин, Саймон (16 июля 2015 г.). «Роботы-убийцы: Солдаты, которые никогда не спят» . Би-би-си . Архивировано из оригинала 4 августа 2019 года . Проверено 13 января 2018 г.
- ^ «Тексты приняты – Автономные системы вооружения – среда, 12 сентября 2018 г.» . www.europarl.europa.eu . Архивировано из оригинала 26 января 2021 г. Проверено 30 января 2021 г.
- ^ Перейти обратно: а б с Ханер, Джастин; Гарсия, Дениз (2019). «Гонка вооружений искусственного интеллекта: тенденции и мировые лидеры в разработке автономного оружия» . Глобальная политика . 10 (3): 331–337. дои : 10.1111/1758-5899.12713 . ISSN 1758-5899 .
- ^ Буланен, Винсент; Вербрюгген, Маайке (2017). Карта развития автономности систем вооружения (PDF) . Стокгольмский международный институт исследования проблем мира. дои : 10.13140/rg.2.2.22719.41127 . Архивировано (PDF) из оригинала 17 января 2021 г. Проверено 30 января 2021 г.
- ^ Бенто, Лукас (2017). «Не просто деоданды: ответственность человека при использовании жестоких интеллектуальных систем в соответствии с международным публичным правом» . Хранилище стипендий Гарварда . Архивировано из оригинала 23 марта 2020 г. Проверено 14 сентября 2019 г.
- ^ Сэмпл, Ян (13 ноября 2017 г.). "Запрет на роботов-убийц необходим срочно, - говорят ученые" . Хранитель . Архивировано из оригинала 24 декабря 2017 года . Проверено 24 декабря 2017 г.
- ^ Шарки, Ноэль (17 августа 2007 г.). «Войны роботов — это реальность» . Хранитель . Архивировано из оригинала 6 января 2018 года . Проверено 11 января 2018 г.
- ^ Перейти обратно: а б Симонит, Том (19 июля 2017 г.). «ИИ может революционизировать войну так же, как и ядерное оружие» . Проводной . Архивировано из оригинала 25 ноября 2021 года . Проверено 24 декабря 2017 г.
- ^ Гиббс, Сэмюэл (20 августа 2017 г.). «Илон Маск возглавляет 116 экспертов, призывающих к полному запрету роботов-убийц» . Хранитель . Архивировано из оригинала 30 декабря 2019 года . Проверено 11 января 2018 г.
- ^ Конн, Ариэль (20 августа 2017 г.). «Открытое письмо к Конвенции ООН о конкретных видах обычного оружия» . Институт будущего жизни . Архивировано из оригинала 6 декабря 2017 года . Проверено 14 января 2018 г.
- ^ Перейти обратно: а б Бойд, Алан (24 ноября 2017 г.). «Восстание машин-убийц» . Азия Таймс . Проверено 24 декабря 2017 г.
- ^ « Роботы не захватят власть», — говорит глава органа ООН по автономному оружию» . Хранитель . 17 ноября 2017 года. Архивировано из оригинала 5 декабря 2021 года . Проверено 14 января 2018 г.
- ^ Макдональд, Генри (21 октября 2019 г.). «Кампания по остановке «роботов-убийц» принесла в ООН талисман мира» . Хранитель . Архивировано из оригинала 18 января 2022 года . Проверено 27 января 2022 г.
- ^ Хан, Джереми (2021). «Мир только что упустил «историческую возможность» остановить роботов-убийц» . Удача . Архивировано из оригинала 31 декабря 2021 года . Проверено 31 декабря 2021 г.
Несколько государств, в том числе США, Россия, Великобритания, Индия и Израиль, выступили против любых юридически обязательных ограничений... Китай поддержал обязательное юридическое соглашение в КНО, но также стремился дать настолько узкое определение автономному оружию, что большая часть военной техники с поддержкой искусственного интеллекта, которую она сейчас разрабатывает, выйдет за рамки такого запрета.
- ^ Симоните, Том (22 августа 2017 г.). «Извините, запрещать «роботов-убийц» просто непрактично» . Проводной . Архивировано из оригинала 23 июля 2021 года . Проверено 14 января 2018 г.
- ^ Антеби, Лиран. «Кто остановит роботов?» Военно-стратегические вопросы 5.2 (2013).
- ^ Шульман К. и Армстронг С. (июль 2009 г.). Контроль над вооружениями и разведывательные взрывы. На 7-й Европейской конференции по информатике и философии (ECAP), Беллатерра, Испания, июль (стр. 2–4).
- ^ Макфарланд, Мэтт (14 ноября 2017 г.). « В фильме «Бойцы» показаны потенциальные ужасы дронов-убийц» . CNNMoney . Архивировано из оригинала 15 сентября 2021 года . Проверено 14 января 2018 г.
- ^ Перейти обратно: а б Аллен, Грег и Таниэль Чан. «Искусственный интеллект и национальная безопасность». Отчет. Гарвардская школа Кеннеди, Гарвардский университет. Бостон, Массачусетс (2017).
- ^ «Открытое письмо по автономному оружию: исследователи искусственного интеллекта и робототехники» . Институт будущего жизни . 09.02.2016. Архивировано из оригинала 25 мая 2022 г. Проверено 17 февраля 2022 г.
- ^ Уиллер, Брайан (30 ноября 2017 г.). «Террористы «уверены» получат роботов-убийц» . Новости Би-би-си . Архивировано из оригинала 15 сентября 2021 года . Проверено 24 декабря 2017 г.
- ^ Мец, Кейд (15 марта 2018 г.). «Пентагон хочет помощи Кремниевой долины в области искусственного интеллекта» The New York Times . Архивировано из оригинала 19 марта 2018 года . Проверено 19 марта 2018 г.
Дальнейшее чтение
[ редактировать ]- Пол Шарр, «Убийственные приложения: настоящие опасности гонки вооружений ИИ», Foreignaffs , vol. 98, нет. 3 (май/июнь 2019 г.), стр. 135–44. «Сегодняшние технологии искусственного интеллекта мощны, но ненадежны. Системы, основанные на правилах, не могут справиться с обстоятельствами, которые их программисты не предусмотрели. Системы обучения ограничены данными, на которых они обучались. Сбои искусственного интеллекта уже привели к трагедиям. хотя в некоторых обстоятельствах они работают хорошо, без предупреждения врезаются в грузовики, бетонные барьеры и припаркованные автомобили. В неправильной ситуации системы ИИ мгновенно превращаются из сверхумных в сверхтупые, когда враг пытается манипулировать ИИ и взломать его. системы, риски еще больше». (стр. 140.)
- Комиссия национальной безопасности по искусственному интеллекту. (2019). Промежуточный отчет . Вашингтон, округ Колумбия: Автор.