Таргетирование с помощью искусственного интеллекта в секторе Газа
В рамках войны между Израилем и Хамасом ( ЦАХАЛ Силы обороны Израиля ) использовали искусственный интеллект для быстрого и автоматического выполнения большей части процесса определения того, что бомбить. Израиль значительно расширил бомбардировки сектора Газа , которые в предыдущих войнах были ограничены из у израильских ВВС -за нехватки целей .
В число этих инструментов входит Евангелие, искусственный интеллект, который автоматически просматривает данные наблюдения в поисках зданий, оборудования и людей, предположительно принадлежащих врагу, и после их обнаружения рекомендует человеку-аналитику бомбить цели, который затем может решить, следует ли передавать их поле. на базе искусственного интеллекта Другой — Lavender, « база данных », в которой перечислены десятки тысяч палестинских мужчин, связанных с помощью искусственного интеллекта с Хамасом или палестинским исламским джихадом , и которая также используется для целевых рекомендаций.
Критики утверждают, что использование этих инструментов искусственного интеллекта подвергает гражданское население риску, размывает ответственность и приводит к непропорциональному военному насилию в нарушение международного гуманитарного права .
Евангелие
Израиль использует систему искусственного интеллекта, получившую название «Хабсора» («Евангелие»), чтобы определить, какие цели будут бомбить израильские ВВС . [1] Он автоматически предоставляет рекомендации по таргетингу аналитику, [2] [3] который решает, передавать ли его солдатам в полевых условиях. [3] Рекомендации могут быть любыми: от отдельных бойцов до ракетных установок, командных пунктов ХАМАС, [2] в частные дома подозреваемых членов Хамаса или Исламского джихада. [4]
ИИ может обрабатывать информацию гораздо быстрее, чем люди. [5] [6] Генерал-лейтенант в отставке Авив Кохави , возглавлявший ЦАХАЛ до 2023 года, заявил, что система может производить 100 целей для бомбардировок в Газе в день с рекомендациями в реальном времени, какие из них атаковать, тогда как человеческие аналитики могут выдавать 50 целей в год. [7] Лектор, опрошенный NPR, оценил эти цифры как 50–100 целей за 300 дней для 20 офицеров разведки и 200 целей в течение 10–12 дней для Евангелия. [8]
Технологический фон
Искусственный интеллект, несмотря на название, не способен ни к мышлению, ни к сознанию. [9] Вместо этого они представляют собой машины, разработанные для автоматизации задач, которые люди выполняют с помощью интеллекта другими способами. Евангелие использует машинное обучение , [10] где ИИ поручено выявлять общие черты в огромных объемах данных (например, сканы раковых тканей, фотографии выражения лица, наблюдение за членами Хамаса, выявленными аналитиками-людьми), а затем искать эти общие черты в новом материале. [11]
Какую информацию использует Евангелие, неизвестно, но предполагается, что [а] объединить данные наблюдения из различных источников в огромных объемах. [14]
Рекомендации основаны на сопоставлении с образцом. Человек, имеющий достаточное сходство с другими людьми, которых называют комбатантами противника, сам может быть назван комбатантом. [10]
Что касается пригодности ИИ для этой задачи, NPR процитировало Хейди Клааф, технического директора AI Assurance в фирме по технологической безопасности Trail of Bits, которая сказала: «Алгоритмы ИИ, как известно, имеют недостатки: высокий уровень ошибок наблюдается в приложениях, требующих точности, аккуратности и точности. безопасность." [8] Бьянка Баджарини, преподаватель Центра стратегических и оборонных исследований Австралийского национального университета, написала, что ИИ «более эффективен в предсказуемых средах, где концепции объективны, достаточно стабильны и внутренне непротиворечивы». Она противопоставила это объяснению разницы между бойцом и некомбатантом , чего зачастую не могут сделать даже люди. [15]
Далее Хлааф отметил, что решения такой системы полностью зависят от данных, на которых она обучена. [б] и основаны не на рассуждениях, фактических доказательствах или причинно-следственных связях , а исключительно на статистической вероятности. [16]
Операция
У ВВС закончились цели для удара [17] в войне 2014 года и кризисе 2021 года . [18] В интервью телеканалу France 24 журналист-расследователь Юваль Абрахам из журнала +972 (левое израильское новостное издание) заявил, что для поддержания военного давления и из-за политического давления с целью продолжения войны военные будут бомбить одни и те же места дважды. [19] С тех пор интеграция инструментов искусственного интеллекта значительно ускорила выбор целей. [20] В начале ноября ЦАХАЛ заявил, что более 12 000 целей в секторе Газа были выявлены административным подразделением по целям. [21] который использует Евангелие. [2] 14 декабря NPR написало, что неясно, по скольким целям из «Евангелия» были применены удары, но израильские военные заявили, что в настоящее время они наносят удары по 250 целям в день. [8] Бомбардировки также усилились до того, что в статье от 14 декабря они были названы ошеломляющими темпами: [22] Израильские военные заявили, что на тот момент они поразили более 22 000 целей в Газе, [22] ежедневными темпами, более чем вдвое превышающими показатели конфликта 2021 года, [23] из них более 3500 с момента разрыва перемирия 1 декабря. [22] В начале наступления глава ВВС заявил, что его силы наносят удары только по военным целям, но добавил: «Мы не применяем хирургические методы ». [24]
Как только рекомендация принята, другой ИИ, Fire Factory, сокращает подготовку атаки с часов до минут. [25] путем расчета боекомплекта, определения приоритетов и назначения целей самолетам и беспилотникам, а также предложения графика, [26] Согласно довоенной статье Bloomberg, в которой такие инструменты ИИ описывались как приспособленные для военной конфронтации и прокси-войны с Ираном. [25]
Одно из изменений, которое отметила The Guardian, заключается в том, что, поскольку старшие лидеры Хамаса исчезают в туннелях в начале наступления, такие системы, как Евангелие, позволили ЦАХАЛу обнаружить и атаковать гораздо большую группу более младших боевиков Хамаса. Он процитировал чиновника, который работал над принятием решений по выбору целей в предыдущих операциях в Газе, который сказал, что, хотя дома младших членов Хамаса ранее не подвергались бомбардировкам, этот чиновник полагает, что дома предполагаемых боевиков Хамаса теперь подвергаются нападениям независимо от ранга. [17] В интервью France 24 Абрахам из журнала +972 охарактеризовал это как возможность систематизировать сбрасывание 2000-фунтовой бомбы на дом, чтобы убить одного человека и всех вокруг, что ранее было сделано с очень небольшой группой высокопоставленных руководителей Хамаса. лидеры. [27] NPR процитировало отчет журнала +972 Magazine и родственного ему издания Local Call , в котором утверждается, что система используется для изготовления целей, чтобы израильские вооруженные силы могли продолжать бомбардировать сектор Газа с огромной скоростью, наказывая все палестинское население. NPR отметило, что не проверяло это; было неясно, сколько целей создается только с помощью ИИ; но число нападений значительно возросло, что привело к огромным жертвам среди гражданского населения. [23]
В принципе, сочетание скорости компьютера для выявления возможностей и человеческого суждения для их оценки может обеспечить более точные атаки и меньше жертв среди гражданского населения. [28] Израильские военные и средства массовой информации подчеркивают минимальный вред мирным жителям. [16] [29] Ричард Мойес, исследователь и глава неправительственной организации «Статья 36», указал на «повсеместное выравнивание городских территорий с помощью тяжелого взрывного оружия», чтобы поставить под сомнение эти утверждения. [29] в то время как Люси Сучман , почетный профессор Ланкастерского университета , описала бомбардировку как «направленную на максимальное опустошение сектора Газа». [8]
The Guardian писала, что, когда был санкционирован удар по частным домам тех, кого идентифицировали как боевиков Хамаса или Исламского джихада, исследователи целей заранее знали ожидаемое количество убитых мирных жителей, у каждой цели был файл, содержащий оценку сопутствующего ущерба, в которой указывалось, сколько гражданских лиц вероятно быть убитым в забастовке, [30] и, по словам высокопоставленного израильского военного источника, оперативники используют «очень точные» измерения количества гражданских лиц, покидающих здание незадолго до удара. «Мы используем алгоритм, чтобы оценить, сколько мирных жителей осталось. Он дает нам зеленый, желтый и красный цвета, как сигнал светофора». [29]
2021 год использования
Кохави сравнил целевую дивизию, использующую Евангелие, с машиной и заявил, что после того, как машина была активирована во время войны в мае 2021 года, она создавала 100 целей в день, причем половина из них подвергалась атаке, в отличие от 50 целей в Газе в год ранее. [31] Примерно 200 целей исходили из Евангелия из 1500 целей, которые Израиль поразил в секторе Газа во время войны. [23] по данным военных, включая как статические, так и движущиеся цели. [32]
В отчете Еврейского института национальной безопасности Америки о последствиях действий была выявлена проблема, в которой говорилось, что система имела данные о том, что было целью, но не имела данных о том, что не было целью. [33] Система полностью зависит от обучающих данных, [16] и информация, которую аналитики-люди изучили и сочли не представляющей собой цель, была отброшена, рискуя предвзятостью . Вице-президент выразил надежду, что с тех пор ситуация была исправлена. [32]
Организация
Евангелие используется военным подразделением целевого управления (или Управлением целевых объектов). [3] или Управление таргетинга [34] ), который был сформирован в 2019 году в управлении разведки ЦАХАЛа. [21] чтобы решить проблему, когда у ВВС заканчиваются цели для бомбардировки, [17] и который Кохави описал как «основанный на возможностях искусственного интеллекта» и включающий сотни офицеров и солдат. [31] В дополнение к своей роли во время войны The Guardian написала, что за последние годы она помогла ЦАХАЛу создать базу данных, содержащую от 30 000 до 40 000 подозреваемых боевиков, и что такие системы, как Евангелие, сыграли решающую роль в составлении списков лиц, уполномоченных быть убит. [21]
Евангелие было разработано подразделением 8200 Израильской разведки . [35]
Лаванда
The Guardian на базе искусственного интеллекта определила Lavender как базу данных , согласно показаниям шести офицеров разведки, данным журналу +972 Magazine / Local Call и переданным The Guardian . Шестеро заявили, что Лаванда сыграла центральную роль в войне, быстро обрабатывая данные для выявления потенциальных младших боевиков, на которых можно нанести удар, и в какой-то момент перечислила до 37 000 палестинских мужчин, связанных ИИ с Хамасом или PIJ. [36] Подробности операции Лаванды или то, как она приходит к своим выводам, не включены в отчеты, опубликованные +972 / Local Call , но после того, как было обнаружено, что образец списка имеет степень точности 90%, ЦАХАЛ одобрил широкое использование Лаванды для рекомендаций цели. По словам офицеров, оно использовалось вместе с Евангелием, нацеленным на здания и сооружения, а не на отдельных лиц. [37]
Ссылаясь на многочисленные источники, The Guardian писала, что в предыдущих войнах идентификация кого-либо в качестве законной цели обсуждалась, а затем утверждалась юрисконсультом, и что после 7 октября процесс резко ускорился, возникло давление в пользу большего числа целей и Чтобы удовлетворить этот спрос, ЦАХАЛ стал в значительной степени полагаться на Лаванду в создании базы данных о лицах, которые, как было установлено, имели характеристики боевиков PIJ или Хамаса. [38] The Guardian процитировала один источник: «На этом этапе я бы потратил 20 секунд на каждую цель и выполнял бы десятки таких задач каждый день. У меня как человека не было никакой добавленной ценности, кроме того, что я был знаком одобрения . Это сэкономило много времени». [39] Источник, оправдывающий использование Лаванды для выявления целей низкого ранга, сказал, что в военное время нет времени тщательно проходить процесс идентификации каждой цели, и вместо того, чтобы вкладывать силы и время в младшего боевика, «вы готовы возьмите погрешность при использовании искусственного интеллекта». [40]
ЦАХАЛ выступил с заявлением о том, что некоторые из представленных утверждений необоснованны, в то время как другие отражают ошибочное понимание директив ЦАХАЛа и международного права, и что ЦАХАЛ не использует систему искусственного интеллекта, которая идентифицирует боевиков-террористов и не пытается предсказать, является ли человек террористом. . Информационные системы являются лишь одним из типов инструментов, которые помогают аналитикам собирать и оптимально анализировать разведданные из различных источников для процесса идентификации военных целей, и согласно директивам ЦАХАЛа, аналитики должны проводить независимые исследования для проверки соответствия целей соответствующим определениям в соответствии с с международным правом и дополнительными ограничениями директив ЦАХАЛа. [41]
Далее в заявлении говорится, что рассматриваемая «система» — это не система и не список подтвержденных военных оперативников, имеющих право на нападение, а всего лишь база данных для перекрестных ссылок на источники разведывательной информации с целью получения обновленных слоев информации о военные боевики террористических организаций. [41]
Этические и юридические последствия
Эксперты в области этики, ИИ и международного гуманитарного права раскритиковали использование таких систем ИИ с этической и юридической точки зрения, утверждая, что они нарушают основные принципы международного гуманитарного права, такие как военная необходимость , пропорциональность и различие между комбатантами и гражданскими лицами. . [42]
Обвинения во взрывах домов
The Guardian процитировала показания офицеров разведки, опубликованные +972 и Local Call, в которых говорится, что палестинские мужчины, связанные с военным крылом ХАМАС, считались потенциальными целями независимо от ранга или важности. [43] а низкоранговые члены Хамаса и PLJ будут преимущественно атакованы дома, причем один из них сказал, что система была создана для поиска их в таких ситуациях, когда атаковать было бы намного проще. [44] Два источника сообщили, что нападения на боевиков низкого ранга обычно совершались с использованием неуправляемых бомб , разрушая целые дома и убивая всех, кто там находился, а один сказал, что вы не хотите тратить дорогие бомбы, которых не хватает, на второстепенных людей. [45] Ссылаясь на неназванных экспертов по конфликтам, The Guardian написала, что, если Израиль использовал немые бомбы, чтобы снести с лица земли дома тысяч палестинцев, которые были связаны с помощью ИИ группировкам боевиков в секторе Газа, это могло бы помочь объяснить то, что газета назвала шокирующе высоким числом погибших война. [46]
В ответе ЦАХАЛа на публикацию показаний говорится, что, в отличие от Хамаса, он привержен международному праву и наносит удары только по военным объектам и военным оперативникам, делает это в соответствии со пропорциональностью и мерами предосторожности , а также тщательно изучает и расследует исключения; [47] что член организованной вооруженной группы или непосредственный участник боевых действий является законной целью согласно международному гуманитарному праву и политике всех законопослушных стран; [48] что он «прилагает различные усилия для уменьшения ущерба гражданскому населению, насколько это возможно в оперативных обстоятельствах, существовавших на момент нанесения удара»; что он выбирает подходящие боеприпасы в соответствии с оперативными и гуманитарными соображениями; что авиационные боеприпасы без интегрированного комплекта высокоточного наведения представляют собой стандартное вооружение вооруженных сил; бортовые системы самолета, используемые подготовленными пилотами, обеспечивают высокую точность такого оружия; и что подавляющее большинство используемых ею боеприпасов являются высокоточными . [49]
Пострадали также семейные дома на юге Ливана, в жилом районе Бинт-Джебейль . Убийство двух братьев Али Ахмеда Баззи и Ибрагима Баззи (27 лет) и жены Ибрагима Шорук Хаммонд. [50] Оба брата являются гражданами Австралии, Али жил здесь, но Ибрагим приехал из Сиднея, чтобы привезти жену домой в Австралию. [51] [50] «Хезболла» объявила Али одним из своих боевиков. [52] [53] а также включил гражданских членов семьи на похороны Хезболлы. [54] [50]
Утверждения о предварительно разрешенных лимитах на убийства среди гражданского населения
Согласно показаниям, ЦАХАЛ ввел заранее установленные ограничения на количество мирных жителей, которых разрешено убивать, чтобы убить одного боевика ХАМАС. The Guardian со ссылкой на +972 и Local Call рассказали , что это число превышало 100 для высокопоставленных чиновников ХАМАС, при этом один из источников сообщил, что был расчет того, сколько мирных жителей может быть убито для командира бригады, а сколько для командира батальона. , и так далее. Один из офицеров рассказал, что среди младших боевиков в первую неделю войны это число составляло 15, а в какой-то момент даже снизилось до пяти. Другой сообщил, что на одного оперативника приходилось до 20 непричастных гражданских лиц, независимо от звания, военного значения или возраста. [55] The Guardian пишет, что беседовавшие с газетой эксперты в области международного гуманитарного права выразили тревогу. [56]
В ответе ЦАХАЛа говорилось, что процедуры ЦАХАЛа требуют оценки ожидаемого военного преимущества и сопутствующего ущерба для каждой цели, что такие оценки производятся индивидуально, а не категорично, что ЦАХАЛ не наносит удары, когда побочный ущерб чрезмерен по сравнению с военным преимуществом. , [57] и что ЦАХАЛ категорически отвергает утверждения о какой-либо политике убийства десятков тысяч людей в их домах. [58]
Ограничения человеческого контроля
The Guardian процитировала Мойеса, заявившего, что командир, которому вручили сгенерированный компьютером список целей, может не знать, как этот список был составлен, или не иметь возможности поставить под сомнение рекомендации по выбору целей, и он рискует потерять способность осмысленно учитывать риск причинения вреда гражданскому населению. . [42]
В своей статье в Le Monde репортер Элиза Винсент написала, что автоматизированное оружие делится на полностью автоматизированные системы, которых на самом деле нет на рынке, и смертоносное автономное оружие , которое в принципе позволяет контролировать человека, и что это разделение позволяет Израилю заявлять, что Евангелие находится на стороне более уместного применения силы. Она процитировала Лору де Руси-Рошгонд, исследователя Французского института международных отношений , которая заявила, что война может привести к устареванию этих размытых категорий и активизации более строгого нормативного определения, значительного человеческого контроля, который пытаются защитить правозащитники, в том числе Статья 36. Она процитировала де Руси-Рошгонд, заявившую, что неизвестно, какой алгоритм использует израильская армия или как агрегируются данные, что не было бы проблемой, если бы они не приводили к решению вопроса жизни или смерти. [59]
Трудолюбие
Доктор Марта Бо, исследователь из Стокгольмского международного института исследования проблем мира , отметила, что люди, находящиеся в процессе «человек-в-процессе», рискуют «предвзятостью автоматизации»: чрезмерная зависимость от систем, предоставление этим системам слишком большого влияния на решения, которые должны приниматься. люди. [42]
Сучман заметил, что огромный объем целей, вероятно, оказывает давление на рецензентов, заявив, что «перед лицом такого рода ускорения эти обзоры становятся все более и более ограниченными с точки зрения того, какое суждение люди могут на самом деле вынести». Таль Мимран, преподаватель Еврейского университета в Иерусалиме , который ранее работал с правительством над таргетированием, добавил, что давление заставит аналитиков с большей вероятностью принять рекомендации ИИ по таргетированию, если они верны, и у них может возникнуть соблазн облегчить себе жизнь, выполнение рекомендаций машины, что может создать «совершенно новый уровень проблем», если машина систематически неправильно идентифицирует цели. [60]
Подотчетность
Хлааф отметил сложность обеспечения ответственности, когда в этом замешаны ИИ. Люди сохраняют за собой ответственность , но кто будет нести ответственность, если система нацеливания выйдет из строя, и невозможно будет связать сбой с какой-либо ошибкой одного человека? Статья NPR продолжала: «Это аналитик, который принял рекомендацию ИИ? Программисты, которые создали систему? Офицеры разведки, которые собрали данные для обучения?» [60]
Реакции
Генеральный секретарь ООН Антониу Гутерриш заявил, что он «глубоко обеспокоен» сообщениями о том, что Израиль использовал искусственный интеллект в своей военной кампании в секторе Газа, заявив, что такая практика подвергает гражданское население риску и размывает ответственность. [61] Говоря о системе Лаванды, Марк Оуэн Джонс, профессор Университета Хамада бен Халифы, заявил: «Давайте проясним: это геноцид с помощью ИИ, и в дальнейшем необходимо объявить мораторий на использование ИИ. на войне». [62] Бен Саул , специальный докладчик ООН, заявил, что если бы сообщения об использовании Израилем ИИ были правдой, то «многие израильские удары по сектору Газа представляли бы собой военные преступления, заключающиеся в проведении непропорциональных атак». [63] Рамеш Сринивасан , профессор Калифорнийского университета в Лос-Анджелесе , заявил: «Корпоративная Америка Big Tech фактически поддерживает многие действия израильских военных. Тот факт, что системы искусственного интеллекта используются, указывает на отсутствие уважения со стороны израильского государства. Все знают эти системы искусственного интеллекта. будет совершать ошибки». [64]
См. также
Примечания
- ^ The Guardian со ссылкой на неназванных экспертов написала, что «системы поддержки принятия решений на основе искусственного интеллекта для определения целей» обычно «анализируют большие наборы информации из различных источников, таких как кадры с дронов, перехваченные сообщения, данные наблюдения» и «движения и модели поведения отдельных лиц и больших групп». [12] NPR процитировало Блеза Мишталя из Еврейского института национальной безопасности Америки , заявившего, что данные, вероятно, поступают из самых разных источников, включая такие вещи, как сообщения мобильных телефонов, спутниковые снимки, кадры с дронов и сейсмические датчики. [13] Данные агрегируются и классифицируются другими системами искусственного интеллекта, прежде чем они будут включены в Евангелие. [2]
- ^ В этой области хорошо известно, что ИИ, имитирующий решения людей, может имитировать их ошибки и предрассудки, что приводит к так называемой алгоритмической предвзятости .
Ссылки
- ^ Ли, Гэвин (12 декабря 2023 г.). «Понимание того, как Израиль использует систему искусственного интеллекта «Евангелие» во время взрывов в Газе» . Франция24 . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
- ^ Перейти обратно: а б с д Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
По словам Тала Мимрана, преподавателя Еврейского университета в Иерусалиме, который работал на израильское правительство над определением целей во время предыдущих военных операций, «Евангелие» на самом деле является одной из нескольких программ искусственного интеллекта, используемых израильской разведкой. Другие системы искусственного интеллекта собирают огромные объемы разведывательных данных и классифицируют их. Последней системой является Евангелие, которое дает рекомендации по выбору цели аналитику-человеку. Этими целями может быть что угодно: от отдельных истребителей до оборудования, такого как ракетные установки, или таких объектов, как командные пункты ХАМАС.
- ^ Перейти обратно: а б с Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
В кратком сообщении в блоге израильских военных от 2 ноября рассказывается, как Евангелие используется в нынешнем конфликте. Согласно сообщению, военное управление целей использует Евангелие для быстрого создания целей на основе последних разведданных. Система предоставляет рекомендации по нацеливанию для человека-аналитика, который затем решает, следует ли передавать их солдатам в полевых условиях.
«Это не просто автоматическая система», — подчеркивает Мишталь. «Если он считает, что обнаружил что-то, что может быть потенциальной целью, это помечается для анализа аналитиком разведки».
В сообщении говорится, что подразделение наведения может отправлять эти цели в ВВС и ВМС, а также непосредственно в сухопутные войска через приложение, известное как «Огненный столп», которое командиры носят на военных смартфонах и других устройствах. - ^ Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (декабрь 2023 г.). « Евангелие»: как Израиль использует ИИ для выбора целей для бомбардировок в Газе» . Хранитель . Архивировано из оригинала 2 декабря 2023 года . Проверено 1 апреля 2024 г.
Многочисленные источники, знакомые с процессами нацеливания ЦАХАЛа, подтвердили существование Евангелия по телефону +972/Местный звонок, заявив, что оно использовалось для выдачи автоматических рекомендаций по атакам на цели, такие как частные дома людей, подозреваемых в принадлежности к Хамасу или боевикам Исламского джихада.
- ^ Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Алгоритмы могут просеивать горы разведывательных данных гораздо быстрее, чем люди-аналитики, говорит Роберт Эшли , бывший глава Разведывательного управления Министерства обороны США. Использование ИИ для помощи в наведении на цель потенциально может дать командирам огромное преимущество.
«Вы будете принимать решения быстрее, чем ваш оппонент, вот в чем дело», — говорит он. - ^ Баджарини, Бьянка (8 декабря 2023 г.). «Израильский ИИ может создавать 100 целей для бомбардировок в секторе Газа в день. Это будущее войны?» . Разговор . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Военные и солдаты формируют процесс принятия решений посредством так называемой «петли НОРД» (наблюдать, ориентироваться, решать, действовать). Более быстрый цикл OODA может помочь вам перехитрить врага. Цель состоит в том, чтобы избежать замедления принятия решений из-за чрезмерного обдумывания и вместо этого соответствовать ускоряющемуся темпу войны. Таким образом, использование ИИ потенциально оправдано, поскольку он может интерпретировать и синтезировать огромные объемы данных, обрабатывать их и предоставлять результаты со скоростью, намного превосходящей человеческое мышление.
- ^ Баджарини, Бьянка (8 декабря 2023 г.). «Израильский ИИ может создавать 100 целей для бомбардировок в секторе Газа в день. Это будущее войны?» . Разговор . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
- ^ Перейти обратно: а б с д Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
- ^ Мюллер, Джон Пол; Массарон, Лука (2016). Машинное обучение для чайников® . Хобокен, Нью-Джерси: John Wiley & Sons. ISBN 978-1-119-24551-3 . п. 13.
Машинное обучение основано на алгоритмах для анализа огромных наборов данных. В настоящее время машинное обучение не может создать тот тип искусственного интеллекта, который представлен в фильмах. Даже самые лучшие алгоритмы не могут думать, чувствовать, проявлять какую-либо форму самосознания или проявлять свободу воли.
- ^ Перейти обратно: а б Баджарини, Бьянка (8 декабря 2023 г.). «Израильский ИИ может создавать 100 целей для бомбардировок в секторе Газа в день. Это будущее войны?» . Разговор . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Как система создает эти цели? Это делается посредством вероятностных рассуждений, предлагаемых алгоритмами машинного обучения.
Алгоритмы машинного обучения учатся через данные. Они учатся, отыскивая закономерности в огромных массивах данных, и их успех зависит от качества и количества данных. Они дают рекомендации, основанные на вероятностях.
Вероятности основаны на сопоставлении с образцом. Если человек имеет достаточное сходство с другими людьми, которых называют комбатантом противника, он тоже может быть назван комбатантом. - ^ Мюллер, Джон Пол; Массарон, Лука (2016). Машинное обучение для чайников® . Хобокен, Нью-Джерси: John Wiley & Sons. ISBN 978-1-119-24551-3 . п. 33.
Секрет машинного обучения — в обобщении. Цель состоит в том, чтобы обобщить выходную функцию, чтобы она работала с данными за пределами обучающего набора. Например, рассмотрим спам-фильтр. Ваш словарь содержит 100 000 слов (на самом деле это небольшой словарь). Ограниченный набор обучающих данных, состоящий из 4000 или 5000 комбинаций слов, должен создать обобщенную функцию, которая затем сможет находить спам в 2^100 000 комбинациях, которые функция увидит при работе с фактическими данными.
- ^ Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (декабрь 2023 г.). « Евангелие»: как Израиль использует ИИ для выбора целей для бомбардировок в Газе» . Хранитель . Архивировано из оригинала 2 декабря 2023 года . Проверено 1 апреля 2024 г.
Неизвестно, какие именно формы данных включены в Евангелие. Но эксперты говорят, что системы поддержки принятия решений на основе искусственного интеллекта для определения целей обычно анализируют большие объемы информации из различных источников, таких как кадры с дронов, перехваченные сообщения, данные наблюдения и информация, полученная в результате мониторинга движений и моделей поведения отдельных лиц и больших групп.
- ^ Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Хотя точно неизвестно, какие данные использует Евангелие для своих предположений, они, скорее всего, взяты из самых разных источников. По словам Блеза Мишталя, вице-президента по политике Еврейского института национальной безопасности Америки, группы, которая содействует военному сотрудничеству между Израилем и Соединенными Штатами, в список входят такие вещи, как сообщения мобильного телефона, спутниковые снимки, кадры с дронов и даже сейсмические датчики. .
- ^ Инскип, Стив. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Система называется Евангелием. По сути, он берет огромное количество данных наблюдения, обрабатывает их все вместе и дает рекомендации о том, где военные должны нанести удар.
- ^ Баджарини, Бьянка (8 декабря 2023 г.). «Израильский ИИ может создавать 100 целей для бомбардировок в секторе Газа в день. Это будущее войны?» . Разговор . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Некоторые утверждают, что машинное обучение обеспечивает большую точность прицеливания, что позволяет избежать причинения вреда невинным людям и применения пропорциональной силы. Однако идея более точного нацеливания авиаударов в прошлом не имела успеха, о чем свидетельствует большое число заявленных и необъявленных жертв среди гражданского населения в результате глобальной войны с терроризмом.
Более того, разница между комбатантом и гражданским лицом редко бывает очевидной. Даже люди часто не могут сказать, кто является бойцом, а кто нет.
Технология не меняет этой фундаментальной истины. Часто социальные категории и понятия не объективны, а спорны или специфичны для времени и места. Но компьютерное зрение вместе с алгоритмами более эффективно в предсказуемых средах, где концепции объективны, достаточно стабильны и внутренне непротиворечивы. - ^ Перейти обратно: а б с Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Израильские военные не ответили напрямую на запросы NPR о Евангелии. В сообщении от 2 ноября говорится, что система позволяет военным «создавать цели для точных атак на инфраструктуры, связанные с ХАМАС, нанося при этом большой ущерб противнику и минимальный вред тем, кто не участвует», по словам неназванного представителя.
Но критики задаются вопросом, действительно ли Евангелие и другие связанные с ним системы искусственного интеллекта соответствуют заявлениям военных. Хлааф отмечает, что искусственный интеллект при принятии решений полностью зависит от обучающих данных.
«Природа систем искусственного интеллекта заключается в предоставлении результатов, основанных на статистических и вероятностных выводах и корреляциях исторических данных, а не на каких-либо рассуждениях, фактических доказательствах или «причинно-следственных связях», — говорит она. - ^ Перейти обратно: а б с Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (декабрь 2023 г.). « Евангелие»: как Израиль использует ИИ для выбора целей для бомбардировок в Газе» . Хранитель . Архивировано из оригинала 2 декабря 2023 года . Проверено 1 апреля 2024 г.
Целевое подразделение было создано для решения хронической проблемы ЦАХАЛа: в ходе предыдущих операций в Газе у ВВС неоднократно заканчивались цели для нанесения ударов. По словам источников, поскольку высокопоставленные чиновники Хамаса исчезали в туннелях в начале любого нового наступления, такие системы, как Евангелие, позволяли ЦАХАЛу обнаруживать и атаковать гораздо большую группу более младших боевиков.
Один чиновник, который работал над решениями о выборе целей в предыдущих операциях в Газе, сказал, что ЦАХАЛ ранее не наносил удары по домам молодых членов Хамаса. Они заявили, что, по их мнению, в нынешнем конфликте ситуация изменилась: дома предполагаемых боевиков ХАМАСа теперь подвергаются нападениям независимо от ранга. - ^ Ли, Гэвин (12 декабря 2023 г.). «Понимание того, как Израиль использует систему искусственного интеллекта «Евангелие» во время взрывов в Газе» . Франция24 . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Юваль Абрахам : «Теперь источники, с которыми я разговаривал, которые распространяли Евангелие и служили в этом центре [...] они сказали, что использование искусственного интеллекта становится все более растущей тенденцией в вооруженных силах, потому что в прошлом, у военных закончились цели в 2014 и 2021 годах.
- ^ Ли, Гэвин (12 декабря 2023 г.). «Понимание того, как Израиль использует систему искусственного интеллекта «Евангелие» во время взрывов в Газе» . Франция24 . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Юваль Абрахам : Я имею в виду, что один источник вспомнил, как, например, в 2021 и 2014 годах, вы знаете, у них закончились цели. Им уже нечего было бомбить. Бомбить было нечего, кроме качества. Но существовало политическое давление с целью продолжения войны. Необходимо было продолжать давление на сектор Газа. Так один источник вспомнил, как в 2014 году они дважды бомбили одни и те же места. Когда у вас есть искусственный интеллект, когда у вас есть автоматизация, когда вы можете создавать так много целей, часто тратя, знаете ли, меньше минуты на цель, которая, в конце концов, убивает семьи, понимаете? Итак, так, чтобы вы могли продолжать войны, часто даже в политических целях, возможно, гораздо дольше, чем вы могли в прошлом.
- ^ Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (декабрь 2023 г.). « Евангелие»: как Израиль использует ИИ для выбора целей для бомбардировок в Газе» . Хранитель . Архивировано из оригинала 2 декабря 2023 года . Проверено 1 апреля 2024 г.
- ^ Перейти обратно: а б с Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (декабрь 2023 г.). « Евангелие»: как Израиль использует ИИ для выбора целей для бомбардировок в Газе» . Хранитель . Архивировано из оригинала 2 декабря 2023 года . Проверено 1 апреля 2024 г.
В начале ноября ЦАХАЛ заявил, что его административное подразделение выявило «более 12 000» целей в секторе Газа.
Деятельность подразделения, сформированного в 2019 году в управлении разведки ЦАХАЛа, засекречена.
Однако в коротком заявлении на веб-сайте ЦАХАЛа утверждается, что в войне против Хамаса они используют систему на основе искусственного интеллекта под названием Хабсора (Евангелие на английском языке), чтобы «быстро создавать цели».
[...] В последние годы целевое подразделение помогло ЦАХАЛу создать базу данных, в которой, по словам источников, насчитывалось от 30 000 до 40 000 подозреваемых боевиков. По их словам, такие системы, как Евангелие, сыграли решающую роль в составлении списков лиц, уполномоченных на убийство. - ^ Перейти обратно: а б с Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Темпы поражают: после жестоких нападений боевиков под руководством Хамаса 7 октября израильские силы поразили более 22 000 целей в Газе, небольшой полоске земли вдоль побережья Средиземного моря. С тех пор, как 1 декабря было нарушено временное перемирие, ВВС Израиля нанесли удары по более чем 3500 объектам.
- ^ Перейти обратно: а б с Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
В отчете израильского издания +972 Magazine и ивритского издания Local Call утверждается, что система используется для изготовления целей, чтобы израильские вооруженные силы могли продолжать бомбардировать сектор Газа с огромной скоростью, наказывая все палестинское население.
NPR не провело независимой проверки этих утверждений, и неясно, сколько целей в настоящее время создается только с помощью ИИ. Однако, согласно собственным данным израильских военных, число нападений значительно возросло. Израиль заявил, что во время конфликта 2021 года он поразил 1500 целей в секторе Газа, примерно 200 из которых исходили от Евангелия. По данным военных, с 7 октября они нанесли удары по более чем 22 000 целям на территории Газы, что более чем вдвое превышает ежедневный показатель конфликта 2021 года.
Потери палестинского гражданского населения были огромными. - ^ Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (декабрь 2023 г.). « Евангелие»: как Израиль использует ИИ для выбора целей для бомбардировок в Газе» . Хранитель . Архивировано из оригинала 2 декабря 2023 года . Проверено 1 апреля 2024 г.
Израильские военные не скрывают интенсивности бомбардировок сектора Газа. В первые дни наступления глава ВВС говорил о беспощадных, «круглосуточных» авиаударах. Его силы, по его словам, наносили удары только по военным целям, но добавил: «Мы не применяем хирургические методы».
- ^ Перейти обратно: а б Ньюман, Марисса (16 июля 2023 г.). «Израиль незаметно внедряет системы искусственного интеллекта в смертельные военные операции» . Блумберг . Проверено 4 апреля 2024 г.
В последние месяцы Израиль почти ежедневно предупреждал Иран по поводу обогащения урана, обещая, что не позволит стране получить ядерное оружие ни при каких обстоятельствах. Если эти две страны вступят в военную конфронтацию, ЦАХАЛ ожидает, что иранские марионетки в секторе Газа, Сирии и Ливане примут ответные меры, подготовив почву для первого серьезного конфликта на нескольких фронтах для Израиля с тех пор, как внезапное нападение Египта и Сирии 50 лет назад спровоцировало Война Судного дня.
По словам представителей ЦАХАЛа, инструменты на базе искусственного интеллекта, такие как Fire Factory, созданы специально для такого сценария. «То, что раньше занимало часы, теперь занимает минуты, плюс еще несколько минут на проверку человеком», — сказал полковник Ури, возглавляющий армейское подразделение цифровой трансформации [...] «С тем же количеством людей мы делаем гораздо больше. " - ^ Ньюман, Марисса (16 июля 2023 г.). «Израиль незаметно внедряет системы искусственного интеллекта в смертельные военные операции» . Блумберг . Проверено 4 апреля 2024 г.
Хотя военные не комментируют конкретные операции, официальные лица говорят, что теперь они используют систему рекомендаций искусственного интеллекта, которая может обрабатывать огромные объемы данных для выбора целей для воздушных ударов. Последующие рейды затем можно быстро собрать с помощью другой модели искусственного интеллекта под названием Fire Factory, которая использует данные об одобренных военными целях для расчета боекомплекта, определения приоритетов и назначения тысяч целей самолетам и дронам, а также предложения графика.
- ^ Ли, Гэвин (12 декабря 2023 г.). «Понимание того, как Израиль использует систему искусственного интеллекта «Евангелие» во время взрывов в Газе» . Франция24 . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Юваль Абрахам : «Мы говорим о политике сброса бомбы весом две тысячи фунтов на дом с целью убить одного человека, ясно? Теперь, в прошлом, представьте себе, до искусственного интеллекта и автоматизации, вы бы сделали это, скажем, для группы очень маленьких высокопоставленных лидеров Хамаса, убивая их и сознательно убивая всех вокруг них [...], когда вы автоматизируете этот процесс, когда у вас есть необходимость поразить сотни и тысячи целей, вы можете делать это систематически..."
- ^ Баджарини, Бьянка (8 декабря 2023 г.). «Израильский ИИ может создавать 100 целей для бомбардировок в секторе Газа в день. Это будущее войны?» . Разговор . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
В принципе, системы машинного обучения могут обеспечить более точное целенаправленное нападение и меньшее количество жертв среди гражданского населения.
- ^ Перейти обратно: а б с Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (декабрь 2023 г.). « Евангелие»: как Израиль использует ИИ для выбора целей для бомбардировок в Газе» . Хранитель . Архивировано из оригинала 2 декабря 2023 года . Проверено 1 апреля 2024 г.
В кратком заявлении ЦАХАЛа о целевом подразделении высокопоставленный чиновник сказал, что подразделение "производит точные атаки на инфраструктуру, связанную с ХАМАС, нанося при этом большой ущерб противнику и минимальный вред мирному населению".
Точность ударов, рекомендованная «банком целей ИИ», подчеркивалась в многочисленных сообщениях израильских СМИ. Ежедневная газета « Едиот Ахронот» сообщила, что подразделение «следит за тем, чтобы, насколько это возможно, не был причинен вред посторонним гражданским лицам».
Бывший высокопоставленный израильский военный источник сообщил Guardian, что оперативники используют «очень точные» данные о количестве гражданских лиц, эвакуирующихся из здания незадолго до удара. «Мы используем алгоритм, чтобы оценить, сколько мирных жителей осталось. Он дает нам зеленый, желтый и красный цвета, как сигнал светофора».
[...] «Посмотрите на физический ландшафт Газы», - сказал Ричард Мойес, исследователь, возглавляющий «Статью 36», группу, которая выступает за снижение вреда от оружия. «Мы наблюдаем повсеместное выравнивание городской территории с помощью тяжелого оружия взрывного действия, поэтому утверждение о точности и ограниченности применяемой силы не подтверждается фактами». - ^ Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (декабрь 2023 г.). « Евангелие»: как Израиль использует ИИ для выбора целей для бомбардировок в Газе» . Хранитель . Архивировано из оригинала 2 декабря 2023 года . Проверено 1 апреля 2024 г.
Многочисленные источники сообщили Guardian и +972 / Local Call , что, когда был санкционирован удар по частным домам лиц, идентифицированных как боевики ХАМАСа или Исламского джихада, исследователи целей заранее знали количество мирных жителей, которые, как ожидается, будут убиты.
По их словам, у каждой цели был файл, содержащий оценку сопутствующего ущерба, в которой указывалось, сколько мирных жителей могло быть убито в результате удара. - ^ Перейти обратно: а б Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (декабрь 2023 г.). « Евангелие»: как Израиль использует ИИ для выбора целей для бомбардировок в Газе» . Хранитель . Архивировано из оригинала 2 декабря 2023 года . Проверено 1 апреля 2024 г.
Авив Кохави, который до января возглавлял ЦАХАЛ, заявил, что целевое подразделение «оснащено возможностями искусственного интеллекта» и включает в себя сотни офицеров и солдат.
В интервью, опубликованном перед войной, он сказал, что это «машина, которая производит огромные объемы данных более эффективно, чем любой человек, и преобразует их в цели для атаки».
По словам Кохави, «после того, как эта машина была активирована» во время 11-дневной войны Израиля с ХАМАСом в мае 2021 года, она создавала по 100 целей в день. «Для сравнения: раньше мы производили 50 целей в секторе Газа в год. Теперь эта машина производит 100 целей в день, причем 50% из них подвергаются атакам». - ^ Перейти обратно: а б Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Группа Мишталя задокументировала одно из первых испытаний Евангелия во время конфликта в секторе Газа в 2021 году между Израилем и группировками Хамас и Исламский джихад. Согласно сообщениям прессы и заявлениям самих военных, Израиль использовал Евангелие и другие программы искусственного интеллекта для определения вероятных целей, таких как ракетные установки. Система использовалась для идентификации статических и движущихся целей по мере их появления на поле боя. По сообщениям прессы, в ходе конфликта было выявлено около 200 объектов.
Но не обошлось и без проблем. В отчете группы Мишталя о последствиях отмечалось, что, хотя у ИИ было много данных для обучения тому, что представляет собой цель, ему не хватало данных о вещах, которые, по мнению людей-аналитиков, не были целями. Израильские военные не собрали данные о целях, которые отвергли их аналитики, и в результате обучение системы было предвзятым.
«С тех пор прошло два года, так что, надеюсь, им удалось это исправить», — говорит Мишталь. - ^ [ https://jinsa.org/wp-content/uploads/2021/10/Gaza-Assessment.v8-1.pdf
- ^ Лешем, Рон (30 июня 2023 г.). «ЦАХАЛ обладает возможностями, подобными Матрице, - говорит бывший командующий израильской армией» . Инетньюс . Проверено 26 марта 2024 г. )
- ^ Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 1 апреля 2024 г.
Согласно сообщениям на веб-сайте израильских военных, Евангелие было разработано подразделением радиоразведки Израиля, известным как Unit 8200. Система относительно новая — одним из первых упоминаний была награда за высшие инновации, которую она получила в 2020 году.
- ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 4 апреля 2024 г.
По данным разведывательных источников, участвовавших в войне, во время бомбардировок сектора Газа израильские военные использовали ранее нераскрытую базу данных на базе искусственного интеллекта, которая на одном этапе определила 37 000 потенциальных целей на основе их очевидных связей с ХАМАС.
Показания шести офицеров разведки, которые участвовали в использовании систем искусственного интеллекта для выявления целей ХАМАС и Палестинского исламского джихада (PIJ) в войне, были переданы журналисту Ювалю Абрахаму для репортажа, опубликованного израильско-палестинским изданием Журнал 972 и ивритское издание Local Call .
Их аккаунты были переданы исключительно Guardian перед публикацией. Все шестеро заявили, что Лаванда сыграла центральную роль в войне, обрабатывая массу данных, чтобы быстро идентифицировать потенциальных «младших» оперативников, на которых можно нанести удар. Четыре источника сообщили, что на каком-то этапе в начале войны Лаванда перечислила около 37 000 палестинских мужчин, которые были связаны системой ИИ с Хамасом или PIL. - ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 4 апреля 2024 г.
Подробности о конкретных видах данных, используемых для обучения алгоритма Лаванды, или о том, как программа пришла к своим выводам, не включены в отчеты, опубликованные +972 или Local Call. Однако источники сообщили, что в течение первых нескольких недель войны Отряд 8200 усовершенствовал алгоритм Лаванды и настроил параметры поиска.
По словам источников, после случайной выборки и перекрестной проверки своих прогнозов подразделение пришло к выводу, что Лаванда достигла уровня точности 90%, что побудило ЦАХАЛ одобрить его широкое использование в качестве целевого рекомендательного инструмента.
Лаванда создала базу данных десятков тысяч людей, которые были отмечены как преимущественно низкопоставленные члены военного крыла Хамаса, добавили они. Это использовалось вместе с другой системой поддержки принятия решений на основе искусственного интеллекта, названной «Евангелие», которая рекомендовала в качестве целей здания и сооружения, а не отдельных людей. - ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 4 апреля 2024 г.
В более ранних военных операциях, проводимых ЦАХАЛом, создание человеческих целей часто было более трудоемким процессом. Несколько источников, описавших Guardian развитие целей в предыдущих войнах, сообщили, что решение «инкриминировать» человека или идентифицировать его как законную цель будет обсуждаться, а затем подписываться юрисконсультом.
По данным источников, в течение нескольких недель и месяцев после 7 октября эта модель одобрения ударов по населенным пунктам значительно ускорилась. По их словам, поскольку бомбардировки сектора Газа ЦАХАЛом усилились, командиры потребовали непрерывного обстрела целей.
«На нас постоянно оказывали давление: «Приведите нам больше целей». Они действительно кричали на нас", - сказал один из разведчиков. «Нам сказали: теперь мы должны раздолбать Хамас, чего бы это ни стоило. Что можете, то бомбите».
Чтобы удовлетворить этот спрос, ЦАХАЛ стал в значительной степени полагаться на Лаванду для создания базы данных лиц, которые, как было установлено, имели характеристики боевика PIJ или Хамаса. - ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 4 апреля 2024 г.
- ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 4 апреля 2024 г.
Другой источник, оправдывающий использование Лаванды для выявления целей низкого ранга, сказал, что «когда дело касается младшего боевика, вы не хотите вкладывать в него рабочую силу и время». Они заявили, что в военное время не было достаточно времени, чтобы тщательно «инкриминировать каждую цель».
«Поэтому вы готовы принять на себя погрешность использования искусственного интеллекта, рискуя побочным ущербом и гибелью мирных жителей, а также рискуя атаковать по ошибке, и жить с этим», — добавили они. - ^ Перейти обратно: а б «Ответ Сил обороны Израиля на заявления об использовании базы данных искусственного интеллекта «Лаванда» в секторе Газа» . Хранитель . 3 апреля 2024 г. Проверено 4 апреля 2024 г.
Некоторые из утверждений, изложенных в ваших вопросах, на самом деле необоснованны, в то время как другие отражают ошибочное понимание директив ЦАХАЛа и международного права. После кровавого нападения террористической организации Хамас 7 октября ЦАХАЛ начал действовать по демонтажу военного потенциала Хамаса.
[...] Процесс идентификации военных целей в Армии обороны Израиля состоит из различных типов инструментов и методов, включая инструменты управления информацией, которые используются для того, чтобы помочь аналитикам разведки собирать и оптимально анализировать разведданные, полученные из различных источников. источников. Вопреки утверждениям, ЦАХАЛ не использует систему искусственного интеллекта, которая идентифицирует террористов и не пытается предсказать, является ли человек террористом. Информационные системы — это всего лишь инструменты для аналитиков в процессе идентификации целей. Согласно директивам ЦАХАЛ, аналитики должны проводить независимые экспертизы, в ходе которых они проверяют соответствие выявленных целей соответствующим определениям в соответствии с международным правом и дополнительными ограничениями, предусмотренными в директивах ЦАХАЛ.
«Система», о которой идет речь в ваших вопросах, — это не система, а просто база данных, цель которой — перекрестные ссылки на источники разведывательной информации для создания обновленных слоев информации о военных боевиках террористических организаций. Это не список подтвержденных военных боевиков, имеющих право на нападение. - ^ Перейти обратно: а б с Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (декабрь 2023 г.). « Евангелие»: как Израиль использует ИИ для выбора целей для бомбардировок в Газе» . Хранитель . Архивировано из оригинала 2 декабря 2023 года . Проверено 2 апреля 2024 г.
У некоторых экспертов, занимающихся исследованиями ИИ и международного гуманитарного права, подобное ускорение вызывает ряд опасений.
Доктор Марта Бо, исследователь из Стокгольмского международного института исследования проблем мира, сказала, что даже когда «люди находятся в курсе событий», существует риск, что у них развивается «предвзятость к автоматизации» и «чрезмерно полагаются на системы, которые оказывают слишком большое влияние на мир». сложные человеческие решения».
Мойес из «Статьи 36» сказал, что, полагаясь на такие инструменты, как «Евангелие», командир «вручает список целей, сгенерированный компьютером», и он «не обязательно знает, как был создан этот список, или имеет возможность адекватно допрашивать и подвергать сомнению рекомендации по выбору целей».
«Существует опасность, — добавил он, — что, когда люди начнут полагаться на эти системы, они станут винтиками механизированного процесса и потеряют способность осмысленно учитывать риск причинения вреда гражданскому населению». - ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 4 апреля 2024 г.
Через несколько недель после нападения Хамаса на юг Израиля 7 октября, в ходе которого палестинские боевики убили почти 1200 израильтян и похитили около 240 человек, источники сообщили, что было принято решение рассматривать палестинских мужчин, связанных с военным крылом Хамаса, как потенциальные цели, несмотря ни на что. их ранга или важности.
- ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 4 апреля 2024 г.
Свидетельства, опубликованные +972 и Local Call, могут объяснить, как западные вооруженные силы с такими передовыми возможностями, с оружием, способным наносить высокоточные удары, вели войну с такими огромными человеческими жертвами.
По их словам, когда дело доходило до нападения на низкопоставленных подозреваемых в движениях ХАМАС и ПИД, предпочтение отдавалось нападению тогда, когда считалось, что они находятся дома. «Мы не были заинтересованы в убийстве боевиков [Хамаса] только тогда, когда они находились в военном здании или участвовали в военной деятельности», - сказал один из них. «Гораздо проще взорвать семейный дом. Система создана для того, чтобы искать их в таких ситуациях». - ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 4 апреля 2024 г.
Два источника сообщили, что в первые недели войны им было разрешено убить 15 или 20 мирных жителей во время авиаударов по боевикам низкого ранга. По словам источников, нападения на такие цели обычно осуществлялись с использованием неуправляемых боеприпасов, известных как «тупые бомбы», разрушая целые дома и убивая всех их жителей.
«Не стоит тратить дорогие бомбы на неважных людей – это очень дорого обходится стране, и [этих бомб] не хватает», – сказал один офицер разведки. Другой сказал, что главный вопрос, с которым они столкнулись, заключался в том, позволяет ли «побочный ущерб» гражданскому населению совершить нападение.
«Потому что мы обычно совершали атаки с использованием неуправляемых бомб, а это означало буквально сбрасывание всего дома на его обитателей. Но даже если нападение удалось предотвратить, вас это не волнует – вы сразу переходите к следующей цели. Из-за система, цели никогда не заканчиваются. Вас ждут еще 36 000». - ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 4 апреля 2024 г.
По мнению экспертов по конфликтам, если Израиль использовал неуправляемые бомбы, чтобы сравнять с землей дома тысяч палестинцев, которые были связаны с помощью ИИ с группировками боевиков в секторе Газа, это могло бы помочь объяснить шокирующе высокое число погибших в войне.
- ^ «Ответ Сил обороны Израиля на заявления об использовании базы данных искусственного интеллекта «Лаванда» в секторе Газа» . Хранитель . 3 апреля 2024 г. Проверено 4 апреля 2024 г.
В отличие от ХАМАСа, ЦАХАЛ привержен международному праву и действует соответственно. Таким образом, ЦАХАЛ наносит свои удары только по военным объектам и военным оперативникам и наносит удары в соответствии с правилами соразмерности и мер предосторожности при нападениях. Исключительные инциденты подвергаются тщательному изучению и расследованию.
- ^ «Ответ Сил обороны Израиля на заявления об использовании базы данных искусственного интеллекта «Лаванда» в секторе Газа» . Хранитель . 3 апреля 2024 г. Проверено 4 апреля 2024 г.
Согласно международному гуманитарному праву, законной целью считается лицо, идентифицированное как член организованной вооруженной группы (например, военного крыла Хамаса) или лицо, непосредственно участвующее в боевых действиях. Эта правовая норма отражена в политике всех законопослушных стран, в том числе в юридической практике и политике ЦАХАЛа, которая не менялась в ходе войны.
- ^ «Ответ Сил обороны Израиля на заявления об использовании базы данных искусственного интеллекта «Лаванда» в секторе Газа» . Хранитель . 3 апреля 2024 г. Проверено 4 апреля 2024 г.
Что касается способа нанесения ударов, то ЦАХАЛ прилагает различные усилия для снижения ущерба гражданскому населению, насколько это возможно в оперативных обстоятельствах, сложившихся на момент нанесения удара.
В этом отношении ЦАХАЛ проверяет цели перед нанесением ударов и выбирает подходящие боеприпасы в соответствии с оперативными и гуманитарными соображениями, принимая во внимание оценку соответствующих структурных и географических особенностей цели, окружающей среды цели, возможных последствий для близлежащих гражданских лиц, критических инфраструктура поблизости и многое другое. Авиационные боеприпасы без интегрированного комплекта высокоточного наведения являются стандартным вооружением в развитых вооруженных силах во всем мире. Армия обороны Израиля использует такие боеприпасы, используя бортовые системы самолетов для расчета конкретной точки выброса, чтобы обеспечить высокий уровень точности, используемый обученными пилотами. В любом случае, подавляющее большинство боеприпасов, используемых в ударах, являются высокоточными. - ^ Перейти обратно: а б с Дайетт, Грег (28 декабря 2023 г.). «Австралиец, его жена и брат погибли в результате авиаудара» . Новости СБС . Проверено 26 июня 2024 г.
Местные СМИ Ливана сообщают, что израильский военный самолет выпустил ракету по ряду домов в ливанском районе Бинт-Джбей. В результате ракетного удара погибли 27-летний Ибрахам Баззи, его брат Али Баззи и жена Ибрагима Шорук Хаммонд. Г-жа Хаммуд недавно получила австралийскую визу, и они с мужем Ибрагимом планировали жизнь в Австралии.
Афиф Баззи (мэр Бинт-Джебейля): «Это было неожиданностью, что израильтяне напали на гражданский район, люди живут нормально, они не бежали. Мы не бежали из Бинт-Джебейля, все жители все еще находятся в Бинт-Джебейле. Мы слышим бомбардировка и обстрел, но это было еще далеко, город был нейтральным, но мы были удивлены, что пострадал гражданский квартал, мирные жители, жених, который приехал из Австралии, чтобы забрать свою невесту. Они проводили время вместе со своим братом у него. дом брата, действительно, это было для нас сюрпризом». (перевод SBS World News ) - ^ https://www.abc.net.au/news/2023-12-27/australian-and-wife-killed-in-lebanon-air-strike/103267574?utm_campaign=abc_news_web
- ^ https://www.smh.com.au/world/middle-east/australian-man-killed-in-israeli-airstrike-was-hezbollah-fighter-terror-group-says-20231228-p5etxp.html
- ^ https://www.afr.com/world/middle-east/australians-reportedly-killed-in-lebanon-by-israeli-airstrike-20231227-p5etxh
- ^ https://www.abc.net.au/news/2023-12-28/funeral-australian-brothers-lebanon-israeli-air-strike/103269076?utm_campaign=abc_news_web
- ^ «Ответ Сил обороны Израиля на заявления об использовании базы данных искусственного интеллекта «Лаванда» в секторе Газа» . Хранитель . 3 апреля 2024 г. Проверено 4 апреля 2024 г.
Такая стратегия сопряжена с риском большего числа жертв среди гражданского населения, и источники сообщили, что ЦАХАЛ ввел заранее разрешенные ограничения на количество мирных жителей, которых они считают приемлемым убить в ходе удара, направленного на одного боевика ХАМАС. Сообщается, что это соотношение со временем менялось и варьировалось в зависимости от старшинства объекта.
По данным +972 и Local Call, ЦАХАЛ счел допустимым убийство более 100 мирных жителей в результате нападений на высокопоставленных чиновников ХАМАС. «У нас был расчет, сколько [мирных жителей можно убить] для комбрига, сколько [мирных граждан] для комбата и так далее», — рассказал один из источников.
[...] Один источник сообщил, что лимит разрешенных потерь среди гражданского населения со временем «то увеличивался, то уменьшался» и в какой-то момент составил всего пять. По словам источника, в течение первой недели конфликта было дано разрешение убить 15 мирных жителей, чтобы уничтожить молодых боевиков в секторе Газа. Однако они заявили, что оценки потерь среди гражданского населения были неточными, поскольку невозможно точно узнать, сколько людей находилось в здании.
Другой офицер разведки рассказал, что в последнее время в ходе конфликта норма допустимого сопутствующего ущерба снова была снижена. Но на каком-то этапе ранее в войне им было разрешено убить до «20 посторонних гражданских лиц» за одного боевика, независимо от их звания, военного значения или возраста. - ^ МакКернан, Бетан; Дэвис, Гарри (3 апреля 2024 г.). « Машина сделала это хладнокровно»: Израиль использовал ИИ для идентификации 37 000 целей ХАМАС» . Хранитель . Проверено 4 апреля 2024 г.
Эксперты в области международного гуманитарного права, которые разговаривали с Guardian, выразили тревогу по поводу сообщений о том, что ЦАХАЛ принимает и предварительно санкционирует коэффициенты сопутствующего ущерба, достигающие 20 гражданских лиц, особенно для боевиков более низкого ранга. Они заявили, что военные должны оценить соразмерность каждого отдельного удара.
- ^ «Ответ Сил обороны Израиля на заявления об использовании базы данных искусственного интеллекта «Лаванда» в секторе Газа» . Хранитель . 3 апреля 2024 г. Проверено 4 апреля 2024 г.
Для каждой цели процедуры ЦАХАЛа требуют проведения индивидуальной оценки ожидаемого военного преимущества и ожидаемого сопутствующего ущерба. Подобные оценки категорически не даются в отношении одобрения отдельных забастовок. Оценка сопутствующего ущерба, ожидаемого от удара, основана на различных методах оценки и мерах по сбору разведывательной информации с целью достижения максимально точной оценки с учетом соответствующих оперативных обстоятельств. ЦАХАЛ не наносит ударов, когда ожидаемый побочный ущерб от удара чрезмерен по сравнению с военным преимуществом.
- ^ «Ответ Сил обороны Израиля на заявления об использовании базы данных искусственного интеллекта «Лаванда» в секторе Газа» . Хранитель . 3 апреля 2024 г. Проверено 4 апреля 2024 г.
ЦАХАЛ категорически отвергает утверждения о какой-либо политике убийства десятков тысяч людей в их домах.
- ^ Элиза, Винсент (15 декабря 2023 г.). «Использование Израилем ИИ во время взрывов поднимает вопросы о правилах войны» . Le Monde.fr . Архивировано из оригинала 20 февраля 2024 года . Проверено 14 апреля 2024 г.
Автоматизированное оружие сегодня делится на две основные категории: полностью автоматизированные системы летального оружия, реальных примеров которых на рынке нет, и летальное автономное оружие (САС), которое в принципе позволяет людям контролировать ситуацию. Подавляющее большинство западных военных держав – и Израиль с Хабсорой – теперь заявляют, что сделали выбор в пользу ЗАКОНОВ и, следовательно, могут утверждать, что они придерживаются более подходящей стороны применения силы.
Лор де Руси-Рошгонд, также исследователь в IFRI и автор диссертации по регулированию автономных систем вооружения, сказала, что специфика войны между Израилем и ХАМАСом может сделать эти размытые категории устаревшими и вдохнуть новую жизнь в другую концепцию регулирования, а именно: значительный человеческий контроль». Это более строгое определение, которого без особого успеха добиваются некоторые правозащитники, в том числе НПО «Статья 36». «Проблема в том, что мы не знаем, какой алгоритм используется [израильской армией] или как агрегируются данные. Это не было бы проблемой, если бы не было вопроса жизни и смерти. решение в конце", - сказал де Руси-Рошгонд. - ^ Перейти обратно: а б Брамфил, Джефф. «Израиль использует систему искусственного интеллекта для поиска целей в секторе Газа. Эксперты говорят, что это только начало» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 20 февраля 2024 года . Проверено 2 апреля 2024 г.
Огромный объем целей также, вероятно, оказывает давление на людей, которых просят их просмотреть, говорит Сучман. «В условиях такого ускорения эти обзоры становятся все более и более ограниченными с точки зрения того, какое суждение люди могут на самом деле вынести», — говорит она.
Мимран добавляет, что под давлением аналитики с большей вероятностью примут рекомендации ИИ по таргетированию, независимо от того, верны ли они. У офицеров по нацеливанию может возникнуть искушение подумать, что «жизнь станет намного проще, если мы будем следовать за машиной и принимать ее советы и рекомендации», - говорит он. Но это может создать «совершенно новый уровень проблем», если машина систематически неправильно идентифицирует цели.
Наконец, Хлааф отмечает, что использование ИИ может затруднить привлечение к ответственности тех, кто участвует в конфликте. Хотя люди по-прежнему несут юридическую ответственность за удары, неясно, кто будет нести ответственность, если система нацеливания выйдет из строя. Это тот аналитик, который принял рекомендацию ИИ? Программисты, создавшие систему? Офицеры разведки, которые собирали данные обучения? - ^ «Глава ООН «глубоко обеспокоен» сообщениями об использовании Израилем искусственного интеллекта для определения целей в секторе Газа» . Франция 24 . 05.04.2024 . Проверено 6 апреля 2024 г.
- ^ « Геноцид с помощью ИИ»: как сообщается, Израиль использовал базу данных для составления списков убийств в секторе Газа» . Аль Джазира . Проверено 12 апреля 2024 г.
- ^ « Геноцид с помощью ИИ»: как сообщается, Израиль использовал базу данных для составления списков убийств в секторе Газа» . Аль Джазира . Проверено 16 апреля 2024 г.
- ^ «Крупные технологические компании «фактически замешаны» в гибели мирных жителей в секторе Газа» . Аль Джазира . Проверено 23 апреля 2024 г.
- Сектор Газа в войне Израиля и ХАМАС
- 2023 год в секторе Газа
- 2024 год в секторе Газа
- Конфликты в 2023 году
- Конфликты в 2024 году
- Авиаудары во время войны между Израилем и ХАМАСом
- Бомбардировочные операции и бои
- Авиаудары Израиля
- Приложения искусственного интеллекта
- Нацеливание (война)
- Правовые вопросы израильско-палестинского конфликта