Jump to content

Институт безопасности искусственного интеллекта

Институт безопасности ИИ ( AISI ), как правило, представляет собой поддерживаемый государством институт, целью которого является оценка и обеспечение безопасности самых передовых моделей искусственного интеллекта (ИИ), также называемых передовыми моделями ИИ . [ 1 ]

Безопасность ИИ приобрела известность в 2023 году, особенно благодаря публичным заявлениям о потенциальных экзистенциальных рисках, связанных с ИИ . Во время Саммита по безопасности ИИ в ноябре 2023 года Великобритания (Великобритания) и США (США) создали свои собственные AISI. Во время саммита AI в Сеуле в мае 2024 года международные лидеры договорились сформировать сеть институтов безопасности искусственного интеллекта, в которую войдут институты из Великобритании, США, Японии, Франции, Германии, Италии, Сингапура, Южной Кореи, Австралии, Канады и Европейского Союза. . [ 2 ]

Хронология

[ редактировать ]

В 2023 году Риши Сунак выразил намерение «сделать Великобританию не просто интеллектуальным домом, но и географическим центром глобального регулирования безопасности ИИ» и обнародовал планы проведения Саммита по безопасности ИИ. премьер-министр Великобритании [ 3 ] Он подчеркнул необходимость независимых оценок безопасности, заявив, что компании, занимающиеся искусственным интеллектом, не могут «отмечать домашнее задание». [ 4 ] Во время саммита в ноябре 2023 года AISI Великобритании была официально создана как развитие Frontier AI Taskforce . [ 5 ] и AISI США как часть NIST . В феврале 2024 года Япония создала институт безопасности искусственного интеллекта. [ 6 ]

В апреле 2024 года Politico сообщил, что многие компании, занимающиеся искусственным интеллектом, не предоставили доступ к своим самым передовым моделям искусственного интеллекта перед развертыванием для оценки. Ник Президент Meta по глобальным связям Клегг заявил, что многие компании, занимающиеся искусственным интеллектом, ждут, пока британские и американские институты безопасности ИИ разработают общие правила и процедуры оценки. [ 7 ] В апреле 2024 года между Великобританией и США действительно было заключено соглашение о сотрудничестве как минимум в одном совместном испытании безопасности. [ 8 ] Первоначально созданный в Лондоне , Британский институт безопасности искусственного интеллекта объявил в мае 2024 года, что откроет офис в Сан-Франциско , где расположены многие компании, занимающиеся искусственным интеллектом. , это часть плана по «установлению новых международных стандартов безопасности ИИ» По словам министра технологий Великобритании Мишель Донелан . [ 9 ] [ 10 ]

На Сеульском саммите AI в мае 2024 года Европейский Союз и другие страны договорились создать свои собственные институты безопасности искусственного интеллекта, образуя международную сеть. [ 2 ]

Великобритания

[ редактировать ]

В апреле 2023 года Великобритания основала организацию по безопасности под названием Frontier AI Taskforce с первоначальным бюджетом в 100 миллионов фунтов стерлингов. [ 11 ] В ноябре 2023 года он превратился в AISI Великобритании, и его по-прежнему возглавлял Ян Хогарт . Соединенного Королевства AISI является частью Министерства науки, инноваций и технологий . [ 5 ]

Стратегия Соединенного Королевства в области искусственного интеллекта направлена ​​на баланс между безопасностью и инновациями. В отличие от Европейского Союза, который принял Закон об искусственном интеллекте , Великобритания не желает принимать законы раньше времени, полагая, что это может замедлить рост сектора, а законы могут устареть из-за технологического прогресса. [ 6 ]

В мае 2024 года институт открыл исходный код инструмента безопасности искусственного интеллекта под названием «Inspect», который оценивает возможности модели искусственного интеллекта, такие как рассуждение, и степень их автономии. [ 12 ]

Соединенные Штаты

[ редактировать ]

Американский AISI был основан в ноябре 2023 года как часть NIST . Это произошло на следующий день после подписания указа о безопасном, надежном и надежном развитии и использовании искусственного интеллекта . [ 13 ] В феврале 2024 года ее возглавила бывшая советник Джо Байдена по экономической политике Элизабет Келли. [ 14 ]

В феврале 2024 года правительство США создало Консорциум Института безопасности искусственного интеллекта США (AISIC), объединивший более 200 организаций, таких как Google , Anthropic или Microsoft . [ 15 ]

В марте 2024 года был выделен бюджет в 10 миллионов долларов. [ 16 ] Наблюдатели отметили, что эти инвестиции относительно невелики, особенно с учетом присутствия в США множества крупных компаний, занимающихся искусственным интеллектом. Сам NIST, в котором находится AISI, также известен хронической нехваткой финансирования. [ 17 ] [ 6 ] Просьба администрации Байдена о дополнительном финансировании была удовлетворена дальнейшим сокращением бюджета со стороны присваивателей Конгресса. [ 18 ] [ 17 ]

См. также

[ редактировать ]
  1. ^ «Институты безопасности сформируют «международную сеть» для стимулирования исследований и испытаний ИИ» . Независимый . 21 мая 2024 г. Проверено 6 июля 2024 г.
  2. ^ Jump up to: а б Демарэ, Анна (22 мая 2024 г.). «Мировые лидеры договорились запустить сеть институтов безопасности ИИ» . Евроньюс . Проверено 15 июня 2024 г.
  3. ^ Браун, Райан (12 июня 2023 г.). «Премьер-министр Великобритании Риши Сунак называет Великобританию страной, где регулируется безопасность искусственного интеллекта, поскольку Лондон претендует на роль следующей Кремниевой долины» . CNBC . Проверено 21 июня 2024 г.
  4. ^ «Риши Сунак: Фирмы, занимающиеся искусственным интеллектом, не могут «отмечать домашнее задание» » . Би-би-си . 01.11.2023 . Проверено 21 июня 2024 г.
  5. ^ Jump up to: а б «Представляем Институт безопасности ИИ» . GOV.UK. ​Ноябрь 2023 года . Проверено 15 июня 2024 г.
  6. ^ Jump up to: а б с Хеншолл, Уилл (1 апреля 2024 г.). «США и Великобритания объявляют о партнерстве в области испытаний моделей искусственного интеллекта на безопасность» . ВРЕМЯ . Проверено 6 июля 2024 г.
  7. ^ «Риши Сунак пообещал сделать ИИ безопасным. Большие технологические компании не играют в мяч» . Политик . 26 апреля 2024 г. Проверено 15 июня 2024 г.
  8. ^ Дэвид, Эмилия (2 апреля 2024 г.). «США и Великобритания будут работать вместе, чтобы протестировать модели ИИ на предмет угроз безопасности» . Грань . Проверено 21 июня 2024 г.
  9. ^ Коултер, Мартин (20 мая 2024 г.). «Британский институт безопасности искусственного интеллекта откроет офис в США» . Рейтер .
  10. ^ Браун, Райан (20 мая 2024 г.). «Британия расширяет Институт безопасности искусственного интеллекта в Сан-Франциско на фоне пристального внимания к недостаткам регулирования» . CNBC . Проверено 15 июня 2024 г.
  11. ^ «Первоначальные 100 миллионов фунтов стерлингов для экспертной рабочей группы, которая поможет Великобритании создать и внедрить новое поколение безопасного ИИ» . GOV.UK. ​Проверено 6 июля 2024 г.
  12. ^ Водецки, Бен (15 мая 2024 г.). «Институт безопасности ИИ запускает платформу инструментов для тестирования безопасности моделей ИИ» . ИИ-бизнес .
  13. ^ Хеншолл, Уилл (01 ноября 2023 г.). «Почему указ Байдена об искусственном интеллекте действует так далеко» . ВРЕМЯ . Проверено 7 июля 2024 г.
  14. ^ Хеншолл, Уилл (07 февраля 2024 г.). «Экономический советник Байдена Элизабет Келли выбрана руководителем органа по тестированию безопасности искусственного интеллекта» . ВРЕМЯ . Проверено 6 июля 2024 г.
  15. ^ Шепардсон, Дэвид (8 февраля 2024 г.). «США заявляют, что ведущие компании в области искусственного интеллекта присоединяются к консорциуму по безопасности для устранения рисков» . Рейтер .
  16. ^ «Лидер большинства Шумер объявляет о первом в своем роде финансировании создания в США Института безопасности искусственного интеллекта; финансирование представляет собой первоначальный взнос за баланс между безопасностью и инновациями в области искусственного интеллекта и поможет разработать стандарты, инструменты и тесты для обеспечения безопасной работы систем искусственного интеллекта» . www.democrats.senate.gov . 07.03.2024 . Проверено 6 июля 2024 г.
  17. ^ Jump up to: а б Закшевский, Кот (08 марта 2024 г.). «Задачей этого агентства является обеспечение безопасности ИИ. Его офисы разваливаются» . Вашингтон Пост . ISSN   0190-8286 . Проверено 6 июля 2024 г.
  18. ^ «NIST «придётся рассмотреть» сокращение рабочей силы, если сокращение ассигнований состоится» . ФедСкуп . 24 мая 2024 г. Проверено 6 июля 2024 г.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 1ca15c900fee3ec6d1a66ffa1cb897d1__1723703460
URL1:https://arc.ask3.ru/arc/aa/1c/d1/1ca15c900fee3ec6d1a66ffa1cb897d1.html
Заголовок, (Title) документа по адресу, URL1:
AI Safety Institute - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)