Институт безопасности искусственного интеллекта
Институт безопасности ИИ ( AISI ), как правило, представляет собой поддерживаемый государством институт, целью которого является оценка и обеспечение безопасности самых передовых моделей искусственного интеллекта (ИИ), также называемых передовыми моделями ИИ . [ 1 ]
Безопасность ИИ приобрела известность в 2023 году, особенно благодаря публичным заявлениям о потенциальных экзистенциальных рисках, связанных с ИИ . Во время Саммита по безопасности ИИ в ноябре 2023 года Великобритания (Великобритания) и США (США) создали свои собственные AISI. Во время саммита AI в Сеуле в мае 2024 года международные лидеры договорились сформировать сеть институтов безопасности искусственного интеллекта, в которую войдут институты из Великобритании, США, Японии, Франции, Германии, Италии, Сингапура, Южной Кореи, Австралии, Канады и Европейского Союза. . [ 2 ]
Хронология
[ редактировать ]В 2023 году Риши Сунак выразил намерение «сделать Великобританию не просто интеллектуальным домом, но и географическим центром глобального регулирования безопасности ИИ» и обнародовал планы проведения Саммита по безопасности ИИ. премьер-министр Великобритании [ 3 ] Он подчеркнул необходимость независимых оценок безопасности, заявив, что компании, занимающиеся искусственным интеллектом, не могут «отмечать домашнее задание». [ 4 ] Во время саммита в ноябре 2023 года AISI Великобритании была официально создана как развитие Frontier AI Taskforce . [ 5 ] и AISI США как часть NIST . В феврале 2024 года Япония создала институт безопасности искусственного интеллекта. [ 6 ]
В апреле 2024 года Politico сообщил, что многие компании, занимающиеся искусственным интеллектом, не предоставили доступ к своим самым передовым моделям искусственного интеллекта перед развертыванием для оценки. Ник Президент Meta по глобальным связям Клегг заявил, что многие компании, занимающиеся искусственным интеллектом, ждут, пока британские и американские институты безопасности ИИ разработают общие правила и процедуры оценки. [ 7 ] В апреле 2024 года между Великобританией и США действительно было заключено соглашение о сотрудничестве как минимум в одном совместном испытании безопасности. [ 8 ] Первоначально созданный в Лондоне , Британский институт безопасности искусственного интеллекта объявил в мае 2024 года, что откроет офис в Сан-Франциско , где расположены многие компании, занимающиеся искусственным интеллектом. , это часть плана по «установлению новых международных стандартов безопасности ИИ» По словам министра технологий Великобритании Мишель Донелан . [ 9 ] [ 10 ]
На Сеульском саммите AI в мае 2024 года Европейский Союз и другие страны договорились создать свои собственные институты безопасности искусственного интеллекта, образуя международную сеть. [ 2 ]
Великобритания
[ редактировать ]В апреле 2023 года Великобритания основала организацию по безопасности под названием Frontier AI Taskforce с первоначальным бюджетом в 100 миллионов фунтов стерлингов. [ 11 ] В ноябре 2023 года он превратился в AISI Великобритании, и его по-прежнему возглавлял Ян Хогарт . Соединенного Королевства AISI является частью Министерства науки, инноваций и технологий . [ 5 ]
Стратегия Соединенного Королевства в области искусственного интеллекта направлена на баланс между безопасностью и инновациями. В отличие от Европейского Союза, который принял Закон об искусственном интеллекте , Великобритания не желает принимать законы раньше времени, полагая, что это может замедлить рост сектора, а законы могут устареть из-за технологического прогресса. [ 6 ]
В мае 2024 года институт открыл исходный код инструмента безопасности искусственного интеллекта под названием «Inspect», который оценивает возможности модели искусственного интеллекта, такие как рассуждение, и степень их автономии. [ 12 ]
Соединенные Штаты
[ редактировать ]Американский AISI был основан в ноябре 2023 года как часть NIST . Это произошло на следующий день после подписания указа о безопасном, надежном и надежном развитии и использовании искусственного интеллекта . [ 13 ] В феврале 2024 года ее возглавила бывшая советник Джо Байдена по экономической политике Элизабет Келли. [ 14 ]
В феврале 2024 года правительство США создало Консорциум Института безопасности искусственного интеллекта США (AISIC), объединивший более 200 организаций, таких как Google , Anthropic или Microsoft . [ 15 ]
В марте 2024 года был выделен бюджет в 10 миллионов долларов. [ 16 ] Наблюдатели отметили, что эти инвестиции относительно невелики, особенно с учетом присутствия в США множества крупных компаний, занимающихся искусственным интеллектом. Сам NIST, в котором находится AISI, также известен хронической нехваткой финансирования. [ 17 ] [ 6 ] Просьба администрации Байдена о дополнительном финансировании была удовлетворена дальнейшим сокращением бюджета со стороны присваивателей Конгресса. [ 18 ] [ 17 ]
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ «Институты безопасности сформируют «международную сеть» для стимулирования исследований и испытаний ИИ» . Независимый . 21 мая 2024 г. Проверено 6 июля 2024 г.
- ^ Jump up to: а б Демарэ, Анна (22 мая 2024 г.). «Мировые лидеры договорились запустить сеть институтов безопасности ИИ» . Евроньюс . Проверено 15 июня 2024 г.
- ^ Браун, Райан (12 июня 2023 г.). «Премьер-министр Великобритании Риши Сунак называет Великобританию страной, где регулируется безопасность искусственного интеллекта, поскольку Лондон претендует на роль следующей Кремниевой долины» . CNBC . Проверено 21 июня 2024 г.
- ^ «Риши Сунак: Фирмы, занимающиеся искусственным интеллектом, не могут «отмечать домашнее задание» » . Би-би-си . 01.11.2023 . Проверено 21 июня 2024 г.
- ^ Jump up to: а б «Представляем Институт безопасности ИИ» . GOV.UK. Ноябрь 2023 года . Проверено 15 июня 2024 г.
- ^ Jump up to: а б с Хеншолл, Уилл (1 апреля 2024 г.). «США и Великобритания объявляют о партнерстве в области испытаний моделей искусственного интеллекта на безопасность» . ВРЕМЯ . Проверено 6 июля 2024 г.
- ^ «Риши Сунак пообещал сделать ИИ безопасным. Большие технологические компании не играют в мяч» . Политик . 26 апреля 2024 г. Проверено 15 июня 2024 г.
- ^ Дэвид, Эмилия (2 апреля 2024 г.). «США и Великобритания будут работать вместе, чтобы протестировать модели ИИ на предмет угроз безопасности» . Грань . Проверено 21 июня 2024 г.
- ^ Коултер, Мартин (20 мая 2024 г.). «Британский институт безопасности искусственного интеллекта откроет офис в США» . Рейтер .
- ^ Браун, Райан (20 мая 2024 г.). «Британия расширяет Институт безопасности искусственного интеллекта в Сан-Франциско на фоне пристального внимания к недостаткам регулирования» . CNBC . Проверено 15 июня 2024 г.
- ^ «Первоначальные 100 миллионов фунтов стерлингов для экспертной рабочей группы, которая поможет Великобритании создать и внедрить новое поколение безопасного ИИ» . GOV.UK. Проверено 6 июля 2024 г.
- ^ Водецки, Бен (15 мая 2024 г.). «Институт безопасности ИИ запускает платформу инструментов для тестирования безопасности моделей ИИ» . ИИ-бизнес .
- ^ Хеншолл, Уилл (01 ноября 2023 г.). «Почему указ Байдена об искусственном интеллекте действует так далеко» . ВРЕМЯ . Проверено 7 июля 2024 г.
- ^ Хеншолл, Уилл (07 февраля 2024 г.). «Экономический советник Байдена Элизабет Келли выбрана руководителем органа по тестированию безопасности искусственного интеллекта» . ВРЕМЯ . Проверено 6 июля 2024 г.
- ^ Шепардсон, Дэвид (8 февраля 2024 г.). «США заявляют, что ведущие компании в области искусственного интеллекта присоединяются к консорциуму по безопасности для устранения рисков» . Рейтер .
- ^ «Лидер большинства Шумер объявляет о первом в своем роде финансировании создания в США Института безопасности искусственного интеллекта; финансирование представляет собой первоначальный взнос за баланс между безопасностью и инновациями в области искусственного интеллекта и поможет разработать стандарты, инструменты и тесты для обеспечения безопасной работы систем искусственного интеллекта» . www.democrats.senate.gov . 07.03.2024 . Проверено 6 июля 2024 г.
- ^ Jump up to: а б Закшевский, Кот (08 марта 2024 г.). «Задачей этого агентства является обеспечение безопасности ИИ. Его офисы разваливаются» . Вашингтон Пост . ISSN 0190-8286 . Проверено 6 июля 2024 г.
- ^ «NIST «придётся рассмотреть» сокращение рабочей силы, если сокращение ассигнований состоится» . ФедСкуп . 24 мая 2024 г. Проверено 6 июля 2024 г.