Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта
Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта | |
---|---|
![]() | |
Законодательное собрание штата Калифорния | |
Полное имя | Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта |
Представлено | 7 февраля 2024 г. |
Сенат проголосовал | 21 мая 2024 г. (32-1) |
Спонсор(ы) | Скотт Винер |
Губернатор | Гэвин Ньюсом |
Счет | СБ 1047 |
Веб-сайт | Текст счета |
Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта , или SB 1047 , представляет собой законопроект штата Калифорния от 2024 года, призванный «смягчить риск катастрофического вреда от моделей искусственного интеллекта, настолько продвинутых, что о их существовании еще не известно». [ 1 ] В частности, законопроект будет применяться к моделям, обучение которых стоит более 100 миллионов долларов и которые были обучены с использованием вычислительной мощности, превышающей 10 26 целочисленные операции или операции с плавающей запятой. [ 2 ] SB 1047 будет применяться ко всем компаниям, занимающимся искусственным интеллектом, ведущим бизнес в Калифорнии — местоположение компании не имеет значения. [ 3 ] Законопроект создает защиту для информаторов [ 4 ] и требует от разработчиков проводить оценку рисков своих моделей перед выпуском под надзором Государственного операционного агентства . Он также создаст CalCompute, Калифорнийского университета кластер общедоступных облачных вычислений для стартапов, исследователей и общественных групп.
Фон
[ редактировать ]Быстрый рост возможностей систем ИИ в 2020-х годах, включая выпуск ChatGPT в ноябре 2022 года, заставил некоторых исследователей и представителей общественности выразить обеспокоенность по поводу рисков, связанных со все более мощными системами ИИ . [ 5 ] [ 6 ]
Губернатор Ньюсом и президент Байден издали указы по искусственному интеллекту в 2023 году. [ 7 ] [ 8 ] [ 9 ] Сенатор Винер впервые предложил закон об искусственном интеллекте для Калифорнии в законопроекте о намерениях под названием SB 294 (Закон о безопасности в искусственном интеллекте) в сентябре 2023 года. [ 10 ] [ 11 ] [ 12 ] Законопроект SB 1047 был представлен в феврале 2024 года. Винер говорит, что его законопроект во многом основан на указе Байдена и мотивирован отсутствием федерального законодательства: «Мне бы хотелось иметь один единый федеральный закон, который эффективно решает проблему безопасности ИИ . Конгресс этого не сделал. Конгресс даже не приблизился к принятию такого закона». [ 13 ] Несколько технологических компаний взяли на себя добровольные обязательства по проведению испытаний на безопасность, например, на AI Safety Summit и AI Seoul Summit . [ 14 ] [ 15 ]
15 августа 2024 года Винер внес в законопроект существенные поправки, в частности, для сохранения конкурентоспособности Калифорнии. Поправки включали добавление разъяснений, отмену создания «Пограничного модельного подразделения» и наказания за дачу ложных показаний . [ 16 ] [ 17 ]
Положения
[ редактировать ]SB 1047 потребует от застройщиков, начиная с 1 января 2028 года, ежегодно привлекать стороннего аудитора для проведения независимого аудита соблюдения требований законопроекта, как это предусмотрено. [ 16 ]
Государственное операционное агентство будет рассматривать результаты испытаний на безопасность и инциденты, а также публиковать рекомендации, стандарты и передовой опыт. SB 1047 создаст кластер общедоступных облачных вычислений под названием CalCompute, связанный с Калифорнийским университетом , для поддержки стартапов, исследователей и общественных групп, которым не хватает крупномасштабных вычислительных ресурсов. [ 16 ]
SB 1047 охватывает модели ИИ с обучающими вычислениями более 10. 26 целочисленные операции или операции с плавающей запятой и стоимость более 100 миллионов долларов. [ 2 ] [ 18 ] покрываемой модели Если на доработку потрачено более 10 миллионов долларов, полученная модель также покрывается. [ 17 ]
Перед обучением модели разработчики охваченных моделей и производных должны предоставить при условии проверки подтверждение снижения «разумного» риска «критического вреда» охваченной модели и ее производных, включая модификации после обучения. Критический вред определяется по четырем категориям: [ 1 ] [ 19 ]
- Создание или использование химического , биологического , радиологического или ядерного оружия. [ 20 ]
- Кибератаки на критически важную инфраструктуру, приводящие к массовым жертвам или ущербу на сумму не менее 500 миллионов долларов.
- Автономные преступления, повлекшие массовые жертвы или ущерб на сумму не менее 500 миллионов долларов.
- Другой вред сопоставимой степени тяжести
Разработчики защищенных моделей также обязаны реализовать «разумные» меры безопасности для снижения риска, включая возможность отключения модели. Положения о сообщении о нарушениях защищают сотрудников, сообщающих о проблемах и инцидентах с безопасностью. [ 4 ] Что является «разумным», будет определять Калифорнийский отдел пограничных моделей, который предоставляет консультации по инструкциям присяжных, а также дает рекомендации по «чрезвычайному положению ИИ». [ 1 ] [ 19 ]
Законопроект создает Совет по пограничным моделям для надзора за применением законопроекта Государственным оперативным агентством. В его состав входят 9 членов. [ 18 ]
Прием
[ редактировать ]В число сторонников законопроекта входят премии Тьюринга лауреат Йошуа Бенджио , [ 21 ] Джеффри Хинтон , [ 22 ] Кевин Эсвелт , [ 23 ] бывший сотрудник OpenAI Дэниел Кокотайло, [ 20 ] Лоуренс Лессиг , [ 24 ] Снеха Реванур , [ 25 ] Стюарт Рассел [ 24 ] и Макс Тегмарк . [ 26 ] Центр безопасности искусственного интеллекта , Экономическая безопасность, Калифорния [ 27 ] и кодируем справедливость [ 28 ] являются спонсорами. Йошуа Бенджио пишет, что законопроект является важным шагом на пути к тестированию и мерам безопасности для «систем искусственного интеллекта, превышающих определенный уровень возможностей, [которые] могут представлять значительные риски для демократии и общественной безопасности». [ 29 ] Макс Тегмарк сравнил направленность законопроекта на то, чтобы держать компании ответственными за вред, причиненный их моделями, с FDA, требующим проведения клинических испытаний, прежде чем компания сможет выпустить лекарство на рынок. Он также заявил, что противодействие законопроекту со стороны некоторых компаний «прямо взято из игры крупных технологических компаний ». [ 26 ]
Эндрю Нг , Фей-Фей Ли , [ 30 ] Ион Стойка , Джереми Ховард , премии Тьюринга лауреат Ян ЛеКун , а также члены Конгресса США Нэнси Пелоси , Зои Лофгрен , Анна Эшу , Ро Ханна , Скотт Питерс , Тони Карденас , Ами Бера , Нанетт Барраган и Лу Корреа выступили против закона. [ 6 ] [ 31 ] [ 32 ] Эндрю Нг, в частности, утверждает, что существуют более целенаправленные подходы к регулированию, такие как борьба с дипфейковой порнографией , нанесение водяных знаков на сгенерированные материалы, а также инвестирование в красные команды и другие меры безопасности. [ 29 ] Исследователи Калифорнийского университета и Калифорнийского технологического института также написали открытые письма против. [ 31 ]
Промышленность
[ редактировать ]Против законопроекта выступают отраслевые торговые ассоциации, в том числе Калифорнийская торговая палата , Палата прогресса , [ а ] Ассоциация индустрии компьютеров и коммуникаций [ б ] и ТехНет. [ с ] [ 2 ] Компании, включая Мета [ 36 ] и OpenAI выступают против законопроекта или выражают обеспокоенность по поводу него, в то время как Google , [ 36 ] Microsoft и антропный [ 26 ] предложил существенные поправки. [ 3 ]
несколько основателей стартапов и венчурных Против законопроекта выступают организаций, например, Y Combinator , [ 37 ] [ 38 ] Андриссен Горовиц , [ 39 ] [ 40 ] [ 41 ] Контекстный фонд [ 42 ] [ 43 ] и Альянс за будущее. [ 44 ]
Разработчики с открытым исходным кодом
[ редактировать ]Критики выразили обеспокоенность по поводу ответственности за программное обеспечение с открытым исходным кодом, налагаемой законопроектом, если они используют или улучшают существующие свободно доступные модели. Ян ЛеКун , директор по искусственному интеллекту Meta , предположил, что законопроект уничтожит модели искусственного интеллекта с открытым исходным кодом. [ 29 ] В настоящее время (по состоянию на июль 2024 года) в сообществе открытого исходного кода существуют опасения, что из-за угрозы юридической ответственности такие компании, как Meta, могут решить не предоставлять модели (например, Llama ) в свободном доступе. [ 45 ] [ 46 ] AI Alliance , наряду с другими организациями с открытым исходным кодом, выступил против законопроекта. [ 31 ]
Опросы общественного мнения
[ редактировать ]Институт политики искусственного интеллекта, аналитический центр, занимающийся вопросами регулирования искусственного интеллекта, [ 47 ] провел два опроса респондентов из Калифорнии о том, поддерживают они или против SB 1047.
Поддерживать | Против | Не уверен | Погрешность | |
---|---|---|---|---|
9 июля 2024 г. [ 48 ] [ 49 ] | 59% | 20% | 22% | ±5.2% |
4–5 августа 2024 г. [ 50 ] [ 51 ] | 65% | 25% | 10% | ±4.9% |
Опрос Дэвида Биндера, проведенный по заказу Центра безопасности ИИ , группы, занимающейся снижением экзистенциального риска, показал, что 77% калифорнийцев поддерживают предложение потребовать от компаний тестировать модели ИИ на предмет рисков безопасности, а 86% считают это важным приоритетом для Калифорния разработает правила безопасности в области искусственного интеллекта. [ 52 ] [ 53 ] [ 54 ]
См. также
[ редактировать ]Примечания
[ редактировать ]Ссылки
[ редактировать ]- ^ Перейти обратно: а б с Бауэр-Кахан, Ребекка. «КОМИТЕТ АССАМБЛЕИ ПО КОНФИДЕНЦИАЛЬНОСТИ И ЗАЩИТЕ ПОТРЕБИТЕЛЕЙ» (PDF) . Калифорнийская Ассамблея . Штат Калифорния . Проверено 1 августа 2024 г.
- ^ Перейти обратно: а б с Дэниелс, Оуэн Дж. (17 июня 2024 г.). «Калифорнийский законопроект об искусственном интеллекте становится громоотводом как для защитников безопасности, так и для разработчиков» . Бюллетень ученых-атомщиков .
- ^ Перейти обратно: а б Рана, Притика (07 августа 2024 г.). «Компании, занимающиеся искусственным интеллектом, борются за отмену калифорнийских правил безопасности» . Уолл Стрит Джорнал . Проверено 8 августа 2024 г.
- ^ Перейти обратно: а б Тибодо, Патрик (6 июня 2024 г.). «Катастрофические риски, связанные с ИИ, подчеркивают необходимость принятия законов об информаторах» . ТехТаржет . Проверено 6 августа 2024 г.
- ^ Хеншолл, Уилл (07 сентября 2023 г.). «Йошуа Бенджио» . ВРЕМЯ .
- ^ Перейти обратно: а б Голдман, Шэрон. «Это «Акулы против самолетов» ИИ — добро пожаловать в битву за калифорнийский закон о безопасности ИИ» . Удача . Проверено 29 июля 2024 г.
- ^ «Губернатор Ньюсом подписывает указ о подготовке Калифорнии к развитию искусственного интеллекта» . Губернатор Гэвин Ньюсом . 06.09.2023.
- ^ «Президент Байден издает указ о безопасном, защищенном и заслуживающем доверия искусственном интеллекте» . Белый дом . 2023-10-30.
- ^ Рикельми, Алан (8 февраля 2024 г.). «Законодатель Калифорнии стремится создать барьеры для развития искусственного интеллекта» . Служба новостей здания суда . Проверено 4 августа 2024 г.
- ^ Перриго, Билли (13 сентября 2023 г.). «Калифорнийский законопроект предлагает регулировать ИИ на уровне штата» . ВРЕМЯ . Проверено 12 августа 2024 г.
- ^ Дэвид, Эмилия (14 сентября 2023 г.). «Калифорнийский законодатель предлагает регулировать модели искусственного интеллекта» . Грань . Проверено 12 августа 2024 г.
- ^ «Сенатор Винер представляет систему безопасности в законодательстве об искусственном интеллекте» . Сенатор Скотт Винер . 13 сентября 2023 г. Проверено 12 августа 2024 г.
- ^ Майроу, Рэйчел (16 февраля 2024 г.). «Законодатели Калифорнии принимают меры по регулированию искусственного интеллекта с помощью множества законопроектов» . ККЭД .
- ^ Милмо, Дэн (3 ноября 2023 г.). «Технологические фирмы разрешат проверку инструментов искусственного интеллекта, поскольку Маск предупреждает, что все человеческие рабочие места находятся под угрозой» . Хранитель . Проверено 12 августа 2024 г.
- ^ Браун, Райан (21 мая 2024 г.). «Технологические гиганты берут на себя обязательства по обеспечению безопасности ИИ, включая «аварийное выключение», если они не смогут снизить риски» . CNBC . Проверено 12 августа 2024 г.
- ^ Перейти обратно: а б с Кальвин, Натан (15 августа 2024 г.). «Обзор авторских поправок SB 1047 от 15 августа» . www.safesecureai.org . Проверено 16 августа 2024 г.
- ^ Перейти обратно: а б «Новаторский законопроект сенатора Винера об искусственном интеллекте представлен на рассмотрение Ассамблеи с поправками, учитывающими взаимодействие с промышленностью» . Сенатор Скотт Винер . 16 августа 2024 г. Проверено 17 августа 2024 г.
- ^ Перейти обратно: а б «01.07.24 - Анализ законопроекта о судебной системе Ассамблеи» . Законодательная информация Калифорнии .
- ^ Перейти обратно: а б «Анализ редакции SB 1047 7/3» . Контекстный фонд .
- ^ Перейти обратно: а б Джонсон, Хари (12 августа 2024 г.). «Почему Кремниевая долина так старается отменить законопроект об искусственном интеллекте в Калифорнии» . CalMatters . Проверено 12 августа 2024 г.
- ^ Бенджио, Йошуа. «Йошуа Бенджио: Калифорнийский законопроект о безопасности искусственного интеллекта защитит потребителей и инновации» . Удача . Проверено 17 августа 2024 г.
- ^ Кокаличева, Киа (26 июня 2024 г.). «Сжатие безопасности искусственного интеллекта в Калифорнии» . Аксиос .
- ^ Рикельми, Алан (14 августа 2024 г.). «Законопроект о регулировании искусственного интеллекта в Калифорнии вынесен на обязательное слушание» . Служба новостей здания суда . Проверено 15 августа 2024 г.
- ^ Перейти обратно: а б Пиллэй, Тарин (7 августа 2024 г.). «Известные эксперты поддерживают знаковый законопроект Калифорнии о безопасности искусственного интеллекта» . ВРЕМЯ . Проверено 8 августа 2024 г.
- ^ «Постоянный комитет Ассамблеи по вопросам конфиденциальности и защиты прав потребителей» . CalMatters . Проверено 8 августа 2024 г.
- ^ Перейти обратно: а б с Сэмюэл, Сигал (5 августа 2024 г.). «Практически невозможно управлять большой компанией, занимающейся искусственным интеллектом, с соблюдением этических норм» . Вокс . Проверено 6 августа 2024 г.
- ^ ДиФелициантонио, Чейз (28 июня 2024 г.). «Компании, занимающиеся искусственным интеллектом, потребовали регулирования. Теперь, когда оно приближается, некоторые в ярости» . Хроники Сан-Франциско .
- ^ Корте, Лара (12 февраля 2024 г.). «Назревающая битва за ИИ» . Политик .
- ^ Перейти обратно: а б с Эдвардс, Бендж (29 июля 2024 г.). «От научной фантастики к законодательству штата: план Калифорнии по предотвращению катастрофы, связанной с искусственным интеллектом» . Арс Техника . Проверено 30 июля 2024 г.
- ^ Ли, Фей-Фей. « Крестная мать искусственного интеллекта» говорит, что благонамеренный законопроект Калифорнии об искусственном интеллекте нанесет вред экосистеме США» . Удача . Проверено 8 августа 2024 г.
- ^ Перейти обратно: а б с «Анализ воздействия SB 1047» . Контекстный фонд .
- ^ «Юридический комитет Ассамблеи 02 июля 2024 г.» . Ассамблея штата Калифорния .
- ^ «Корпоративные партнеры» . Палата прогресса .
- ^ «Члены» . Ассоциация индустрии компьютеров и коммуникаций .
- ^ «Члены» . ТехНет .
- ^ Перейти обратно: а б Корте, Лара (26 июня 2024 г.). «Большие технологии и маленький парень» . Политик .
- ^ «Маленькая технология приносит большую гибкость в Сакраменто» . Политик .
- ^ «Предлагаемый закон Калифорнии направлен на защиту населения от катастроф, связанных с искусственным интеллектом» . Новости Меркурия .
- ^ «Законопроект Сената Калифорнии № 1047 — что вам нужно знать» . Андреессен Горовиц .
- ^ «Калифорнийский законопроект об искусственном интеллекте подрывает достижения сектора» . Файнэншл Таймс .
- ^ «Сенатский законопроект 1047 сокрушит инновации в области искусственного интеллекта в Калифорнии» . Реестр округа Ориндж . 10 июля 2024 г.
- ^ «Стартапы в области искусственного интеллекта стремятся ограничить или отменить законопроект об общественной безопасности Калифорнии» . Закон Блумберга .
- ^ «Пачка: Выпуск 257» . Глубокое обучение.ай . 10 июля 2024 г.
- ^ «Безопасность искусственного интеллекта в тумане войны» . Политик . 2 мая 2024 г.
- ^ Пайпер, Келси (19 июля 2024 г.). «Внутри борьбы за новый закон Калифорнии об искусственном интеллекте» . Вокс . Проверено 29 июля 2024 г.
- ^ Пайпер, Келси (14 июня 2024 г.). «Законопроект об искусственном интеллекте, который вызвал панику среди крупных технологических компаний» . Вокс . Проверено 29 июля 2024 г.
- ^ Робертсон, Дерек (6 мая 2024 г.). «Эксклюзивный опрос: американцы выступают за регулирование данных ИИ» . Политик . Проверено 18 августа 2024 г.
- ^ Борделон, Брендан. «Что Камала Харрис значит для технологий» . ПОЛИТИКО Про . (требуется подписка)
- ^ «Новый опрос: избиратели Калифорнии, включая технических работников, решительно поддерживают законопроект о регулировании искусственного интеллекта SB1047» . Институт политики искусственного интеллекта . 22 июля 2024 г.
- ^ Салливан, Марк (8 августа 2024 г.). «Чат-бот Илона Маска Grok распространил дезинформацию о выборах» . Компания Фаст . Проверено 13 августа 2024 г.
- ^ «Опрос: калифорнийцы поддерживают сильную версию SB1047 и не согласны с изменениями, предложенными Anthropic» . Институт политики искусственного интеллекта . Проверено 13 августа 2024 г.
- ^ «Опрос вероятных избирателей Калифорнии: итоги исследования общественного мнения» . Исследования Дэвида Биндера.
- ^ Ли, Венди (19 июня 2024 г.). «Калифорнийские законодатели пытаются регулировать ИИ, пока не стало слишком поздно. Вот как» . Лос-Анджелес Таймс .
- ^ Пайпер, Келси (19 июля 2024 г.). «Внутри борьбы за новый закон Калифорнии об искусственном интеллекте» . Вокс . Проверено 22 июля 2024 г.