Jump to content

Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта

Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта
Законодательное собрание штата Калифорния
Полное имя Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта
Представлено 7 февраля 2024 г.
Сенат проголосовал 21 мая 2024 г. (32-1)
Спонсор(ы) Скотт Винер
Губернатор Гэвин Ньюсом
Счет СБ 1047
Веб-сайт Текст счета

Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта , или SB 1047 , представляет собой законопроект штата Калифорния от 2024 года, призванный «смягчить риск катастрофического вреда от моделей искусственного интеллекта, настолько продвинутых, что о их существовании еще не известно». [ 1 ] В частности, законопроект будет применяться к моделям, обучение которых стоит более 100 миллионов долларов и которые были обучены с использованием вычислительной мощности, превышающей 10 26 целочисленные операции или операции с плавающей запятой. [ 2 ] SB 1047 будет применяться ко всем компаниям, занимающимся искусственным интеллектом, ведущим бизнес в Калифорнии — местоположение компании не имеет значения. [ 3 ] Законопроект создает защиту для информаторов [ 4 ] и требует от разработчиков проводить оценку рисков своих моделей перед выпуском под надзором Государственного операционного агентства . Он также создаст CalCompute, Калифорнийского университета кластер общедоступных облачных вычислений для стартапов, исследователей и общественных групп.

Быстрый рост возможностей систем ИИ в 2020-х годах, включая выпуск ChatGPT в ноябре 2022 года, заставил некоторых исследователей и представителей общественности выразить обеспокоенность по поводу рисков, связанных со все более мощными системами ИИ . [ 5 ] [ 6 ]

Губернатор Ньюсом и президент Байден издали указы по искусственному интеллекту в 2023 году. [ 7 ] [ 8 ] [ 9 ] Сенатор Винер впервые предложил закон об искусственном интеллекте для Калифорнии в законопроекте о намерениях под названием SB 294 (Закон о безопасности в искусственном интеллекте) в сентябре 2023 года. [ 10 ] [ 11 ] [ 12 ] Законопроект SB 1047 был представлен в феврале 2024 года. Винер говорит, что его законопроект во многом основан на указе Байдена и мотивирован отсутствием федерального законодательства: «Мне бы хотелось иметь один единый федеральный закон, который эффективно решает проблему безопасности ИИ . Конгресс этого не сделал. Конгресс даже не приблизился к принятию такого закона». [ 13 ] Несколько технологических компаний взяли на себя добровольные обязательства по проведению испытаний на безопасность, например, на AI Safety Summit и AI Seoul Summit . [ 14 ] [ 15 ]

15 августа 2024 года Винер внес в законопроект существенные поправки, в частности, для сохранения конкурентоспособности Калифорнии. Поправки включали добавление разъяснений, отмену создания «Пограничного модельного подразделения» и наказания за дачу ложных показаний . [ 16 ] [ 17 ]

Положения

[ редактировать ]

SB 1047 потребует от застройщиков, начиная с 1 января 2028 года, ежегодно привлекать стороннего аудитора для проведения независимого аудита соблюдения требований законопроекта, как это предусмотрено. [ 16 ]

Государственное операционное агентство будет рассматривать результаты испытаний на безопасность и инциденты, а также публиковать рекомендации, стандарты и передовой опыт. SB 1047 создаст кластер общедоступных облачных вычислений под названием CalCompute, связанный с Калифорнийским университетом , для поддержки стартапов, исследователей и общественных групп, которым не хватает крупномасштабных вычислительных ресурсов. [ 16 ]

SB 1047 охватывает модели ИИ с обучающими вычислениями более 10. 26 целочисленные операции или операции с плавающей запятой и стоимость более 100 миллионов долларов. [ 2 ] [ 18 ] покрываемой модели Если на доработку потрачено более 10 миллионов долларов, полученная модель также покрывается. [ 17 ]

Перед обучением модели разработчики охваченных моделей и производных должны предоставить при условии проверки подтверждение снижения «разумного» риска «критического вреда» охваченной модели и ее производных, включая модификации после обучения. Критический вред определяется по четырем категориям: [ 1 ] [ 19 ]

Разработчики защищенных моделей также обязаны реализовать «разумные» меры безопасности для снижения риска, включая возможность отключения модели. Положения о сообщении о нарушениях защищают сотрудников, сообщающих о проблемах и инцидентах с безопасностью. [ 4 ] Что является «разумным», будет определять Калифорнийский отдел пограничных моделей, который предоставляет консультации по инструкциям присяжных, а также дает рекомендации по «чрезвычайному положению ИИ». [ 1 ] [ 19 ]

Законопроект создает Совет по пограничным моделям для надзора за применением законопроекта Государственным оперативным агентством. В его состав входят 9 членов. [ 18 ]

В число сторонников законопроекта входят премии Тьюринга лауреат Йошуа Бенджио , [ 21 ] Джеффри Хинтон , [ 22 ] Кевин Эсвелт , [ 23 ] бывший сотрудник OpenAI Дэниел Кокотайло, [ 20 ] Лоуренс Лессиг , [ 24 ] Снеха Реванур , [ 25 ] Стюарт Рассел [ 24 ] и Макс Тегмарк . [ 26 ] Центр безопасности искусственного интеллекта , Экономическая безопасность, Калифорния [ 27 ] и кодируем справедливость [ 28 ] являются спонсорами. Йошуа Бенджио пишет, что законопроект является важным шагом на пути к тестированию и мерам безопасности для «систем искусственного интеллекта, превышающих определенный уровень возможностей, [которые] могут представлять значительные риски для демократии и общественной безопасности». [ 29 ] Макс Тегмарк сравнил направленность законопроекта на то, чтобы держать компании ответственными за вред, причиненный их моделями, с FDA, требующим проведения клинических испытаний, прежде чем компания сможет выпустить лекарство на рынок. Он также заявил, что противодействие законопроекту со стороны некоторых компаний «прямо взято из игры крупных технологических компаний ». [ 26 ]

Эндрю Нг , Фей-Фей Ли , [ 30 ] Ион Стойка , Джереми Ховард , премии Тьюринга лауреат Ян ЛеКун , а также члены Конгресса США Нэнси Пелоси , Зои Лофгрен , Анна Эшу , Ро Ханна , Скотт Питерс , Тони Карденас , Ами Бера , Нанетт Барраган и Лу Корреа выступили против закона. [ 6 ] [ 31 ] [ 32 ] Эндрю Нг, в частности, утверждает, что существуют более целенаправленные подходы к регулированию, такие как борьба с дипфейковой порнографией , нанесение водяных знаков на сгенерированные материалы, а также инвестирование в красные команды и другие меры безопасности. [ 29 ] Исследователи Калифорнийского университета и Калифорнийского технологического института также написали открытые письма против. [ 31 ]

Промышленность

[ редактировать ]

Против законопроекта выступают отраслевые торговые ассоциации, в том числе Калифорнийская торговая палата , Палата прогресса , [ а ] Ассоциация индустрии компьютеров и коммуникаций [ б ] и ТехНет. [ с ] [ 2 ] Компании, включая Мета [ 36 ] и OpenAI выступают против законопроекта или выражают обеспокоенность по поводу него, в то время как Google , [ 36 ] Microsoft и антропный [ 26 ] предложил существенные поправки. [ 3 ]

несколько основателей стартапов и венчурных Против законопроекта выступают организаций, например, Y Combinator , [ 37 ] [ 38 ] Андриссен Горовиц , [ 39 ] [ 40 ] [ 41 ] Контекстный фонд [ 42 ] [ 43 ] и Альянс за будущее. [ 44 ]

Разработчики с открытым исходным кодом

[ редактировать ]

Критики выразили обеспокоенность по поводу ответственности за программное обеспечение с открытым исходным кодом, налагаемой законопроектом, если они используют или улучшают существующие свободно доступные модели. Ян ЛеКун , директор по искусственному интеллекту Meta , предположил, что законопроект уничтожит модели искусственного интеллекта с открытым исходным кодом. [ 29 ] В настоящее время (по состоянию на июль 2024 года) в сообществе открытого исходного кода существуют опасения, что из-за угрозы юридической ответственности такие компании, как Meta, могут решить не предоставлять модели (например, Llama ) в свободном доступе. [ 45 ] [ 46 ] AI Alliance , наряду с другими организациями с открытым исходным кодом, выступил против законопроекта. [ 31 ]

Опросы общественного мнения

[ редактировать ]

Институт политики искусственного интеллекта, аналитический центр, занимающийся вопросами регулирования искусственного интеллекта, [ 47 ] провел два опроса респондентов из Калифорнии о том, поддерживают они или против SB 1047.

Поддерживать Против Не уверен Погрешность
9 июля 2024 г. [ 48 ] [ 49 ] 59% 20% 22% ±5.2%
4–5 августа 2024 г. [ 50 ] [ 51 ] 65% 25% 10% ±4.9%

Опрос Дэвида Биндера, проведенный по заказу Центра безопасности ИИ , группы, занимающейся снижением экзистенциального риска, показал, что 77% калифорнийцев поддерживают предложение потребовать от компаний тестировать модели ИИ на предмет рисков безопасности, а 86% считают это важным приоритетом для Калифорния разработает правила безопасности в области искусственного интеллекта. [ 52 ] [ 53 ] [ 54 ]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ чьи корпоративные партнеры включают Amazon , Apple , Google и Meta [ 33 ]
  2. ^ в число членов которого входят Amazon , Apple , Google и Meta [ 34 ]
  3. ^ в число членов которого входят Amazon , Anthropic , Apple , Google , Meta и OpenAI. [ 35 ]
  1. ^ Перейти обратно: а б с Бауэр-Кахан, Ребекка. «КОМИТЕТ АССАМБЛЕИ ПО КОНФИДЕНЦИАЛЬНОСТИ И ЗАЩИТЕ ПОТРЕБИТЕЛЕЙ» (PDF) . Калифорнийская Ассамблея . Штат Калифорния . Проверено 1 августа 2024 г.
  2. ^ Перейти обратно: а б с Дэниелс, Оуэн Дж. (17 июня 2024 г.). «Калифорнийский законопроект об искусственном интеллекте становится громоотводом как для защитников безопасности, так и для разработчиков» . Бюллетень ученых-атомщиков .
  3. ^ Перейти обратно: а б Рана, Притика (07 августа 2024 г.). «Компании, занимающиеся искусственным интеллектом, борются за отмену калифорнийских правил безопасности» . Уолл Стрит Джорнал . Проверено 8 августа 2024 г.
  4. ^ Перейти обратно: а б Тибодо, Патрик (6 июня 2024 г.). «Катастрофические риски, связанные с ИИ, подчеркивают необходимость принятия законов об информаторах» . ТехТаржет . Проверено 6 августа 2024 г.
  5. ^ Хеншолл, Уилл (07 сентября 2023 г.). «Йошуа Бенджио» . ВРЕМЯ .
  6. ^ Перейти обратно: а б Голдман, Шэрон. «Это «Акулы против самолетов» ИИ — добро пожаловать в битву за калифорнийский закон о безопасности ИИ» . Удача . Проверено 29 июля 2024 г.
  7. ^ «Губернатор Ньюсом подписывает указ о подготовке Калифорнии к развитию искусственного интеллекта» . Губернатор Гэвин Ньюсом . 06.09.2023.
  8. ^ «Президент Байден издает указ о безопасном, защищенном и заслуживающем доверия искусственном интеллекте» . Белый дом . 2023-10-30.
  9. ^ Рикельми, Алан (8 февраля 2024 г.). «Законодатель Калифорнии стремится создать барьеры для развития искусственного интеллекта» . Служба новостей здания суда . Проверено 4 августа 2024 г.
  10. ^ Перриго, Билли (13 сентября 2023 г.). «Калифорнийский законопроект предлагает регулировать ИИ на уровне штата» . ВРЕМЯ . Проверено 12 августа 2024 г.
  11. ^ Дэвид, Эмилия (14 сентября 2023 г.). «Калифорнийский законодатель предлагает регулировать модели искусственного интеллекта» . Грань . Проверено 12 августа 2024 г.
  12. ^ «Сенатор Винер представляет систему безопасности в законодательстве об искусственном интеллекте» . Сенатор Скотт Винер . 13 сентября 2023 г. Проверено 12 августа 2024 г.
  13. ^ Майроу, Рэйчел (16 февраля 2024 г.). «Законодатели Калифорнии принимают меры по регулированию искусственного интеллекта с помощью множества законопроектов» . ККЭД .
  14. ^ Милмо, Дэн (3 ноября 2023 г.). «Технологические фирмы разрешат проверку инструментов искусственного интеллекта, поскольку Маск предупреждает, что все человеческие рабочие места находятся под угрозой» . Хранитель . Проверено 12 августа 2024 г.
  15. ^ Браун, Райан (21 мая 2024 г.). «Технологические гиганты берут на себя обязательства по обеспечению безопасности ИИ, включая «аварийное выключение», если они не смогут снизить риски» . CNBC . Проверено 12 августа 2024 г.
  16. ^ Перейти обратно: а б с Кальвин, Натан (15 августа 2024 г.). «Обзор авторских поправок SB 1047 от 15 августа» . www.safesecureai.org . Проверено 16 августа 2024 г.
  17. ^ Перейти обратно: а б «Новаторский законопроект сенатора Винера об искусственном интеллекте представлен на рассмотрение Ассамблеи с поправками, учитывающими взаимодействие с промышленностью» . Сенатор Скотт Винер . 16 августа 2024 г. Проверено 17 августа 2024 г.
  18. ^ Перейти обратно: а б «01.07.24 - Анализ законопроекта о судебной системе Ассамблеи» . Законодательная информация Калифорнии .
  19. ^ Перейти обратно: а б «Анализ редакции SB 1047 7/3» . Контекстный фонд .
  20. ^ Перейти обратно: а б Джонсон, Хари (12 августа 2024 г.). «Почему Кремниевая долина так старается отменить законопроект об искусственном интеллекте в Калифорнии» . CalMatters . Проверено 12 августа 2024 г.
  21. ^ Бенджио, Йошуа. «Йошуа Бенджио: Калифорнийский законопроект о безопасности искусственного интеллекта защитит потребителей и инновации» . Удача . Проверено 17 августа 2024 г.
  22. ^ Кокаличева, Киа (26 июня 2024 г.). «Сжатие безопасности искусственного интеллекта в Калифорнии» . Аксиос .
  23. ^ Рикельми, Алан (14 августа 2024 г.). «Законопроект о регулировании искусственного интеллекта в Калифорнии вынесен на обязательное слушание» . Служба новостей здания суда . Проверено 15 августа 2024 г.
  24. ^ Перейти обратно: а б Пиллэй, Тарин (7 августа 2024 г.). «Известные эксперты поддерживают знаковый законопроект Калифорнии о безопасности искусственного интеллекта» . ВРЕМЯ . Проверено 8 августа 2024 г.
  25. ^ «Постоянный комитет Ассамблеи по вопросам конфиденциальности и защиты прав потребителей» . CalMatters . Проверено 8 августа 2024 г.
  26. ^ Перейти обратно: а б с Сэмюэл, Сигал (5 августа 2024 г.). «Практически невозможно управлять большой компанией, занимающейся искусственным интеллектом, с соблюдением этических норм» . Вокс . Проверено 6 августа 2024 г.
  27. ^ ДиФелициантонио, Чейз (28 июня 2024 г.). «Компании, занимающиеся искусственным интеллектом, потребовали регулирования. Теперь, когда оно приближается, некоторые в ярости» . Хроники Сан-Франциско .
  28. ^ Корте, Лара (12 февраля 2024 г.). «Назревающая битва за ИИ» . Политик .
  29. ^ Перейти обратно: а б с Эдвардс, Бендж (29 июля 2024 г.). «От научной фантастики к законодательству штата: план Калифорнии по предотвращению катастрофы, связанной с искусственным интеллектом» . Арс Техника . Проверено 30 июля 2024 г.
  30. ^ Ли, Фей-Фей. « Крестная мать искусственного интеллекта» говорит, что благонамеренный законопроект Калифорнии об искусственном интеллекте нанесет вред экосистеме США» . Удача . Проверено 8 августа 2024 г.
  31. ^ Перейти обратно: а б с «Анализ воздействия SB 1047» . Контекстный фонд .
  32. ^ «Юридический комитет Ассамблеи 02 июля 2024 г.» . Ассамблея штата Калифорния .
  33. ^ «Корпоративные партнеры» . Палата прогресса .
  34. ^ «Члены» . Ассоциация индустрии компьютеров и коммуникаций .
  35. ^ «Члены» . ТехНет .
  36. ^ Перейти обратно: а б Корте, Лара (26 июня 2024 г.). «Большие технологии и маленький парень» . Политик .
  37. ^ «Маленькая технология приносит большую гибкость в Сакраменто» . Политик .
  38. ^ «Предлагаемый закон Калифорнии направлен на защиту населения от катастроф, связанных с искусственным интеллектом» . Новости Меркурия .
  39. ^ «Законопроект Сената Калифорнии № 1047 — что вам нужно знать» . Андреессен Горовиц .
  40. ^ «Калифорнийский законопроект об искусственном интеллекте подрывает достижения сектора» . Файнэншл Таймс .
  41. ^ «Сенатский законопроект 1047 сокрушит инновации в области искусственного интеллекта в Калифорнии» . Реестр округа Ориндж . 10 июля 2024 г.
  42. ^ «Стартапы в области искусственного интеллекта стремятся ограничить или отменить законопроект об общественной безопасности Калифорнии» . Закон Блумберга .
  43. ^ «Пачка: Выпуск 257» . Глубокое обучение.ай . 10 июля 2024 г.
  44. ^ «Безопасность искусственного интеллекта в тумане войны» . Политик . 2 мая 2024 г.
  45. ^ Пайпер, Келси (19 июля 2024 г.). «Внутри борьбы за новый закон Калифорнии об искусственном интеллекте» . Вокс . Проверено 29 июля 2024 г.
  46. ^ Пайпер, Келси (14 июня 2024 г.). «Законопроект об искусственном интеллекте, который вызвал панику среди крупных технологических компаний» . Вокс . Проверено 29 июля 2024 г.
  47. ^ Робертсон, Дерек (6 мая 2024 г.). «Эксклюзивный опрос: американцы выступают за регулирование данных ИИ» . Политик . Проверено 18 августа 2024 г.
  48. ^ Борделон, Брендан. «Что Камала Харрис значит для технологий» . ПОЛИТИКО Про . (требуется подписка)
  49. ^ «Новый опрос: избиратели Калифорнии, включая технических работников, решительно поддерживают законопроект о регулировании искусственного интеллекта SB1047» . Институт политики искусственного интеллекта . 22 июля 2024 г.
  50. ^ Салливан, Марк (8 августа 2024 г.). «Чат-бот Илона Маска Grok распространил дезинформацию о выборах» . Компания Фаст . Проверено 13 августа 2024 г.
  51. ^ «Опрос: калифорнийцы поддерживают сильную версию SB1047 и не согласны с изменениями, предложенными Anthropic» . Институт политики искусственного интеллекта . Проверено 13 августа 2024 г.
  52. ^ «Опрос вероятных избирателей Калифорнии: итоги исследования общественного мнения» . Исследования Дэвида Биндера.
  53. ^ Ли, Венди (19 июня 2024 г.). «Калифорнийские законодатели пытаются регулировать ИИ, пока не стало слишком поздно. Вот как» . Лос-Анджелес Таймс .
  54. ^ Пайпер, Келси (19 июля 2024 г.). «Внутри борьбы за новый закон Калифорнии об искусственном интеллекте» . Вокс . Проверено 22 июля 2024 г.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 4e3f50a7c3590053f33406f6c09334b3__1723429680
URL1:https://arc.ask3.ru/arc/aa/4e/b3/4e3f50a7c3590053f33406f6c09334b3.html
Заголовок, (Title) документа по адресу, URL1:
Safe and Secure Innovation for Frontier Artificial Intelligence Models Act - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)