Институт будущего жизни
42 ° 22'25 "N 71 ° 06'35" W / 42,3736158 ° N 71,1097335 ° W
Аббревиатура | ФЛИ |
---|---|
Формирование | март 2014 г |
Основатели |
|
Тип | Некоммерческий научно-исследовательский институт |
Цель | Снижение экзистенциального риска , особенно за счет передового искусственного интеллекта. |
Расположение |
|
Президент | Макс Тегмарк |
Веб-сайт | futureoflife.org |
Институт будущего жизни ( FLI ) — это некоммерческая организация , цель которой — направить преобразующие технологии на благо жизни и избежать крупномасштабных рисков, уделяя особое внимание экзистенциальным рискам, связанным с передовым искусственным интеллектом (ИИ). Работа FLI включает в себя предоставление грантов , образовательную работу и пропаганду в Организации Объединенных Наций , правительстве США и Европейского Союза учреждениях .
В число основателей Института входят Массачусетского технологического института космолог Макс Тегмарк , UCSC космолог Энтони Агирре и Skype соучредитель Яан Таллинн ; Среди консультантов института — предприниматель Илон Маск .
Цель [ править ]
Заявленная миссия FLI — направить преобразующие технологии на благо жизни и избежать крупномасштабных рисков. [1] Философия FLI фокусируется на потенциальном риске для человечества, связанном с развитием человеческого уровня или сверхразумного общего искусственного интеллекта (AGI), но также направлена на снижение рисков, связанных с биотехнологиями, ядерным оружием и глобальным потеплением. [2]
История [ править ]
FLI была основана в марте 2014 года Массачусетского технологического института космологом Максом Тегмарком , Skype соучредителем Яаном Таллином , DeepMind научным сотрудником Университета Тафтса Викторией Краковной, постдокторантом UCSC Мейей Чита-Тегмарк и физиком Энтони Агирре . В число консультантов Института входят ученые-компьютерщики Стюарт Дж. Рассел и Франческа Росси , биолог Джордж Черч , космолог Сол Перлмуттер , астрофизик Сандра Фабер , физик-теоретик Фрэнк Вильчек , предприниматель Илон Маск , а также актеры и научные деятели Алан Алда и Морган Фриман (а также космолог). Стивен Хокинг до своей смерти в 2018 году). [3] [4] [5]
Начиная с 2017 года FLI вводит ежегодную премию «Будущее жизни», первым лауреатом которой становится Василий Архипов . В том же году FLI выпустила короткометражный фильм «Slaughterbots» , пропагандирующий контроль над вооружениями. FLI выпустила продолжение в 2021 году. [6]
В 2018 году FLI подготовила письмо с призывом принять «законы против смертоносного автономного оружия». Среди подписавшихся были Илон Маск , Демис Хассабис , Шейн Легг и Мустафа Сулейман . [7]
В январе 2023 года шведский журнал Expo сообщил, что FLI предложил грант в размере 100 000 долларов фонду, созданному Nya Dagbladet , шведской крайне правой онлайн-газетой. [8] [9] В ответ Тегмарк заявил, что институту стало известно о Nya Dagbladet позиции только в ходе комплексной проверки через несколько месяцев после первоначального предоставления гранта, и что грант был немедленно отозван. [9]
Открытое письмо о паузе в ИИ [ править ]
В марте 2023 года FLI опубликовала письмо под названием « Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо ». Это призвало крупных разработчиков ИИ договориться о поддающейся проверке шестимесячной паузе в работе любых систем, «более мощных, чем GPT-4 », и использовать это время для создания системы обеспечения безопасности; или, в противном случае, правительства введут мораторий. В письме говорилось: «В последние месяцы лаборатории искусственного интеллекта оказались вовлечены в бесконтрольную гонку за разработку и внедрение еще более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать». [10] В письме упоминалась возможность «глубокого изменения в истории жизни на Земле», а также потенциальные риски пропаганды, создаваемой искусственным интеллектом, потери рабочих мест, устаревания человечества и потери контроля над обществом в целом. [11] [12]
Среди известных лиц, подписавших письмо, были Илон Маск , Стив Возняк , Эван Шарп , Крис Ларсен и Гэри Маркус ; генеральные директора лаборатории искусственного интеллекта Коннор Лихи и Эмад Мостак ; политик Эндрю Янг ; исследователь глубокого обучения Йошуа Бенджио ; и Юваль Ной Харари . [13] Маркус заявил, что «буква не идеальна, но дух верен». Мостак заявил: «Я не думаю, что шестимесячная пауза — лучшая идея, и я согласен со всем, но в этом письме есть кое-что интересное». Напротив, Бенджио на пресс-конференции открыто поддержал шестимесячную паузу. [14] [15] Маск предсказал, что «ведущие разработчики AGI не прислушаются к этому предупреждению, но, по крайней мере, оно было сказано». [16] Некоторые подписанты, в том числе Маск, заявили, что ими двигали опасения экзистенциального риска, исходящего от общего искусственного интеллекта . [17] Некоторые из других подписантов, такие как Маркус, вместо этого заявили, что подписали соглашение из-за опасений по поводу таких рисков, как пропаганда, создаваемая искусственным интеллектом. [18]
Авторы одной из статей, цитируемых в письме FLI, « Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими? » [19] в том числе Эмили М. Бендер , Тимнит Гебру и Маргарет Митчелл , раскритиковали письмо. [20] Митчелл сказал, что «рассматривая множество сомнительных идей как данность, письмо утверждает набор приоритетов и повествование об ИИ, которое приносит пользу сторонникам FLI. Игнорирование активного вреда прямо сейчас — это привилегия, которой у некоторых из нас нет». [20]
Операции [ править ]
Пропаганда [ править ]
FLI активно участвует в разработке политики в области ИИ. Например, в октябре 2023 года лидер большинства в Сенате США Чак Шумер пригласил FLI поделиться своим взглядом на регулирование ИИ с избранными сенаторами. [21] В Европе FLI успешно выступает за включение более общих систем искусственного интеллекта, таких как GPT-4 ЕС , в Закон об искусственном интеллекте . [22]
В военной политике ФЛИ координировал поддержку научным сообществом Договора о запрещении ядерного оружия . [23] В ООН и других организациях Институт также выступал за заключение договора об автономном оружии . [24] [25]
Гранты на исследования [ править ]
Исследовательская программа FLI стартовала в 2015 году с первоначального пожертвования в размере 10 миллионов долларов от Илона Маска. [26] [27] [28] В этом начальном раунде на 37 исследовательских проектов было выделено в общей сложности 7 миллионов долларов. [29] В июле 2021 года FLI объявила, что запустит новую грантовую программу на сумму 25 миллионов долларов при финансировании российско-канадского программиста Виталика Бутерина . [30]
Конференции [ править ]
В 2014 году Институт будущего жизни провел в Массачусетском технологическом институте свое открытие : панельную дискуссию на тему «Будущее технологий: преимущества и риски», модератором которой выступил Алан Алда . [31] [32] В дискуссии приняли участие синтетический биолог Джордж Чёрч , генетик Тинг Ву , экономист Эндрю Макафи , физик и нобелевский лауреат Фрэнк Вильчек и соучредитель Skype Яан Таллинн . [33] [34]
С 2015 года FLI организует конференции раз в два года с заявленной целью собрать вместе исследователей искусственного интеллекта из академических кругов и промышленности. По состоянию на апрель 2023 г. [update]состоялись следующие конференции:
- Конференция «Будущее искусственного интеллекта: возможности и вызовы» в Пуэрто-Рико (2015 г.). Заявленная цель заключалась в определении перспективных направлений исследований, которые могли бы помочь максимизировать будущие преимущества ИИ. [35] На конференции FLI распространила открытое письмо о безопасности ИИ , которое впоследствии подписали Стивен Хокинг , Илон Маск и многие исследователи искусственного интеллекта. [36]
- Конференция «Полезный искусственный интеллект» в Асиломаре, Калифорния (2017 г.), [37] частное собрание тех, кого The New York Times назвала «сильными нападающими в области искусственного интеллекта» (включая Янна Лекуна , Илона Маска и Ника Бострома ). [38] Институт опубликовал набор принципов ответственной разработки ИИ, ставший результатом обсуждения на конференции, подписанный Йошуа Бенджио , Яном ЛеКуном и многими другими исследователями ИИ. [39] Эти принципы могли повлиять на регулирование искусственного интеллекта и последующие инициативы, такие как Принципы ОЭСР по искусственному интеллекту. [40]
- Полезная конференция AGI в Пуэрто-Рико (2019 г.). [41] Заявленной целью встречи были ответы на долгосрочные вопросы с целью гарантировать, что общий искусственный интеллект принесет пользу человечеству. [42]
В СМИ [ править ]
- «Борьба за определение того, когда ИИ является «высоким риском»» в журнале Wired .
- «Смертельное автономное оружие существует; оно должно быть запрещено» в IEEE Spectrum .
- «Соединенные Штаты и союзники протестуют против переговоров ООН о запрете ядерного оружия» в The New York Times .
- «Является ли искусственный интеллект угрозой?» в «Хронике высшего образования» , включая интервью с основателями FLI Максом Тегмарком , Яаном Таллином и Викторией Краковной.
- «Но что для меня будет означать конец человечества?», интервью с Максом Тегмарком об идеях, лежащих в основе FLI, в The Atlantic .
См. также [ править ]
- Институт будущего человечества
- Центр изучения экзистенциального риска
- Глобальный катастрофический риск
- Леверхалм Центр будущего разведки
- Научно-исследовательский институт машинного интеллекта
- Пропасть: экзистенциальный риск и будущее человечества
Ссылки [ править ]
- ^ «Домашняя страница Института будущего жизни» . Институт будущего жизни. 9 сентября 2021 года. Архивировано из оригинала 8 сентября 2021 года . Проверено 9 сентября 2021 г.
- ^ Чен, Анжела (11 сентября 2014 г.). «Является ли искусственный интеллект угрозой?» . Хроника высшего образования . Архивировано из оригинала 22 декабря 2016 года . Проверено 18 сентября 2014 г.
- ^ «Но что будет означать для меня конец человечества?» . Атлантика. 9 мая 2014 года. Архивировано из оригинала 4 июня 2014 года . Проверено 13 апреля 2020 г. .
- ^ «Кто мы» . Институт будущего жизни. Архивировано из оригинала 6 апреля 2020 года . Проверено 13 апреля 2020 г. .
- ^ «Наш научно-фантастический апокалипсис: познакомьтесь с учёными, пытающимися предсказать конец света» . Салон . 5 октября 2014 г. Архивировано из оригинала 18 марта 2021 г. Проверено 13 апреля 2020 г. .
- ^ Уолш, Брайан (20 октября 2022 г.). «Физик Макс Тегмарк работает над тем, чтобы у жизни было будущее» . Вокс . Архивировано из оригинала 31 марта 2023 года . Проверено 31 марта 2023 г.
- ^ «Инноваторы искусственного интеллекта дают клятву против автономного оружия-убийцы» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . 2018. Архивировано из оригинала 31 марта 2023 года . Проверено 31 марта 2023 г.
- ^ Далсбро, Андерс; Леман, Джонатан (13 января 2023 г.). «Некоммерческая организация, финансируемая Илоном Маском и управляемая профессором Массачусетского технологического института, предложила финансировать шведскую пронацистскую группу» . Экспо . Архивировано из оригинала 25 июня 2023 г. Проверено 17 августа 2023 г.
- ^ Jump up to: Перейти обратно: а б Хьюм, Тим (19 января 2023 г.). «Некоммерческая организация, поддерживаемая Илоном Маском, предложила грант в 100 тысяч долларов «пронацистскому» СМИ» . Порок . Архивировано из оригинала 23 июня 2023 г. Проверено 17 августа 2023 г.
- ^ «Илон Маск среди экспертов, призывающих прекратить обучение искусственному интеллекту» . Новости Би-би-си . 2023-03-29. Архивировано из оригинала 1 апреля 2023 г. Проверено 1 апреля 2023 г.
- ^ «Илон Маск и другие технологические лидеры призывают к паузе в «вышедшей из-под контроля» гонке ИИ» . CNN . 29 марта 2023 года. Архивировано из оригинала 10 апреля 2023 года . Проверено 30 марта 2023 г.
- ^ «Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо» . Институт будущего жизни . Архивировано из оригинала 27 марта 2023 года . Проверено 30 марта 2023 г.
- ^ Болл, Джеймс (2 апреля 2023 г.). «Мы участвуем в гонке ИИ, запрещать его было бы глупо» . Санди Таймс . Архивировано из оригинала 19 августа 2023 г. Проверено 2 апреля 2023 г.
- ^ «Маск и Возняк среди более чем 1100 человек подписали открытое письмо с призывом к шестимесячному запрету на создание мощного искусственного интеллекта» Fortune . Март 2023 г. Архивировано из оригинала 29 марта 2023 г. Проверено 30 марта 2023 г.
- ^ «Открытое письмо с призывом остановить «опасную» гонку ИИ — это огромный беспорядок» . www.vice.com . Март 2023 г. Архивировано из оригинала 30 марта 2023 г. Проверено 30 марта 2023 г.
- ^ «Илон Маск» . Твиттер . Архивировано из оригинала 30 марта 2023 года . Проверено 30 марта 2023 г.
- ^ Розенберг, Скотт (30 марта 2023 г.). «Открытое письмо вызывает дебаты по поводу «приостановки» исследований ИИ из-за рисков» . Аксиос . Архивировано из оригинала 31 марта 2023 года . Проверено 31 марта 2023 г.
- ^ «Лидеры технологий призывают к паузе в «вышедшей из-под контроля» гонке искусственного интеллекта» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . 2023. Архивировано из оригинала 29 марта 2023 года . Проверено 30 марта 2023 г.
- ^ Бендер, Эмили М.; Гебру, Тимнит; Макмиллан-Мейджор, Анджелина; Шмитчелл, Шмаргарет (3 марта 2021 г.). «Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими?». Материалы конференции ACM 2021 года по вопросам справедливости, подотчетности и прозрачности . Виртуальное событие Канада: ACM. стр. 610–623. дои : 10.1145/3442188.3445922 . ISBN 978-1-4503-8309-7 .
- ^ Jump up to: Перейти обратно: а б Кари, Пол (01 апреля 2023 г.). «Письмо, подписанное Илоном Маском, с требованием приостановить исследования в области искусственного интеллекта, вызывает споры» . Хранитель . Архивировано из оригинала 1 апреля 2023 г. Проверено 1 апреля 2023 г.
- ^ Кришан, Нихал (26 октября 2023 г.). «Второй форум AI Insight Forum, организованный сенатором Чаком Шумером, посвящен увеличению финансирования исследований и разработок, иммиграционным проблемам и мерам защиты» . ФедСкуп . Проверено 16 марта 2024 г.
- ^ «Искусственный интеллект ЕС не является« перспективным », предупреждают эксперты депутатов Европарламента» . Наука|Бизнес . Проверено 16 марта 2024 г.
- ^ Ученые поддерживают ядерный запрет , 16 июня 2017 г. , получено 16 марта 2024 г.
- ^ «Обучение летальному автономному оружию» . Институт будущего жизни . Проверено 16 марта 2024 г.
- ^ Правительство Коста-Рики (24 февраля 2023 г.). «Адрес ФЛИ» (PDF) . Латиноамериканская и Карибская конференция по социальным и гуманитарным последствиям автономного оружия .
- ^ «Илон Маск пожертвовал 10 миллионов долларов на сохранение пользы ИИ» . Институт будущего жизни. 15 января 2015 г. Архивировано из оригинала 28 февраля 2018 г. Проверено 28 июля 2019 г.
- ^ «Илон Маск пожертвовал 10 миллионов долларов на исследования в области искусственного интеллекта» . СлэшГир. 15 января 2015 года. Архивировано из оригинала 7 апреля 2015 года . Проверено 26 апреля 2015 г.
- ^ «Илон Маск пожертвует 10 миллионов долларов из собственных денег на исследования в области искусственного интеллекта» . Компания Фаст. 15 января 2015 года. Архивировано из оригинала 30 октября 2015 года . Проверено 19 января 2015 г.
- ^ «Новая программа международных грантов дает толчок исследованиям, призванным гарантировать, что искусственный интеллект останется полезным» . Институт будущего жизни. 28 октября 2015 г. Архивировано из оригинала 28 июля 2019 г. . Проверено 28 июля 2019 г.
- ^ «FLI объявляет о программе грантов на сумму 25 миллионов долларов для снижения экзистенциального риска» . Институт будущего жизни. 2 июля 2021 года. Архивировано из оригинала 9 сентября 2021 года . Проверено 9 сентября 2021 г.
- ^ «Будущее технологий: преимущества и риски» . Институт будущего жизни. 24 мая 2014 г. Архивировано из оригинала 28 июля 2019 г. . Проверено 28 июля 2019 г.
- ^ «Новости FHI: «Институт будущего жизни проводит мероприятие, посвященное открытию Массачусетского технологического института» » . Институт будущего человечества. 20 мая 2014 года. Архивировано из оригинала 27 июля 2014 года . Проверено 19 июня 2014 г.
- ^ «Будущее технологий: преимущества и риски» . Образовательный проект по личной генетике. 9 мая 2014 г. Архивировано из оригинала 22 декабря 2015 г. Проверено 19 июня 2014 г.
- ^ «Конференция по безопасности ИИ в Пуэрто-Рико» . Институт будущего жизни. Архивировано из оригинала 7 ноября 2015 года . Проверено 19 января 2015 г.
- ^ «Приоритеты исследований надежного и полезного искусственного интеллекта: открытое письмо» . Институт будущего жизни. Архивировано из оригинала 10 августа 2019 г. Проверено 28 июля 2019 г.
- ^ «Полезный ИИ 2017» . Институт будущего жизни. Архивировано из оригинала 24 февраля 2020 г. Проверено 28 июля 2019 г.
- ^ Мец, Кейд (9 июня 2018 г.). «Марк Цукерберг, Илон Маск и вражда из-за роботов-убийц» . Нью-Йорк Таймс . Архивировано из оригинала 15 февраля 2021 года . Проверено 10 июня 2018 г.
Частное собрание в отеле Asilomar было организовано Институтом будущего жизни, аналитическим центром, созданным для обсуждения экзистенциальных рисков, связанных с ИИ и другими технологиями.
- ^ «Принципы асиломарского ИИ» . Институт будущего жизни. Архивировано из оригинала 11 декабря 2017 г. Проверено 28 июля 2019 г.
- ^ «Принципы Асиломара» (PDF) . ОЭСР. Архивировано (PDF) из оригинала 9 сентября 2021 г. Проверено 9 сентября 2021 г.
- ^ «Выгодный AGI 2019» . Институт будущего жизни. Архивировано из оригинала 28 июля 2019 г. Проверено 28 июля 2019 г.
- ^ «CSER на конференции Beneficial AGI 2019» . Центр изучения экзистенциального риска. Архивировано из оригинала 28 июля 2019 г. Проверено 28 июля 2019 г.
Внешние ссылки [ править ]
- Организации, изучающие будущее
- 2014 заведения в Массачусетсе
- Научно-исследовательские институты, созданные в 2014 году
- Ассоциации искусственного интеллекта
- Трансгуманистические организации
- Организации экзистенциального риска
- Экзистенциальный риск от общего искусственного интеллекта
- Организации, связанные с эффективным альтруизмом
- Регулирование искусственного интеллекта