Jump to content

Институт будущего жизни

Координаты : 42 ° 22'25 "N 71 ° 06'35" W  /  42,3736158 ° N 71,1097335 ° W  / 42,3736158; -71.1097335

 WikiMiniAtlas
42 ° 22'25 "N 71 ° 06'35" W  /  42,3736158 ° N 71,1097335 ° W  / 42,3736158; -71.1097335

Институт будущего жизни
Аббревиатура ФЛИ
Формирование март 2014 г .; 10 лет назад ( 2014-03 )
Основатели
Тип Некоммерческий научно-исследовательский институт
Цель Снижение экзистенциального риска , особенно за счет передового искусственного интеллекта.
Расположение
Президент
Макс Тегмарк
Веб-сайт futureoflife.org

Институт будущего жизни ( FLI ) — это некоммерческая организация , цель которой — направить преобразующие технологии на благо жизни и избежать крупномасштабных рисков, уделяя особое внимание экзистенциальным рискам, связанным с передовым искусственным интеллектом (ИИ). Работа FLI включает в себя предоставление грантов , образовательную работу и пропаганду в Организации Объединенных Наций , правительстве США и Европейского Союза учреждениях .

В число основателей Института входят Массачусетского технологического института космолог Макс Тегмарк , UCSC космолог Энтони Агирре и Skype соучредитель Яан Таллинн ; Среди консультантов института — предприниматель Илон Маск .

Цель [ править ]

Макс Тегмарк , профессор Массачусетского технологического института , один из основателей и нынешний президент Института будущего жизни

Заявленная миссия FLI — направить преобразующие технологии на благо жизни и избежать крупномасштабных рисков. [1] Философия FLI фокусируется на потенциальном риске для человечества, связанном с развитием человеческого уровня или сверхразумного общего искусственного интеллекта (AGI), но также направлена ​​на снижение рисков, связанных с биотехнологиями, ядерным оружием и глобальным потеплением. [2]

История [ править ]

FLI была основана в марте 2014 года Массачусетского технологического института космологом Максом Тегмарком , Skype соучредителем Яаном Таллином , DeepMind научным сотрудником Университета Тафтса Викторией Краковной, постдокторантом UCSC Мейей Чита-Тегмарк и физиком Энтони Агирре . В число консультантов Института входят ученые-компьютерщики Стюарт Дж. Рассел и Франческа Росси , биолог Джордж Черч , космолог Сол Перлмуттер , астрофизик Сандра Фабер , физик-теоретик Фрэнк Вильчек , предприниматель Илон Маск , а также актеры и научные деятели Алан Алда и Морган Фриман (а также космолог). Стивен Хокинг до своей смерти в 2018 году). [3] [4] [5]

Начиная с 2017 года FLI вводит ежегодную премию «Будущее жизни», первым лауреатом которой становится Василий Архипов . В том же году FLI выпустила короткометражный фильм «Slaughterbots» , пропагандирующий контроль над вооружениями. FLI выпустила продолжение в 2021 году. [6]

В 2018 году FLI подготовила письмо с призывом принять «законы против смертоносного автономного оружия». Среди подписавшихся были Илон Маск , Демис Хассабис , Шейн Легг и Мустафа Сулейман . [7]

В январе 2023 года шведский журнал Expo сообщил, что FLI предложил грант в размере 100 000 долларов фонду, созданному Nya Dagbladet , шведской крайне правой онлайн-газетой. [8] [9] В ответ Тегмарк заявил, что институту стало известно о Nya Dagbladet позиции только в ходе комплексной проверки через несколько месяцев после первоначального предоставления гранта, и что грант был немедленно отозван. [9]

Открытое письмо о паузе в ИИ [ править ]

В марте 2023 года FLI опубликовала письмо под названием « Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо ». Это призвало крупных разработчиков ИИ договориться о поддающейся проверке шестимесячной паузе в работе любых систем, «более мощных, чем GPT-4 », и использовать это время для создания системы обеспечения безопасности; или, в противном случае, правительства введут мораторий. В письме говорилось: «В последние месяцы лаборатории искусственного интеллекта оказались вовлечены в бесконтрольную гонку за разработку и внедрение еще более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать». [10] В письме упоминалась возможность «глубокого изменения в истории жизни на Земле», а также потенциальные риски пропаганды, создаваемой искусственным интеллектом, потери рабочих мест, устаревания человечества и потери контроля над обществом в целом. [11] [12]

Среди известных лиц, подписавших письмо, были Илон Маск , Стив Возняк , Эван Шарп , Крис Ларсен и Гэри Маркус ; генеральные директора лаборатории искусственного интеллекта Коннор Лихи и Эмад Мостак ; политик Эндрю Янг ; исследователь глубокого обучения Йошуа Бенджио ; и Юваль Ной Харари . [13] Маркус заявил, что «буква не идеальна, но дух верен». Мостак заявил: «Я не думаю, что шестимесячная пауза — лучшая идея, и я согласен со всем, но в этом письме есть кое-что интересное». Напротив, Бенджио на пресс-конференции открыто поддержал шестимесячную паузу. [14] [15] Маск предсказал, что «ведущие разработчики AGI не прислушаются к этому предупреждению, но, по крайней мере, оно было сказано». [16] Некоторые подписанты, в том числе Маск, заявили, что ими двигали опасения экзистенциального риска, исходящего от общего искусственного интеллекта . [17] Некоторые из других подписантов, такие как Маркус, вместо этого заявили, что подписали соглашение из-за опасений по поводу таких рисков, как пропаганда, создаваемая искусственным интеллектом. [18]

Авторы одной из статей, цитируемых в письме FLI, « Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими? » [19] в том числе Эмили М. Бендер , Тимнит Гебру и Маргарет Митчелл , раскритиковали письмо. [20] Митчелл сказал, что «рассматривая множество сомнительных идей как данность, письмо утверждает набор приоритетов и повествование об ИИ, которое приносит пользу сторонникам FLI. Игнорирование активного вреда прямо сейчас — это привилегия, которой у некоторых из нас нет». [20]

Операции [ править ]

Пропаганда [ править ]

FLI активно участвует в разработке политики в области ИИ. Например, в октябре 2023 года лидер большинства в Сенате США Чак Шумер пригласил FLI поделиться своим взглядом на регулирование ИИ с избранными сенаторами. [21] В Европе FLI успешно выступает за включение более общих систем искусственного интеллекта, таких как GPT-4 ЕС , в Закон об искусственном интеллекте . [22]

Плакат Института будущего жизни в Организации Объединенных Наций
FLI в штаб-квартире ООН в Женеве, 2021 г. Об автономном оружии.

В военной политике ФЛИ координировал поддержку научным сообществом Договора о запрещении ядерного оружия . [23] В ООН и других организациях Институт также выступал за заключение договора об автономном оружии . [24] [25]

Гранты на исследования [ править ]

Исследовательская программа FLI стартовала в 2015 году с первоначального пожертвования в размере 10 миллионов долларов от Илона Маска. [26] [27] [28] В этом начальном раунде на 37 исследовательских проектов было выделено в общей сложности 7 миллионов долларов. [29] В июле 2021 года FLI объявила, что запустит новую грантовую программу на сумму 25 миллионов долларов при финансировании российско-канадского программиста Виталика Бутерина . [30]

Конференции [ править ]

В 2014 году Институт будущего жизни провел в Массачусетском технологическом институте свое открытие : панельную дискуссию на тему «Будущее технологий: преимущества и риски», модератором которой выступил Алан Алда . [31] [32] В дискуссии приняли участие синтетический биолог Джордж Чёрч , генетик Тинг Ву , экономист Эндрю Макафи , физик и нобелевский лауреат Фрэнк Вильчек и соучредитель Skype Яан Таллинн . [33] [34]

С 2015 года FLI организует конференции раз в два года с заявленной целью собрать вместе исследователей искусственного интеллекта из академических кругов и промышленности. По состоянию на апрель 2023 г. состоялись следующие конференции:

В СМИ [ править ]

См. также [ править ]

Ссылки [ править ]

  1. ^ «Домашняя страница Института будущего жизни» . Институт будущего жизни. 9 сентября 2021 года. Архивировано из оригинала 8 сентября 2021 года . Проверено 9 сентября 2021 г.
  2. ^ Чен, Анжела (11 сентября 2014 г.). «Является ли искусственный интеллект угрозой?» . Хроника высшего образования . Архивировано из оригинала 22 декабря 2016 года . Проверено 18 сентября 2014 г.
  3. ^ «Но что будет означать для меня конец человечества?» . Атлантика. 9 мая 2014 года. Архивировано из оригинала 4 июня 2014 года . Проверено 13 апреля 2020 г. .
  4. ^ «Кто мы» . Институт будущего жизни. Архивировано из оригинала 6 апреля 2020 года . Проверено 13 апреля 2020 г. .
  5. ^ «Наш научно-фантастический апокалипсис: познакомьтесь с учёными, пытающимися предсказать конец света» . Салон . 5 октября 2014 г. Архивировано из оригинала 18 марта 2021 г. Проверено 13 апреля 2020 г. .
  6. ^ Уолш, Брайан (20 октября 2022 г.). «Физик Макс Тегмарк работает над тем, чтобы у жизни было будущее» . Вокс . Архивировано из оригинала 31 марта 2023 года . Проверено 31 марта 2023 г.
  7. ^ «Инноваторы искусственного интеллекта дают клятву против автономного оружия-убийцы» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . 2018. Архивировано из оригинала 31 марта 2023 года . Проверено 31 марта 2023 г.
  8. ^ Далсбро, Андерс; Леман, Джонатан (13 января 2023 г.). «Некоммерческая организация, финансируемая Илоном Маском и управляемая профессором Массачусетского технологического института, предложила финансировать шведскую пронацистскую группу» . Экспо . Архивировано из оригинала 25 июня 2023 г. Проверено 17 августа 2023 г.
  9. ^ Jump up to: Перейти обратно: а б Хьюм, Тим (19 января 2023 г.). «Некоммерческая организация, поддерживаемая Илоном Маском, предложила грант в 100 тысяч долларов «пронацистскому» СМИ» . Порок . Архивировано из оригинала 23 июня 2023 г. Проверено 17 августа 2023 г.
  10. ^ «Илон Маск среди экспертов, призывающих прекратить обучение искусственному интеллекту» . Новости Би-би-си . 2023-03-29. Архивировано из оригинала 1 апреля 2023 г. Проверено 1 апреля 2023 г.
  11. ^ «Илон Маск и другие технологические лидеры призывают к паузе в «вышедшей из-под контроля» гонке ИИ» . CNN . 29 марта 2023 года. Архивировано из оригинала 10 апреля 2023 года . Проверено 30 марта 2023 г.
  12. ^ «Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо» . Институт будущего жизни . Архивировано из оригинала 27 марта 2023 года . Проверено 30 марта 2023 г.
  13. ^ Болл, Джеймс (2 апреля 2023 г.). «Мы участвуем в гонке ИИ, запрещать его было бы глупо» . Санди Таймс . Архивировано из оригинала 19 августа 2023 г. Проверено 2 апреля 2023 г.
  14. ^ «Маск и Возняк среди более чем 1100 человек подписали открытое письмо с призывом к шестимесячному запрету на создание мощного искусственного интеллекта» Fortune . Март 2023 г. Архивировано из оригинала 29 марта 2023 г. Проверено 30 марта 2023 г.
  15. ^ «Открытое письмо с призывом остановить «опасную» гонку ИИ — это огромный беспорядок» . www.vice.com . Март 2023 г. Архивировано из оригинала 30 марта 2023 г. Проверено 30 марта 2023 г.
  16. ^ «Илон Маск» . Твиттер . Архивировано из оригинала 30 марта 2023 года . Проверено 30 марта 2023 г.
  17. ^ Розенберг, Скотт (30 марта 2023 г.). «Открытое письмо вызывает дебаты по поводу «приостановки» исследований ИИ из-за рисков» . Аксиос . Архивировано из оригинала 31 марта 2023 года . Проверено 31 марта 2023 г.
  18. ^ «Лидеры технологий призывают к паузе в «вышедшей из-под контроля» гонке искусственного интеллекта» . ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . 2023. Архивировано из оригинала 29 марта 2023 года . Проверено 30 марта 2023 г.
  19. ^ Бендер, Эмили М.; Гебру, Тимнит; Макмиллан-Мейджор, Анджелина; Шмитчелл, Шмаргарет (3 марта 2021 г.). «Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими?». Материалы конференции ACM 2021 года по вопросам справедливости, подотчетности и прозрачности . Виртуальное событие Канада: ACM. стр. 610–623. дои : 10.1145/3442188.3445922 . ISBN  978-1-4503-8309-7 .
  20. ^ Jump up to: Перейти обратно: а б Кари, Пол (01 апреля 2023 г.). «Письмо, подписанное Илоном Маском, с требованием приостановить исследования в области искусственного интеллекта, вызывает споры» . Хранитель . Архивировано из оригинала 1 апреля 2023 г. Проверено 1 апреля 2023 г.
  21. ^ Кришан, Нихал (26 октября 2023 г.). «Второй форум AI Insight Forum, организованный сенатором Чаком Шумером, посвящен увеличению финансирования исследований и разработок, иммиграционным проблемам и мерам защиты» . ФедСкуп . Проверено 16 марта 2024 г.
  22. ^ «Искусственный интеллект ЕС не является« перспективным », предупреждают эксперты депутатов Европарламента» . Наука|Бизнес . Проверено 16 марта 2024 г.
  23. ^ Ученые поддерживают ядерный запрет , 16 июня 2017 г. , получено 16 марта 2024 г.
  24. ^ «Обучение летальному автономному оружию» . Институт будущего жизни . Проверено 16 марта 2024 г.
  25. ^ Правительство Коста-Рики (24 февраля 2023 г.). «Адрес ФЛИ» (PDF) . Латиноамериканская и Карибская конференция по социальным и гуманитарным последствиям автономного оружия .
  26. ^ «Илон Маск пожертвовал 10 миллионов долларов на сохранение пользы ИИ» . Институт будущего жизни. 15 января 2015 г. Архивировано из оригинала 28 февраля 2018 г. Проверено 28 июля 2019 г.
  27. ^ «Илон Маск пожертвовал 10 миллионов долларов на исследования в области искусственного интеллекта» . СлэшГир. 15 января 2015 года. Архивировано из оригинала 7 апреля 2015 года . Проверено 26 апреля 2015 г.
  28. ^ «Илон Маск пожертвует 10 миллионов долларов из собственных денег на исследования в области искусственного интеллекта» . Компания Фаст. 15 января 2015 года. Архивировано из оригинала 30 октября 2015 года . Проверено 19 января 2015 г.
  29. ^ «Новая программа международных грантов дает толчок исследованиям, призванным гарантировать, что искусственный интеллект останется полезным» . Институт будущего жизни. 28 октября 2015 г. Архивировано из оригинала 28 июля 2019 г. . Проверено 28 июля 2019 г.
  30. ^ «FLI объявляет о программе грантов на сумму 25 миллионов долларов для снижения экзистенциального риска» . Институт будущего жизни. 2 июля 2021 года. Архивировано из оригинала 9 сентября 2021 года . Проверено 9 сентября 2021 г.
  31. ^ «Будущее технологий: преимущества и риски» . Институт будущего жизни. 24 мая 2014 г. Архивировано из оригинала 28 июля 2019 г. . Проверено 28 июля 2019 г.
  32. ^ «Научно-исследовательский институт машинного интеллекта – Информационный бюллетень за июнь 2014 г.» . 2 июня 2014 года. Архивировано из оригинала 3 июля 2014 года . Проверено 19 июня 2014 г.
  33. ^ «Новости FHI: «Институт будущего жизни проводит мероприятие, посвященное открытию Массачусетского технологического института» » . Институт будущего человечества. 20 мая 2014 года. Архивировано из оригинала 27 июля 2014 года . Проверено 19 июня 2014 г.
  34. ^ «Будущее технологий: преимущества и риски» . Образовательный проект по личной генетике. 9 мая 2014 г. Архивировано из оригинала 22 декабря 2015 г. Проверено 19 июня 2014 г.
  35. ^ «Конференция по безопасности ИИ в Пуэрто-Рико» . Институт будущего жизни. Архивировано из оригинала 7 ноября 2015 года . Проверено 19 января 2015 г.
  36. ^ «Приоритеты исследований надежного и полезного искусственного интеллекта: открытое письмо» . Институт будущего жизни. Архивировано из оригинала 10 августа 2019 г. Проверено 28 июля 2019 г.
  37. ^ «Полезный ИИ 2017» . Институт будущего жизни. Архивировано из оригинала 24 февраля 2020 г. Проверено 28 июля 2019 г.
  38. ^ Мец, Кейд (9 июня 2018 г.). «Марк Цукерберг, Илон Маск и вражда из-за роботов-убийц» . Нью-Йорк Таймс . Архивировано из оригинала 15 февраля 2021 года . Проверено 10 июня 2018 г. Частное собрание в отеле Asilomar было организовано Институтом будущего жизни, аналитическим центром, созданным для обсуждения экзистенциальных рисков, связанных с ИИ и другими технологиями.
  39. ^ «Принципы асиломарского ИИ» . Институт будущего жизни. Архивировано из оригинала 11 декабря 2017 г. Проверено 28 июля 2019 г.
  40. ^ «Принципы Асиломара» (PDF) . ОЭСР. Архивировано (PDF) из оригинала 9 сентября 2021 г. Проверено 9 сентября 2021 г.
  41. ^ «Выгодный AGI 2019» . Институт будущего жизни. Архивировано из оригинала 28 июля 2019 г. Проверено 28 июля 2019 г.
  42. ^ «CSER на конференции Beneficial AGI 2019» . Центр изучения экзистенциального риска. Архивировано из оригинала 28 июля 2019 г. Проверено 28 июля 2019 г.

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: b96a90acd803e016c10e647d7f4b21e5__1717371060
URL1:https://arc.ask3.ru/arc/aa/b9/e5/b96a90acd803e016c10e647d7f4b21e5.html
Заголовок, (Title) документа по адресу, URL1:
Future of Life Institute - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)