Моральная машина

Моральная машина — это онлайн-платформа, разработанная Ияда Рахвана группой масштабируемого сотрудничества в Массачусетском технологическом институте . Она генерирует моральные дилеммы и собирает информацию о решениях, которые люди принимают между двумя разрушительными исходами. [ 1 ] [ 2 ] Платформа — это идея Ияда Рахвана и социальных психологов Азима Шарифа и Жана-Франсуа Боннефона. [ 3 ] которым пришла в голову эта идея еще до публикации статьи об этике беспилотных автомобилей. [ 4 ] Ключевыми участниками создания платформы стали Медиа-лаборатории аспиранты Массачусетского технологического института Эдмонд Авад и Сохан Дсоуза.
Представленные сценарии часто являются вариациями задачи о тележке , а собранная информация будет использоваться для дальнейших исследований относительно решений, которые машинный интеллект должен принять в будущем. [ 5 ] [ 6 ] [ 7 ] [ 8 ] [ 9 ] [ 10 ] Например, поскольку искусственный интеллект играет все более важную роль в технологии автономного вождения , исследовательские проекты, такие как Moral Machine, помогают найти решения для сложных жизненно важных решений, с которыми придется столкнуться беспилотным транспортным средствам. [ 11 ]
Моральная машина была активна с января 2016 года по июль 2020 года. Моральная машина по-прежнему доступна на их веб-сайте для людей. [ 1 ] [ 7 ]
Эксперимент
[ редактировать ]«Моральная машина» была амбициозным проектом; это была первая попытка использовать такую экспериментальную схему для тестирования большого количества людей в более чем 200 странах мира. Исследование было одобрено Наблюдательным советом института (IRB) Массачусетского технологического института (MIT). [ 12 ] [ 13 ]
Постановка эксперимента предлагает зрителю принять решение по одному сценарию, в котором беспилотный автомобиль собирается сбить пешеходов. Пользователь может решить, нужно ли автомобилю свернуть, чтобы не наехать на пешеходов, или продолжить движение прямо, чтобы сохранить жизни, которые он перевозит.
Участники могут выполнить столько сценариев, сколько захотят, однако сами сценарии генерируются группами по тринадцать человек. Среди этих тринадцати один сценарий является полностью случайным, в то время как остальные двенадцать генерируются из пространства в базе данных, содержащей 26 миллионов различных возможностей. Они выбираются с учетом двух дилемм, ориентированных на каждое из шести измерений моральных предпочтений: пол персонажа, возраст персонажа, физическая подготовка персонажа, социальный статус персонажа, вид персонажа и количество персонажей. [ 7 ] [ 13 ]
Схема эксперимента остается одинаковой для нескольких сценариев, но каждый сценарий проверяет свой набор факторов. В частности, персонажи, участвующие в сценарии, в каждом из них разные. Персонажами могут быть такие, как: коляска, девушка, мальчик, беременный, мужчина-врач, женщина-врач, спортсменка, женщина-руководитель, спортсмен-мужчина, мужчина-руководитель, крупная женщина, крупный мужчина, бездомный, старик, старуха, собака, преступник. , и кот. [ 7 ]
Благодаря этим различным персонажам исследователи смогли понять, как самые разные люди будут оценивать сценарии на основе участников.
Анализ
[ редактировать ]Моральная машина собрала 40 миллионов моральных решений от 4 миллионов участников из 233 стран. [ 14 ] [ 15 ] [ 16 ] анализ которых выявил тенденции внутри отдельных стран и человечества в целом. В ходе исследования были проверены девять факторов: предпочтение щадить людей по сравнению с домашними животными, пассажиров по сравнению с пешеходами, мужчин по сравнению с женщинами, молодых по сравнению с пожилыми людьми, физическую форму по сравнению с избыточным весом, более высокий или низкий социальный статус, пешеходов по сравнению с законопослушными, большие группы по сравнению с меньшими, а также бездействие (т.е. на курсе) по сравнению с поворотом. [ 13 ]
Во всем мире участники отдавали предпочтение человеческим жизням, а не жизням животных, таких как собаки и кошки. Они предпочли сохранить больше жизней, если это возможно, и более молодые жизни, а не старые. [ 16 ] Чаще всего щадили младенцев, меньше всего щадили кошек. Что касается гендерных различий, люди, как правило, отдавали предпочтение мужчинам, а не женщинам, врачам и пожилым людям. Все страны в целом разделяли предпочтение щадить пешеходов перед пассажирами и законопослушных преступников.
Участники из менее богатых стран продемонстрировали более высокую склонность щадить пешеходов, перешедших дорогу незаконно, по сравнению с участниками из более богатых и развитых стран. Скорее всего, это связано с их опытом жизни в обществе, где люди с большей вероятностью отклоняются от правил из-за менее строгого соблюдения законов. Страны с более высоким экономическим неравенством в подавляющем большинстве предпочитают экономить более богатых людей, чем более бедных. [ 13 ]
Культурные различия
[ редактировать ]Исследователи разделили 130 стран с аналогичными результатами на три «культурных кластера». В странах Северной Америки и Европы со значительным христианским населением больше предпочтения бездействию со стороны водителя и, следовательно, меньше предпочтения щадить пешеходов по сравнению с другими кластерами. Страны Восточной Азии и ислама, вместе составляющие второй кластер, не имели такого большого предпочтения щадить молодых людей по сравнению с двумя другими кластерами и имели большее предпочтение щадить законопослушных людей. Латинская Америка и франкоязычные страны отдавали большее предпочтение сохранению женщин, молодежи, здоровых людей и людей с более высоким статусом, но меньшее предпочтение отдавали сохранению людей перед домашними или другими животными. [ 13 ] [ 16 ]
Индивидуалистические культуры имели тенденцию щадить более крупные группы, а коллективистские культуры отдавали предпочтение сохранению жизни пожилых людей. Например, Китай занял место намного ниже среднего мирового показателя по предпочтению щадить молодых людей, а не пожилых людей, в то время как средний респондент из США продемонстрировал гораздо более высокую тенденцию спасать жизни молодых людей и больших групп людей. [ 13 ]
Применение данных
[ редактировать ]Выводы, полученные с помощью моральной машины, могут помочь лицам, принимающим решения, при разработке беспилотных автомобильных систем. Конструкторы должны убедиться, что эти транспортные средства способны решать проблемы на дороге, соответствующие моральным ценностям окружающих людей. [ 13 ] [ 12 ]
Это проблема из-за сложной природы людей, которые могут принимать разные решения, исходя из своих личных ценностей. Однако, собрав большое количество решений людей со всего мира, исследователи могут начать понимать закономерности в контексте конкретной культуры, сообщества и народа.
Другие особенности
[ редактировать ]Моральная машина была развернута в июне 2016 года. В октябре 2016 года была добавлена функция, которая предлагала пользователям возможность заполнить опрос об их демографии, политических взглядах и религиозных убеждениях. В период с ноября 2016 года по март 2017 года веб-сайт постепенно переводился на девять языков помимо английского (арабский, китайский, французский, немецкий, японский, корейский, португальский, русский и испанский). [ 12 ]
В целом, «Машина морали» предлагает четыре различных режима (см. «Дополнительную информацию»), при этом основное внимание уделяется функции сбора данных на веб-сайте, называемой режимом судьи. [ 12 ]
Это означает, что Моральная машина, помимо предоставления пользователям собственных сценариев на суд, также предлагает пользователям создавать свои собственные сценарии, которые необходимо отправить и утвердить, чтобы другие люди также могли оценивать эти сценарии. Данные также находятся в открытом доступе, и каждый может их изучить с помощью интерактивной карты, представленной на веб-сайте Moral Machine.
Ссылки
[ редактировать ]- ^ Jump up to: а б «Беспилотные автомобили сталкиваются с моральной дилеммой: кто живет, а кто умирает?» . Новости Эн-Би-Си . Проверено 16 февраля 2017 г.
- ^ Броган, Джейкоб (11 августа 2016 г.). «Должен ли беспилотный автомобиль убить двух пешеходов или одного законопослушного гражданина?» . Сланец . ISSN 1091-2339 . Проверено 16 февраля 2017 г.
- ^ Авад, Эдмонд (24 октября 2018 г.). «Внутри моральной машины» . Поведенческие и социальные науки в Nature Research . Проверено 4 июля 2019 г.
- ^ Боннефон, Жан-Франсис; Шариф, Азим; Рахван, Ияд (24 июня 2016 г.). «Социальная дилемма автономных транспортных средств». Наука 352 (6293): 1573–1576. arXiv : 1510.03346 . Бибкод : 2016Наука... 352.1573B дои : 10.1126/science.aaf2654 . ISSN 0036-8075 . ПМИД 27339987 . S2CID 35400794 .
- ^ «Моральная машина | Медиа-лаборатория Массачусетского технологического института» . www.media.mit.edu . Архивировано из оригинала 30 ноября 2016 г. Проверено 16 февраля 2017 г.
- ^ «MIT ищет «мораль» в истории беспилотных автомобилей» . VOA . Проверено 16 февраля 2017 г.
- ^ Jump up to: а б с д «Моральная машина» . Моральная машина . Проверено 16 февраля 2017 г.
- ^ Кларк, Брайан (16 января 2017 г.). ««Моральная машина» Массачусетского технологического института хочет, чтобы вы решили, кто погибнет в автокатастрофе» . Следующая сеть . Проверено 16 февраля 2017 г.
- ^ «Игра MIT спрашивает, кого должны убивать беспилотные автомобили» . Популярная наука . Проверено 16 февраля 2017 г.
- ^ Констин, Джош (4 октября 2016 г.). «Поиграйте в эту убийственную игру по этике беспилотных автомобилей» . ТехКранч . Проверено 16 февраля 2017 г.
- ^ Чопра, Аджай. «Почему беспилотные автомобили так долго не становятся массовыми?» . Удача . Проверено 1 августа 2017 г.
- ^ Jump up to: а б с д «Моральная машина» . Моральная машина . Проверено 13 апреля 2022 г.
- ^ Jump up to: а б с д и ж г Ховард, Эдмонд; Дсоуза, Сохан; Ким, Ричард; Шульц, Джонатан; Генрих, Джозеф; Шариф, Азим; Боннефон, Жан-Франсис; Рахван, Ияд (24 октября 2018 г.). «Эксперимент «Моральная машина». Природа 563 (7729): 59–64. Бибкод : 2018Природа.563... 59А дои : 10.1038/ s41586-018-0637-6 hdl : 10871/39187 . ПМИД 30356211 . S2CID 256770099 .
- ^ Винсент, Джеймс (24 октября 2018 г.). «Выявлены глобальные предпочтения в отношении того, кого спасать в авариях с беспилотными автомобилями» . Грань . Вокс Медиа . Проверено 3 августа 2024 г.
- ^ Карлссон, Карл-Йохан (7 июля 2021 г.). «Что провал Швеции в связи с Covid говорит нам об эйджизме» . Знающий журнал . doi : 10.1146/knowable-070621-1 . Проверено 9 декабря 2021 г.
- ^ Jump up to: а б с Смит, Оливер. «Огромное глобальное исследование этики беспилотных автомобилей показало, что пожилые люди — расходный материал» . Форбс . Проверено 3 августа 2024 г.