У известной моральной дилеммы не оказалось универсального решения. 21.by

У известной моральной дилеммы не оказалось универсального решения

29.10.2018 09:52 — Разное |  
Размер текста:
A
A
A

Источник материала:

В ходе эксперимента Moral Machine были собраны мнения 2,3 млн людей из 233 стран о том, какими моральными принципами должны руководствоваться самоуправляемые автомобили в аварийных ситуациях, когда человеческих жертв избежать невозможно и нужно выбрать меньшее из зол. Респонденты из разных стран разошлись во мнениях по многим пунктам. Исследование показало, что разработать универсальный «моральный закон» для самоуправляемых машин будет непросто, пишет издание «Элементы».


Фото: Jaguar Land Rover

Беспилотные автомобили, возможно, уже очень скоро начнут входить в наш обиход. Однако их разработка сталкивается с разнообразными моральными проблемами. В частности, неясно, как должны вести себя самоуправляемые автомобили в аварийных ситуациях, когда от решения, принятого искусственным интеллектом, зависит распределение рисков между людьми. Ожидается, что беспилотные автомобили будут попадать в такие ситуации реже, чем машины, управляемые живыми водителями. Но всё же иногда это обязательно будет происходить, а значит, искусственный интеллект должен быть готов к решению моральных дилемм в духе «Проблемы вагонетки».

Проблема вагонетки — мысленный эксперимент в этике, впервые сформулированный в 1967 году английским философом Филиппой Фут. Ее оригинальная формулировка звучит так: Тяжелая неуправляемая вагонетка несется по рельсам. На пути ее следования находятся пять человек, привязанные к рельсам сумасшедшим философом. К счастью, вы можете переключить стрелку — и тогда вагонетка поедет по другому, запасному пути. К несчастью, на запасном пути находится один человек, также привязанный к рельсам. Каковы ваши действия?

Чтобы оценить перспективы создания универсального «морального кода» для самоуправляемых машин, международная команда социологов, психологов и специалистов по искусственному интеллекту во главе с Иядом Рахваном (Iyad Rahwan) из Массачусетского технологического института запустила сетевой проект Moral Machine. Целью проекта является сбор мнений людей всего мира о том, какими моральными принципами должны руководствоваться беспилотные автомобили.

Во всех случаях пользователь должен указать, как следует поступить беспилотному автомобилю в критической ситуации с участием двух групп людей (или домашних животных). Каждая из двух групп включает от 1 до 5 персонажей. В зависимости от принятого решения одна из групп погибнет, а другая будет спасена.

В каждой дилемме участвует едущий по дороге беспилотный автомобиль, у которого внезапно отказали тормоза, а перед ним кто-то переходит дорогу (либо «законно», как на рис. 1, либо «незаконно» — на красный свет). В одних дилеммах искусственный интеллект должен выбрать, какую из двух групп пешеходов сбить (а пассажирам при этом ничто не угрожает), в других выбор осуществляется между гибелью пассажиров и пешеходов, как на рис. 1.

Персонажи, участвующие в дилеммах, различаются по полу, возрасту (младенцы в колясках, дети, взрослые, пожилые), физической форме (люди с избыточным весом, обычные люди и спортсмены), социальному статусу (бездомные, обычные люди и начальники) и видовой принадлежности (кроме людей, среди персонажей встречаются собаки и кошки). Программа генерирует дилеммы на основе алгоритма, позволяющего при анализе ответов по отдельности оценить влияние следующих девяти факторов:
1) действие или бездействие (продолжать движение по прямой или свернуть),
2) пассажиры или пешеходы (кого из них спасать),
3) пол жертв (спасать мужчин или женщин),
4) физическая форма (спасать толстяков, обычных людей или спортсменов),
5) социальный статус (спасать бездомных, простых людей или начальников),
6) соблюдение правил (спасать ли тех, кто переходит дорогу на красный свет),
7) возраст (спасать молодых или старых),
8) число жертв (спасать большую или меньшую из двух групп),
9) видовая принадлежность (спасать людей или домашних животных).

Исследователям удалось собрать почти 40 млн ответов (решений отдельных дилемм) от жителей 233 стран. Кроме того, большинство участников заполнили анкету, в которой указали свой возраст, пол, образование, ежегодный доход, отношение к религии и политические взгляды.

Респонденты сделали уверенный выбор в пользу спасения людей (а не собак и кошек) и больших групп (а не маленьких). Почти столь же уверенно участники опроса «проголосовали» за спасение молодых, законопослушных (переходящих дорогу на зеленый свет) и высокостатусных людей. Менее значимыми, но все же положительными факторами оказались хорошая физическая форма и принадлежность к женскому полу. Кроме того, респонденты были в среднем чуть более склонны делать выбор в пользу пешеходов (а не пассажиров) и в пользу того, чтобы автомобиль продолжал ехать прямо, а не сворачивал на другую полосу.


Изображение: Nature / elementy.ru

Исследователи не обнаружили достоверной связи между этическими предпочтениями респондентов и шестью учтенными индивидуальными характеристиками (пол, возраст, политические взгляды, религиозность, доход, образование).

Зато обнаружились интересные закономерности в распределении этических предпочтений по странам. В анализе было учтено 130 стран с числом респондентов не менее 100. Например, в странах Южного кластера сильны установки, требующие спасать в первую очередь женщин, детей и высокостатусных людей, тогда как жители стран Восточного кластера скорее отдадут предпочтение законопослушным (тем, кто переходит улицу на зеленый свет).


Изображение: Nature / elementy.ru

Все страны распались на три кластера, условно обозначенные исследователями как Западный, Восточный и Южный. Для трех кластеров характерны очень разные представления о том, как должны вести себя беспилотные машины в критических ситуациях. Например, в Южном кластере преобладают идеи о необходимости спасать прежде всего детей и женщин, тогда как жители Восточного кластера отдают предпочтение законопослушным пешеходам и не ставят жизнь молодых намного выше жизни старших.

Эти результаты подчеркивают то, что уже давно известно специалистам по изучению человеческой морали: этические установки, принятые в разных странах и регионах, далеко не универсальны. Поэтому разработать единый «моральный закон» для управляемых искусственным интеллектом машин будет очень непросто.

 
 
Чтобы разместить новость на сайте или в блоге скопируйте код:
На вашем ресурсе это будет выглядеть так
Исследование показало, что разработать универсальный "моральный закон" для самоуправляемых машин будет непросто.
 
 
 

РЕКЛАМА

Архив (Разное)

РЕКЛАМА


Яндекс.Метрика