🚗 В 2016 году в MIT запустили онлайн-тест Moral Machine. Пользователи принимали за беспилотную машину сложные решения. Кого спасать в аварийной ситуации — молодого или пожилого пешехода? Пешеходов или пассажиров? Детей или взрослых? Недавно разработчики теста опубликовали его результаты. Всего пользователи оставили 40 миллионов ответов. Люди со всего мира склонны спасать людей (а не животных), больше жизней (а не меньше) и детей (а не взрослых). Нашлись и локальные культурные отличия: пользователи из Азии менее склонны спасать молодых людей по сравнению с пожилыми. Также азиаты намного реже чем европейцы и американцы спасали состоятельных пешеходов (наверное, не ассоциируя себя с ними). Жители бедных стран намного реже выбирали вариант "сбить пешехода, который некорректно переходит дорогу". Возможно, правила поведения беспилотных машин на улицах будут отличаться в разных странах.

Разработчики теста создали на его основании систему для принятия этических решений. Правда, система получилась настолько же этичной, насколько и несколько миллионов случайных людей из интернета, желающих поиграться в машину-убийцу. Её решения отображают стереотипы общества: к примеру, она скорее убьет бездомного или преступника, чем обычного человека.

Классный проект от MIT — постройте свою моральную модель, сравните её с другими и узнайте, что для вас важнее: справедливость? Подчинение авторитету? Недопущение вреда?
— Интересный список проблем, с которыми столкнулись разработчики беспилотных машин
Что ещё почитать про беспилотные машины

https://www.theverge.com/2018/10/24/18013392/self-driving-car-ethics-dilemma-mit-study-moral-machine-results

Global preferences for who to save in self-driving car crashes revealed

Congratulations to: young people, large groups of people, and people who aren’t animals
| The Verge