Некоторые специалисты утверждают, что роботы не имеют свободной воли и поэтому не могут нести моральную ответственность за свои действия. Однако психологи из Университета Вашингтона обнаружили, что отношение людей к этой проблеме однозначно и весьма предвзято. Экспериментальные исследования показывают, что люди наделяют роботов ограниченной моралью и легко возлагают вину на машину.

В исследовании американских ученых участвовали 40 студентов, которым надо было за 2 минуты найти определенные предметы в комнате. По условиям приз в $20 получали те, кто находил не менее 7 предметов. Контроль за выполнением задания осуществлял гуманоидный робот Robovie. Студентам сказали, что робот действует автономно, хотя на самом деле им управляли лаборанты из соседней комнаты.

Электроника
Биотехнологии
Нанотехнологии
Транспорт
Энергетика
Робототехника
Авиация и космос
ГИС и GPS
Оптика
Связь

Китайцы хотят стать вторыми на ЛунеКитайцы хотят стать вторыми на Луне

В Южном Китае обнаружен ранее неизвестный вид людейВ Южном Китае обнаружен ранее неизвестный вид людей

Найдено решение главной проблемы термоядерного синтеза

Стало известно, почему после холодной еды болит голова

Вину за убийство людей возьмут на себя роботы

Результаты расследования: гиперзвуковой бомбардировщик "подпалил шкуру"
Вину за убийство людей возьмут на себя роботы

Версия для КПК | Распечатать

Психология Робототехника
26.04.12, Чт, 17:45, Мск

В настоящее время успехи в разработке автономных боевых роботов создают новые этические проблемы и ставят вопросы по использованию автоматов в условиях реального боя. Если робот в бою по ошибке или в связи с неисправностью оборудования убьет мирных жителей, кто будет виноват – разработчики, военные, сама машина?

Некоторые специалисты утверждают, что роботы не имеют свободной воли и поэтому не могут нести моральную ответственность за свои действия. Однако психологи из Университета Вашингтона обнаружили, что отношение людей к этой проблеме однозначно и весьма предвзято. Экспериментальные исследования показывают, что люди наделяют роботов ограниченной моралью и легко возлагают вину на машину.

В исследовании американских ученых участвовали 40 студентов, которым надо было за 2 минуты найти определенные предметы в комнате. По условиям приз в $20 получали те, кто находил не менее 7 предметов. Контроль за выполнением задания осуществлял гуманоидный робот Robovie. Студентам сказали, что робот действует автономно, хотя на самом деле им управляли лаборанты из соседней комнаты.

После того, как участники немного пообщались с роботом, начался поиск предметов. Каждый студент нашел минимум 7 предметов, но робот утверждал, что найдено только 5 предметов, а значит денежный приз не положен.

В итоге большинство людей начинали спорить с Robovie, а некоторые даже обвиняли робота в лжи. В опросе 65 % участников заявили, что Robovie виноват в ошибочном ведении счета и несправедливо лишил их денежной премии.

Эксперимент подтверждает тот факт, что люди, взаимодействующие с роботом, склонны возлагать на него ответственность за вред, который он наносит. В данном случае ущерб был финансовым и не опасным для жизни. Тем не менее, эксперимент показывает, как люди реагируют на ошибки роботов. Полученные результаты означают, что по мере совершенствования роботов, люди склонны возлагать на них моральную ответственность, частично снимая ее с оператора и разработчика.

В результате на поле боя роботы получат большую свободу, поскольку моральная ответственность для машины, естественно, ничего не значит. Применение оружия в автоматическом режиме частично снимает груз ответственности с солдата и снижает силу негативной реакции общественности. К сожалению, на практике это будет означать повышенный риск для гражданского населения и неслыханную легкость в решении начать боевые действия. В ограниченном масштабе мы это можем видеть на примере действия американских беспилотников в Йемене и Пакистане.

Поделиться
Комментарии