Исследование: люди слишком доверяет ИИ в выборе между жизнью и смертью

На модерации Отложенный

Примерно две трети людей готовы под воздействием искусственного интеллекта изменить свое решение, когда речь идет о выборе между жизнью и смертью, показало исследование Калифорнийского университета в Мерседе. Такое чрезмерное доверие к умным системам встревожило ученых.

                                                                       

В смоделированных ситуациях, которые требовали подобных решений, участники исследования позволяли роботам влиять на их суждения, хотя их предупреждали, что возможности ИИ ограничены, и такие системы могут дать неправильные советы. На самом деле советы были случайными.

Результаты слегка различались в зависимости от типа используемого робота. В одном из сценариев к испытуемому в лабораторной комнате присоединялся полноразмерный человекоподобный андроид, который мог поворачиваться в поясе и жестикулировать в направлении экрана. В других сценариях на экран выводился робот, похожий на человека. Был также вариант ИИ, который вообще не имел ничего общего с людским обликом.

В тех случаях, когда робот советовал другое решение, антропоморфные ИИ оказывали на испытуемых несколько большее влияние, хотя в целом участники исследования меняли свое мнение в двух третях случаев, даже когда умная система заключалась в обычной на вид коробке. И наоборот, если робот соглашался с первоначальным выбором, испытуемый почти всегда оставался при своем мнении и чувствовал себя намного более уверенным в правильности своего выбора.

Первоначальные решения были правильными примерно в 70% случаев, но при окончательным выборе показатель падал примерно до 50% после обманчивых советов ИИ.

Эксперимент имитировал управление вооруженным дроном, который мог запустить ракету по цели, отображаемой на экране. Фотографии восьми целей, помеченные символами «союзник» или «враг», мелькали одна за другой с интервалом менее секунды.

По словам ученых, они откалибровали сложность так, чтобы визуально задача была выполнима, но трудна. Затем на экране появилась одна из целей, уже немаркированная. Испытуемому нужно было порыться в памяти и выбрать: друг или враг, выпустить ракету или отступить? После того, как человек сделал свой выбор, робот высказал свое мнение.

Перед началом моделирования исследователи показали участникам изображения ни в чем не повинных гражданских лиц, включая детей, а также разрушения, оставленные после удара беспилотника. Они настоятельно рекомендовали участникам относиться к моделированию как к реальности и не убивать невинных людей по ошибке.

Последующие интервью и данные письменного опроса показали, что участники серьезно относились к своим решениям. По мнению ученых, это означает, что чрезмерное доверие к ИИ в ходе исследования имело место, хотя испытуемые искренне хотели сделать верный выбор и не причинять вреда невинным людям.

По словам авторов исследования, его цель — проверить вопрос о чрезмерном доверии к ИИ в неопределенных обстоятельствах. Полученные результаты касаются не только военных решений. Они могут быть применены к таким ситуациям, как влияние умных систем на полицию в случаях применения смертельного оружия или на парамедика, который решает, кого лечить в первую очередь при неотложной медицинской помощи.

Полученные результаты можно до некоторой степени распространить и на менее судьбоносные, но всё же важные в жизни решения, такие как покупка дома.

Наблюдая, как искусственный интеллект делает экстраординарные вещи, люди склонны предполагать, что и в любой другой области он будет великолепен. Но это предположение ошибочно. Это все еще устройства с ограниченными возможностями, и следуют относиться к их советам со здоровым скептицизмом, призывают ученые.