Обучение психологии онлайн
Воронежский Институт Психологии >

Даже если люди рассматривают помощников на базе ИИ просто как инструменты, они все равно возлагают на эти системы частичную ответственность за принятые решения.

В исследовании изучалось восприятие ответственности, когда человек использовал помощника с искусственным интеллектом в сравнении с навигационным прибором без ИИ. Участники сочли ИИ-помощников частично ответственными как за успехи, так и за неудачи, хотя и утверждали, что эти системы являются всего лишь инструментами.

Исследование проливает свет на то, как люди применяют нормы морали для похвалы и порицания, когда ИИ участвует в принятии решений.

Ключевые факты

  1. Участники исследования рассматривали ИИ-помощников как частично ответственных за результаты, в отличие от инструментов без ИИ.
  2. Исследование показало, что ИИ-помощников чаще хвалят за положительные результаты, чем порицают за отрицательные.
  3. Способ взаимодействия, вербальный или тактильный, не оказывал существенного влияния на восприятие людьми ответственности ИИ-помощника.

По результатам нового исследования даже, когда люди воспринимают помощников на базе ИИ исключительно как инструменты, они возлагают на них частичную ответственность за принятие решений.

В будущем системы на базе ИИ смогут автономно управлять автомобилями в пробках без участия человека. Исследования показали, что люди считают такие футуристические ИИ-системы такими же ответственными, как и люди, когда они принимают решения по автономному движению. Однако реальные ИИ-помощники далеки от такого рода автономности.

Они предоставляют пользователям вспомогательную информацию, например, навигационные и водительские подсказки. Так кто же несет ответственность в этих реальных случаях, когда что-то идет не так, как надо? Пользователь или помощник ИИ?

Группа специалистов под руководством Луи Лонгина с кафедры философии разума изучила, как люди оценивают ответственность в подобных случаях.

«У каждого из нас в кармане есть умный помощник», — подчеркивает Лонгин.

«Однако большая часть имеющихся у нас экспериментальных данных о разрывах ответственности посвящена роботам или автономным транспортным средствам, где ИИ буквально находится на водительском месте, принимая решения за нас. Но нам крайне необходимо исследование случаев, когда мы все еще сами принимаем окончательное решение, но используем ИИ как сложный инструмент».

Философ Лонгин, специализирующийся на взаимодействии человека и ИИ, в сотрудничестве со своим коллегой доктором Бахадором Бахрами и профессором Офелией Дерой, заведующей кафедрой философии сознания, изучил, как 940 участников оценивают водителя-человека, который использует вербального или тактильного помощника ИИ, а также навигационный прибор без ИИ. Участники также указали, считают ли они навигационный помощник ответственным, и в какой степени он является инструментом.

Амбивалентный статус помощников с ИИ

Полученные результаты свидетельствуют об амбивалентности. Участники категорически утверждали, что интеллектуальные помощники — это всего лишь инструмент, но при этом считали их отчасти ответственными за успехи или неудачи водителей-людей, которые прибегали к их помощи. Подобного разделения ответственности в отношении приборов, не оснащенных искусственным интеллектом, не произошло.

Не менее удивительным для авторов оказалось и то, что «умные» помощники считались более ответственными за положительные, а не отрицательные результаты.

«Люди могут применять разную оценку для похвалы и порицания. Когда авария предотвращена и не нанесен ущерб, оценка повышается, и людям легче возлагать на нечеловеческие системы похвалу, чем вину», — предполагает доктор Бахрами, эксперт по коллективной ответственности.

Язык не имеет значения

В ходе исследования авторы не обнаружили разницы между умными помощниками, которые использовали речь, и теми, которые оповещали пользователей тактильной вибрацией.

«В данном случае оба предоставляли одинаковую информацию: «Осторожно! Впереди что-то есть!» Но, конечно, ChatGPT на практике дает гораздо больше информации», — отмечаетОфелия Дерой, чье исследование рассматривает наше противоречивое отношение к искусственному интеллекту как разновидность анимистических верований.

Относительно дополнительной информации, предоставляемой такими системами ИИ на основе новых языков, как ChatGPT, Дерой добавляет: «Чем плотнее взаимодействие, тем легче его обучить и очеловечить».

«В целом наши результаты подтверждают идею о том, что ИИ-помощники рассматриваются как нечто большее, чем просто инструменты рекомендаций, но тем не менее остаются далекими от человеческих стандартов», — подчеркивает Лонгин.

Авторы считают, что результаты нового исследования окажут далеко идущее влияние на разработку и общественный дискурс вокруг ИИ-помощников: «Организациям, разрабатывающим и выпускающим «умных» помощников, следует задуматься о том, как это отразится на социальных и этических нормах», — заключает Лонгин.

 

Оригинальная статья: Who’s to Blame? How We Perceive Responsibility in Human-AI Collaborations, August 2023

Перевод: Остренко Анна Александровна

Редакторы: Симонов Вячеслав Михайлович, Шипилина Елена Ивановна

Источник изображения: unsplash.com

Ключевые слова: психология, ИИ, ChatGPT, ответственность, умный помощник, навигация, человек.

64760cookie-checkКого винить? Кто несет ответственность: человек или ИИ