Обучение психологии онлайн
Воронежский Институт Психологии >

ИИ уже давно превзошел человека в когнитивных вопросах, которые когда-то считались высшими дисциплинами человеческого интеллекта, такими как игры в шахматы или го. Некоторые даже считают, что он превосходит человека в навыках эмпатии. Это не просто рекламные заявления компаний: эмпирические исследования показывают, что люди воспринимают ChatGPT в определенных ситуациях в больнице как более эмпатичного, чем медицинский персонал. Значит ли это, что ИИ действительно способен сопереживать?

Определение эмпатии

Будучи философом с психологическим образованием, я определяю подлинную эмпатию в соответствии с тремя критериями:

Конгруэнтность чувств: благодаря эмпатии человек сопереживает и чувствует, каково это — испытывать эмоции другого в конкретной ситуации. Это отличает эмпатию от простого рационального понимания эмоций.

Асимметрия: человек, испытывающий эмпатию, чувствует  эмоцию только потому, что ее испытывает другой человек, и она более уместна в ситуации другого, чем в его собственной. По этой причине эмпатия — это не просто общая эмоция, как, например, общая радость родителей по поводу успехов их отпрысков, где условие асимметрии не выполняется.

Осознание другого: необходимо хотя бы зачаточное понимание того, что эмпатия связана с чувствами другого человека. Это объясняет разницу между эмпатией и эмоциональным заражением, которое происходит, когда человек заражается каким-то чувством или эмоцией, как простудой. Это происходит, например, когда дети начинают плакать, увидев, как плачет другой ребенок.

ИИ Эмпат или психопат?

Исходя из этого определения, становится ясно, что искусственные системы не могут испытывать эмпатию. Они не знают, каково это — чувствовать что-либо. Это означает, что они не могут выполнить условие конгруэнтности. Следовательно, вопрос о том, соответствует ли то, что они чувствуют, условию асимметрии и осознанию другого, даже не возникает. Что могут делать искусственные системы, так это распознавать эмоции, будь то по выражению лица, голосовым сигналам, физиологическим паттернам или аффективным значениям. Они могут имитировать эмпатическое поведение с помощью речи или других способов эмоционального выражения.

Таким образом, искусственные системы демонстрируют сходство с тем, что здравый смысл называет психопатом. Несмотря на неспособность к эмпатии, психопаты способны распознавать эмоции по объективным признакам, имитировать эмпатию и использовать эту способность в манипулятивных целях. В отличие от психопатов, искусственные системы не ставят перед собой подобные цели сами, а лишь выполняют задачи, заложенные разработчиками. Так называемый эмпатический ИИ часто должен заставить нас вести себя желаемым образом, например, не расстраиваться за рулем, учиться с большей мотивацией, работать продуктивно, покупать определенный товар или голосовать за определенного политического кандидата. Но разве не все зависит от того, насколько хороши цели, для которых используется имитирующий эмпатию ИИ?

ИИ, имитирующий эмпатию, в контексте ухода и психотерапии

Возьмем уход и психотерапию, которые направлены на поддержание благополучия людей. Вы можете подумать, что использование эмпатийно-симулирующего ИИ в этих областях, безусловно, хорошо. Разве они не станут прекрасными сиделками и компаньонами для пожилых людей, любящими партнерами для инвалидов или идеальными психотерапевтами, которые могут быть доступны 24 часа в сутки 7 дней в неделю?

Такие вопросы в конечном итоге касаются того, что значит быть человеком. Достаточно ли одинокому, старому или психически нездоровому человеку проецировать эмоции на артефакт, лишенный чувств, или важно, чтобы человек испытывал признание себя и своих страданий в межличностных отношениях?

Уважение или техника?

С этической точки зрения, вопрос уважения заключается в том, есть ли кто-то, кто эмпатически признает потребности и страдания человека как таковые. Лишая человека признания со стороны другого субъекта, с ним, нуждающимся в уходе, дружеском общении или психотерапии, обращаются как с простым объектом, поскольку в конечном итоге это основано на предположении, что не имеет значения, действительно ли кто-то выслушивает человека. У них нет моральных притязаний на то, что их чувства, потребности и страдания воспринимаются кем-то, кто действительно может их понять. Использование искусственного интеллекта, имитирующего эмпатию, в уходе и психотерапии — это, в конечном счете, еще один случай технологического растворизма, то есть наивного предположения, что для каждой проблемы, включая одиночество и психические проблемы, существует технологическое решение. Передача этих проблем искусственным системам мешает нам увидеть социальные причины одиночества и психических расстройств в более широком контексте общества.

Кроме того, создание искусственных систем, которые будут выглядеть как кто-то или что-то, испытывающее эмоции и сопереживающее, означает, что такие устройства всегда будут иметь манипулятивный характер, потому что они обращаются к очень подсознательным механизмам антропоморфизации. Этот факт используется в коммерческих приложениях, чтобы заставить пользователей разблокировать платный премиум-уровень, либо клиенты платят своими данными. Обе эти практики особенно проблематичны для уязвимых групп, о которых здесь идет речь. Даже люди, не принадлежащие к уязвимым группам и прекрасно понимающие, что у искусственной системы нет чувств, все равно будут реагировать на нее эмпатически, как если бы они у нее были.

Эмпатия к искусственным системам — слишком человеческое явление

Хорошо изучен феномен, когда люди реагируют с эмпатией на искусственные системы, которые демонстрируют определенные человеческие или животные характеристики. Этот процесс в значительной степени основан на перцептивных механизмах, не доступных сознанию. Восприятие признака того, что другой человек испытывает определенное чувство, вызывает у наблюдателя соответствующую эмоцию. Таким знаком может быть типичное поведенческое проявление эмоции, выражение лица или событие, которое обычно вызывает определенное переживание. Данные МРТ-сканирования мозга показывают, что те же нейронные структуры активизируются, когда люди испытывают эмпатию к роботам.

Хотя эмпатия, возможно, не является строго необходимым условием морали, она играет важную роль. По этой причине наша эмпатия по отношению к человекоподобным (или животноподобным) роботам накладывает, по крайней мере, косвенные моральные ограничения на то, как мы должны обращаться с этими машинами. Морально неправильно привычно обращаться с роботами, вызывающими эмпатию, поскольку это негативно сказывается на нашей способности чувствовать эмпатию, которая является важным источником моральных суждений, мотивации и развития.

Означает ли это, что мы должны создать лигу защиты прав роботов? Это было бы преждевременно, поскольку роботы сами по себе не имеют моральных претензий. Эмпатия к роботам имеет лишь косвенное моральное значение из-за ее влияния на человеческую мораль. Однако нам следует тщательно продумать, нужны ли нам роботы, имитирующие и вызывающие эмпатию у человека, и в каких областях, поскольку в случае их повсеместного распространения мы рискуем исказить или даже разрушить наши социальные практики.

 

 

Оригинальная статья: Catrin Misselhorn – ‘Empathetic’ AI has more to do with psychopathy than emotional intelligence – but that doesn’t mean we can treat machines cruelly, February 2024

Перевод: Остренко Анна Александровна

Редакторы: Симонов Вячеслав Михайлович, Шипилина Елена Ивановна

Источник изображения: unsplash.com

Ключевые слова: психология, семья, отношения, волнение, социальная психология, отказ, праздники, вечеринки, друзья, новые исследования

66800cookie-check«Эмпатичный» ИИ больше схож с психопатией, чем с эмоциональным интеллектом, но это не оправдывает жестокое обращение с машинами