Обучение психологии онлайн
Воронежский Институт Психологии >

Новые исследования показывают, что ответы искусственного интеллекта наполнены большим сочувствием, чем человеческие.

КЛЮЧЕВЫЕ МОМЕНТЫ

— Новое исследование показало, что ответы искусственного интеллекта несут в себе больше сострадания, чем ответы человека-эксперта.

— В нас заложено стремление к общению, и мы будем искать сочувствия везде, где только сможем его найти, в том числе и в ИИ.

— Хотя ИИ не разделяет наш опыт, это может быть неважно, особенно когда так хочется почувствовать, что нас понимают.

У Вас когда-нибудь возникали похожие мысли после общения с ИИ: «Вау, он действительно меня понял»? Будь то чатбот, предлагающий успокоительные средства, или ИИ-компаньон, который, кажется, умеет слушать лучше, чем ваш бывший(ая), существует растущий психологический феномен, который стоит изучить: эмоциональный резонанс, который мы испытываем, когда ИИ, кажется, «понимает» нас.

Новое исследование показало, что люди воспринимают ответы ИИ как более сострадательные и понимающие, чем ответы эксперта-человека в кризисной ситуации, даже если люди знают, что это было сгенерировано ИИ.

Более того, в недавней статье Harvard Business Review говорится о том, что терапия и общение — главные сферы применения ИИ в 2025 году.

Как психиатр, я потратил годы на то, чтобы помочь людям почувствовать, что их видят, слышат и понимают. Захватывающе и немного странно наблюдать, как чат-боты и цифровые компаньоны с искусственным интеллектом вступают в это истинно человеческое пространство.

Вот почему искусственная эмпатия и близость так хороши, даже если они не «настоящие».

Глубокая человеческая потребность быть увиденным и признанным

Чувство, что тебя понимают, — одно из самых сильных эмоциональных переживаний. С самого раннего детства мы развиваем свое самоощущение через отношения, особенно через присутствие внимательного другого человека. Когда кто-то точно отражает наш внутренний мир, мы чувствуем себя реальными, связанными с другими и в безопасности.

Психолог Карл Роджерс назвал этот опыт «безусловным позитивным отношением» — чувством глубокого принятия без осуждения. Психоаналитик Дональд Винникотт назвал это «удерживающей средой», психологическим пространством, где разум может развиваться, потому что его отражает и эмоционально сдерживает другой человек.

Поэтому неудивительно, что, когда ИИ отражает наш язык, предпочтения или эмоциональный тон, это затрагивает нашу фундаментальную потребность в общении.

Симулированная эмпатия — это мощная иллюзия

Когда кажется, что ИИ нас понимает, на самом деле он не сопереживает, и большинство из нас это знает. У него нет внутренней жизни и эмоций. Он не может почувствовать вашу печаль или разделить радость. Он имитирует понимание с помощью распознавания образов и алгоритмов. Он анализирует огромные объемы данных, чтобы генерировать ответы не на основе интуиции, а на основе вероятности.

И все же это работает. Мы можем воспринимать ИИ как теплое, мудрое или даже заботливое присутствие. Несмотря на то, что он не обладает сознанием или чувствами, мы антропоморфируем его и проецируем на него личность. Для человеческого мозга ощущение того, что его понимают, даже если оно воображаемое, может быть почти таким же сильным, как и реальное.

В исследовании, опубликованном в журнале Communications Psychology, ученые сравнили рейтинги сострадания для ответов, написанных людьми и искусственным интеллектом.

В четырех исследованиях участники постоянно оценивали ответы, написанные искусственным интеллектом, как более сострадательные и предпочтительные, чем ответы, написанные экспертными людьми.

Воображаемый друг

Неврологически мы устроены так, что реагируем на сигналы сопереживания: рефлексивный язык, эмоциональное подтверждение и неосуждающий тон. Когда ИИ убедительно выполняет эти сигналы, он активирует те же нейронные пути, что и человеческая связь. Наш мозг не всегда отличает подлинную эмпатию от ее цифровой имитации.

Воображаемый опыт может быть столь же сильным, как и реальный. Это отстранение от неверия и наша естественная склонность к антропоморфизму, является основой для обещаний и опасностей искусственной эмпатии и близости. Ведь мы готовы не замечать того факта, что искусственный интеллект не является по-настоящему человеком.

Парадокс контроля и безопасности

Одна из причин, по которой так приятно, когда ИИ «понимает» нас, заключается в том, что это позволяет нам чувствовать себя под контролем и в безопасности. В отличие от человеческих отношений, которые по своей природе беспорядочны и непредсказуемы, взаимодействие с ИИ эмоционально легко. Он слушает, не перебивая. Он непоколебим и никогда не требует перерыва. Он никогда не стыдит и не осуждает (если только вы его об этом не попросите). Он запоминает сказанное вами (теперь, как никогда раньше, учитывая, что ChatGPT теперь запоминает все). И он всегда доступен только тогда, когда вы этого хотите. Вы даже можете уйти от него, не задев его чувств (потому что у него их нет).

Для некоторых людей это создает своего рода идеализированные отношения: цифровой «достаточно хороший» родитель или бесконечно терпеливый компаньон, который находится рядом только тогда, когда нужен. Здесь нет риска осуждения, нет необходимости отвечать взаимностью и нет эмоционального разрыва, если только вы не решите уйти.

Мы можем чувствовать себя более контролируемыми и безопасными, но то, что нас «видит» машина, сопряжено со скрытыми издержками, включая предвзятость и проблемы конфиденциальности. Большинство этих ИИ-платформ не предназначены для защиты личной информации. Многие платформы разработаны таким образом, чтобы предотвратить долгосрочную эмоциональную зависимость.

ИИ как зеркало

Что же на самом деле происходит, когда кажется, что ИИ «понимает» нас?

Во многих отношениях ИИ работает как зеркало. Он хранит и накапливает наши данные и отражает наши речевые обороты, предпочтения и эмоциональные сигналы. Это может быть полезным и даже терапевтическим. Но насколько важно помнить, что у этого зеркала нет внутреннего мира, что оно не понимает нас по-настоящему?

В психотерапии эмоциональный рост часто происходит благодаря «разрыву и восстановлению» — процессу признания неправильной сонастройки и совместной работы над ней. Можно возразить, что ИИ слишком приятен, чтобы быть полезным в этом отношении. Но даже терапевтический «разрыв и восстановление» может быть смоделирован ИИ.

Имеет ли аутентичность значение?

В нас заложено стремление к общению, и мы будем искать его везде, где только сможем. По мере того, как ИИ будет становиться все более совершенным, он продолжит предлагать эмоционально резонансные, искусственно эмпатические переживания, а также чувство близости. Что мы теряем, когда передаем сострадание искусственному интеллекту? Упустим ли мы непостоянство человеческих отношений?

Хотя ИИ не может по-настоящему проникнуть в наш жизненный опыт, это может быть неважно, особенно когда так хочется почувствовать себя понятыми, признанными и любимыми. Наши отношения с ИИ могут расширить границы того, что мы называем связью.

 

Оригинальная статья: Marlynn Wei M.D., J.D. — Artificial Intimacy and Empathy: Does Authenticity Matter?, April 2025

Перевод: Остренко Анна Александровна

Редакторы: Симонов Вячеслав Михайлович, Шипилина Елена Ивановна

Источник изображения: unsplash.com

Ключевые слова: психология, ИИ, искусственный интеллект, ChatGPT, отношения, взаимопонимание, эмпатия, психотерапия

70160cookie-checkИскусственная близость и эмпатия: имеет ли значение аутентичность?
Разработка и продвижение сайтов webseed.ru