Обучение психологии онлайн
Воронежский Институт Психологии >

Некоторое время ограничения в технологиях приводили к тому, что аниматоры и исследователи могли создавать только человекоподобные лица, которые казались немного «не такими».

Такие фильмы, как «Полярный экспресс» 2004 г., вызывали у некоторых зрителей беспокойство, поскольку лица персонажей выглядели почти человеческими, но не совсем, и поэтому они вызывали так называемый эффект «зловещей долины». Это когда искусственные лица (или роботы в целом) выглядят все более антропоморфными и очень похожими на нас, но при этом сохраняют признаки искусственности, вызывая дискомфорт или даже отвращение.

Последние достижения в области технологий искусственного интеллекта (ИИ) означают, что мы действительно преодолели этот эффект «зловещей долины». Искусственные лица теперь кажутся такими же реальными, как и настоящие, если даже не больше.

Возможно, вы сталкивались с сайтом ThisPersonDoesNotExist.com. Многократно посещая этот сайт, можно сгенерировать неограниченное количество изображений лиц, ни одно из которых не принадлежит реальному человеку.

Вместо этого синтетические лица создаются с помощью алгоритма искусственного интеллекта, известного как «генеративная состязательная сеть» (generative adversarial network). Он состоит из двух нейронных сетей: по сути, компьютерных моделей, вдохновленных тем, как нейроны связаны между собой в мозге.

Эти сети конкурируют между собой. Одна генерирует новые, правдоподобные изображения (в данном случае — лица), а другая пытается отличить настоящие изображения от поддельных. Посредством обратной связи генератор учится создавать все более убедительные изображения, которые дискриминатор не может распознать как подделку.

Используя большой набор реальных фотографий вместе с изображениями, полученными генератором, система в конечном итоге учится создавать новые реалистичные примеры лиц. Последний генератор и создает изображения, которые можно увидеть на сайте.

Исследователи обнаружили, что люди, которым показывают синтетические лица вперемешку с реальными, с трудом различают их. По данным одного из исследований, участники правильно классифицировали лица только в 48,2% случаев, что несколько хуже, чем при случайном угадывании (которое дало бы 50% точности). Кроме того, они оценивали синтетические лица как более достоверные, чем реальные.

В другом исследовании было обнаружено, что синтетические лица оцениваются как более реальные, чем фотографии реальных лиц. Возможно, это связано с тем, что поддельные лица часто выглядят несколько более среднестатистическими или типичными, чем настоящие (которые, как правило, более характерны), в результате чего генератор усваивает, что такие лица лучше обманывают дискриминатор.

Бессознательное восприятие в мозге

В другом недавнем исследовании ученые из Австралии глубже изучили нашу способность различать реальные и искусственные лица. В первом эксперименте онлайн-участники не смогли различить два типа лиц и вновь восприняли искусственные лица как более реальные, чем настоящие.

Однако во втором эксперименте все оказалось иначе. Новую выборку участников, на этот раз лабораторную, попросили надеть на голову шапочки для электроэнцефалографии (ЭЭГ). Электроды, закрепленные на шапочках, измеряли электрическую активность мозга участников.

В ходе выполнения задания участникам в быстрой последовательности предъявлялись различные лица, и в то же время их просили нажимать кнопку, когда белый круг (изображенный поверх лиц) становился красным. Таким образом, внимание участников было сосредоточено на центре экрана, где находились изображения.

Результаты ЭЭГ-тестирования показали, что активность мозга различается, когда люди смотрят на реальные и синтетические лица. Это различие проявлялось примерно через 170 миллисекунд после первого появления лица на экране.

Этот компонент электрического сигнала N170, как известно, чувствителен к конфигурации лица (т.е. к расположению и расстоянию между чертами лица). Поэтому одно из объяснений может заключаться в том, что синтетические лица воспринимались как неуловимо отличающиеся от реальных в плане расстояния между такими чертами, как глаза, нос и рот.

Эти результаты позволяют предположить, что существует различие между тем, как мы себя ведем, и тем, что «знает» наш мозг. С одной стороны, участники эксперимента не могли сознательно отличить синтетические лица от реальных, но, с другой стороны, их мозг мог распознать разницу, о чем свидетельствовала активность их ЭЭГ.

Хотя может показаться удивительным, что у мозга есть доступ к информации, которая находится за пределами нашего сознания, в психологии существует множество примеров подобного рода.

Например, слепое зрение — это состояние, обычно встречающееся у людей, которые слепы в одной половине поля зрения. Несмотря на это, они могут реагировать на объекты, расположенные с их слепой стороны, которые они не осознают.

Исследования также показали, что наше внимание привлекают изображения обнаженных людей, даже если мы не осознаем, что видим их. Все мы слышали о концепции подсознательной рекламы, хотя лабораторные эксперименты не подтверждают, что она действительно работает.

Теперь, когда синтетические лица создаются так легко и так же убедительно, как настоящие фотографии, мы должны быть обеспокоены появлением фальшивых аккаунтов в Интернете, фальшивых новостей и т.д. Подобное развитие технологий искусственного интеллекта будет иметь серьезные последствия в ближайшем будущем. Поэтому необходимо предусмотреть меры предосторожности, чтобы снизить риск этих опасностей.

Возможно, те сигналы, которые наш мозг использует при распознавании синтетических лиц, пригодятся в ближайшие годы для разработки способов выявления подделок.

 

Оригинальная статья: Robin Kramer – AI-generated faces look just like real ones – but evidence shows your brain can tell the difference, November 2023

Перевод: Остренко Анна Александровна

Редакторы: Симонов Вячеслав Михайлович, Шипилина Елена Ивановна

Источник изображения: unsplash.com

Ключевые слова: психология, ИИ, искусственный интелелкт, мозг, лица, deepfake, дипфейк, нейроны.

65510cookie-checkМозг может отличить лица, сгенерированные ИИ