Исследователи провели ряд экспериментов, которые показали, что манипуляции эффективны даже тогда, когда люди знают, что они смотрят на текст и изображения, сгенерированные искусственным интеллектом, сообщает Bloomberg.

Как отмечает Пэт Патаранутапорн из Медиа-лаборатории Массачусетского технологического института, манипуляция памятью вовсе не требует создания сложных фейков. Достаточно просто убедить людей, что они что-то читали или видели в прошлом.

"Люди обычно не ставят под сомнение собственную память", — отметил исследователь.

Патаранутапорн был ведущим автором трех экспериментов с памятью. Первый из них показал, что во время следствия чат-боты могут изменять показания свидетелей, просто встраивая ложную информацию в свои вопросы.

В этом эксперименте люди просматривали видеозапись вооруженного ограбления. Затем некоторым задавали вопросы, такие как: "Была ли камера наблюдения вблизи места, где грабители припарковали машину?" Около трети участников позже "вспомнили", что видели, как грабители приехали на машине, хотя на самом деле никакой машины на видео не было.

Участников разделили на три группы: одна не получала обманчивых вопросов, другая получала их в письменной форме, а третья получала их от чат-бота с ИИ. В результате группа чат-ботов сформировала в 1,7 раза больше ложных воспоминаний, чем те, кто получал обманчивую информацию в письменной форме.

Второй эксперимент показал, что ИИ может легко вставлять ложные воспоминания в историю, которую читают люди. Более того, по словам Патаранутапорна, люди, которые получали обманчивые конспекты или чаты с ИИ, запоминали меньше реальной информации из прочитанного и были менее уверенными в правдивой информации, которую они вспоминали.

Третье исследование продемонстрировало, как ИИ способен навязывать фальшивые воспоминания с помощью изображений и видео. Участников эксперимента разделили на 4 группы по 50 человек, а их задачей было рассматривали набор из 24 изображений. Это были как фото с новостных веб-сайтов, так и личные фотографии.

Во время повторного просмотра, каждой группе показали разные версии изображений. Одна группа видела те же фото. Вторая группа видела версии, измененные с помощью ИИ. Третья группа видела изображения, измененные ИИ, преобразованные в короткие видео, сгенерированные ИИ. Последняя группа просматривала полностью сгенерированные ИИ изображения, которые были преобразованы в видео, сгенерированные ИИ.

Как объясняют в издании, участников эксперимента не пытались убедить, что контент, созданный искусственным интеллектом, является реальным. Сначала им сказали, что они увидят контент, созданный искусственным интеллектом. В результате даже группа, которая видела оригинальные изображения, имела несколько ложных воспоминаний.

Однако наибольшие искажения памяти испытала группа, которая просматривала видео, сгенерированные ИИ, на основе изображений, сгенерированных ИИ. Остальные участники, подвергшиеся манипуляциям с искусственным интеллектом, также имели ложные воспоминания.

В ходе исследований более молодые люди продемонстрировали более высокую склонность к формированию ложных воспоминаний. При этом уровень образования, похоже, не влиял на восприимчивость дезинформации.