Ученые из университетов Рединга, Гринвича, Лидса и Линкольна выяснили, что всего пятиминутная краткая тренировка существенно повышает способность людей отличать настоящие лица от сгенерированных искусственным интеллектом, что особенно актуально в наша время. Исследование опубликовано в журнале Royal Society Open Science.
Обнаружение поддельных лиц
В эксперименте участвовали 664 человека, которым предлагалось определить, какие изображения являются реальными, а какие созданы программой StyleGAN3, одним из самых передовых инструментов генерации лиц. Без подготовки люди с обычными способностями правильно распознавали дипфейки лишь в 31% случаев, а особенно внимательные участники — 41%. Для сравнения, если участники угадывали вслепую, точность была около 50%.
После пятиминутного инструктажа, который объяснял, на какие ошибки компьютерной генерации обращать внимание, точность участников заметно возросла. Им показывали типичные признаки дипфейков: странные линии волос, странное освещение, необычное количество зубов, легкую асимметрию глаз или слишком ровные контуры лица. Особенно внимательные участники после обучения достигли 64% точности, а участники с обычными способностями — 51%.
«Сгенерированные компьютером лица представляют реальную угрозу безопасности. Их используют для создания фальшивых аккаунтов в соцсетях, обхода систем проверки личности, подделки документов и фейковых новостей.
Современные технологии искусственного интеллекта делают лица настолько реалистичными, что иногда люди воспринимают их как более настоящие, чем реальные», — отметила доктор Кэти Грей из Университета Рединга, ведущий автор исследования.
Как работает тренировка
Ключевой аспект тренировки заключается не в том, чтобы участники просто видели больше лиц, а в том, чтобы научиться замечать характерные особенности генерации. В инструкции рассказывалось, что компьютер часто допускает мелкие, но заметные несоответствия:
- неестественные волосы – отдельные пряди могут «плавать» в воздухе, а прическа иногда выглядит размыто или нарушает форму головы.
- странные зубы или рот – зубы могут быть неправильного размера или формы, а улыбка выглядит неестественной.
- асимметрия глаз и лица – глаза, брови и уши могут быть слегка искажены или не совпадать по высоте.
- искажения фона и теней – предметы за человеком или вокруг головы иногда «плывут» или имеют странные контуры.
- неестественная кожа – переходы света и тени на лице могут быть слишком гладкими, без естественных морщин или пятен.
- микромимика – движения губ, глаз и щек иногда не синхронизированы с выражением лица или с речью.
«Наша процедура обучения короткая и легко реализуемая», — добавила доктор Грей. «Она показывает, что сочетание базовой тренировки с естественными навыками суперраспознавателей помогает решать реальные задачи, такие как проверка личности онлайн».
Обучение одинаково улучшало результаты как у обычных участников, так и у суперраспознавателей, что говорит о том, что люди используют разные визуальные подсказки при распознавании синтетических лиц. Это открывает путь к созданию адаптивных методов обучения и подготовки специалистов, способных выявлять дипфейки в профессиональной среде.
Применение результатов
Результаты исследования имеют важное значение для онлайн-безопасности. Создание фальшивых профилей, использование дипфейков для мошенничества или обмана систем проверки личности становится все более распространенным. Тренировка позволяет людям быстрее идентифицировать поддельные лица, снижая риск обмана и повышая общую цифровую грамотность.
Исследователи также отмечают, что навыки людей, которые очень внимательны к лицам могут быть полезны в сочетании с программами автоматического выявления дипфейков.
«В будущем мы хотим изучить, насколько долго сохраняется эффект обучения и как подготовленные люди могут дополнить инструменты ИИ, создавая более надежные системы защиты», — подчеркнула доктор Грей.
Практические советы
-
Перед тем как доверять изображению или профилю, проверьте фон и свет – слишком ровная или размытая среда может быть сигналом дипфейка.
-
Обратите внимание на детали лица, которые трудно сымитировать ИИ: ресницы, уши, зубы, родинки.
-
Используйте сравнение с другими фото того же человека: несовпадения в структуре лица или особенностях внешности могут быть признаками подделки.
-
Пробуйте медленно просмотреть короткое видео человека, если есть возможность. Движения, моргание и мимика часто выдают подделку.
Ученые также подчеркивают, что даже пять минут подготовки помогают развить внимательность и тренируют глаз на обнаружение распространенных ошибок визуализации, что поможет распознавать реальность от фейка.
Цифровой двойник: как распознать дипфейк и не стать жертвой мошенников
Технологии искусственного интеллекта подарили миру не только умных помощников и реалистичных роботов, но и новую, почти неотличимую от реальности форму мошенничества — дипфейки. Поддельные видео- и аудиозаписи, где знакомый человек с экрана умоляет о срочной финансовой помощи, становятся инструментом массового обмана. Чтобы понять, как защитить себя и своих близких от этой угрозы, мы обратились к Василию Шутову, преподавателю кафедры КБ-1 «Защита информации» РТУ МИРЭА.
Дипфейк — это продукт машинного обучения, где нейросеть, изучив тысячи изображений и записей голоса конкретного человека, учится генерировать его цифровой аватар. «Мошенники используют видео, фото и информацию, которую находят в открытых источниках — сайтах, социальных сетях, различных обучающих видеозаписях», — поясняет Василий Шутов.
Чем больше цифрового материала человек оставляет о себе в сети, тем качественнее и правдоподобнее получится его дипфейк-двойник. Искусственный интеллект накладывает смоделированные черты лица и голос на тело актера, создавая иллюзию, которую мозг воспринимает как подлинную. «Изображение и звук настолько реалистичны, что отличить его от записи реального пользователя довольно сложно», — предупреждает эксперт.
Мифы и реальность: почему нас обманывает собственный мозг
Главное заблуждение жертв дипфейков — уверенность в том, что их никогда не обманут. Многие считают, что всегда смогут отличить подделку по неестественности изображения. Однако современные технологии уже преодолели этот барьер. «Технологии не стоят на месте и, к сожалению, качество поддельных изображений и голосовых сообщений тоже постоянно улучшается, так что распознать их становится все сложнее», — констатирует Шутов.
Ключевой инструмент мошенников — это не технологическое превосходство, а психологическая манипуляция. Они создают ситуацию, где важность и срочность просьбы (например, «помоги, я в беде, нужны деньги на лечение») подавляют критическое мышление. Человек, видя на экране панику близкого, действует на эмоциях, а не на логике. Именно на этот человеческий фактор и делают ставку злоумышленники.
Практическое применение: инструкция по цифровой самозащите
Защита от дипфейков — это многоуровневая система, начинающаяся с профилактики. Первое правило — цифровая гигиена. Ограничьте объем личной информации в открытом доступе, особенно видео, где вы говорите прямо в камеру.
Если вы получили подозрительное сообщение с просьбой перевести деньги, будьте особо бдительны: «Обращайте внимание на частоту моргания глаз, совпадение звуков и открывания рта человека на видео, а также на освещение, тени и предметы вокруг», — советует эксперт. Тусклые, плохо прорисованные глаза и зубы, размытые контуры — все это тревожные сигналы. Используйте видеоредакторы, чтобы увеличить изображение и рассмотреть детали. Самый надежный способ проверить подлинность в реальном времени — позвонить обратно и задать контрольный вопрос, который не был запрограммирован в сценарии мошенников.
Никогда не переходите по ссылкам из таких сообщений и не вводите данные на незнакомых сайтах. Проверяйте адресную строку браузера на наличие значка «замка», означающего SSL-сертификат. «Позвоните в организацию или человеку, от имени которых пришло сообщение, и уточните информацию», — это золотое правило, которое спасет ваш бюджет.