
Современные технологии deepfake достигли нового уровня реалистичности — теперь они могут непреднамеренно копировать даже тонкие изменения цвета кожи, связанные с сердцебиением. Это открытие международной группы исследователей ставит под сомнение эффективность существующих методов обнаружения поддельных видео.
Крах надежного метода
Долгое время эксперты по кибербезопасности считали анализ сердечного ритма (rPPG) надежным способом выявления дипфейков. Метод основан на обнаружении микроскопических изменений цвета кожи, вызванных пульсацией крови. Поскольку ИИ не был специально запрограммирован на воспроизведение этих физиологических сигналов, считалось, что поддельные видео их лишены.
Однако новое исследование, опубликованное в Frontiers in Imaging, показывает, что современные алгоритмы создания дипфейков сохраняют паттерны сердцебиения из исходных видео. В ходе экспериментов ученые создали 858 deepfake-видео с помощью различных методов, включая систему с двумя декодерами и инструмент DeepFaceLive для замены лиц в реальном времени.
Неожиданные результаты
Анализ показал, что:
- В 100% случаев дипфейки сохраняли сигналы сердечного ритма
- Корреляция с оригинальными сигналами достигала 0,85 для некоторых методов
- Наиболее точное воспроизведение наблюдалось в видео, созданных DeepFaceLive
"Это похоже на то, как если бы подделка случайно копировала водяные знаки с оригинала", — поясняет профессор Питер Эйсерт из Университета Гумбольдта.
Последствия для безопасности
Открытие имеет серьезные последствия:
1. Традиционные системы обнаружения становятся менее эффективными
2. Биометрическая аутентификация на основе rPPG требует пересмотра
3. Методы цифровой криминалистики нуждаются в обновлении
"Мы теряем один из последних надежных маркеров подлинности видео", — отмечает эксперт по кибербезопасности София Нотон.
Новые подходы к обнаружению
Исследователи предлагают перейти от простого обнаружения пульса к анализу:
- Распределения кровотока по различным зонам лица
- Динамики изменений цвета кожи в разных спектрах
- Соотношения сигнал/шум в физиологических сигналах
Хотя дипфейки сохраняют сердечный ритм, качество сигнала в них в среднем на 1,38 дБ хуже, чем в оригинальных видео. Это открытие может стать основой для новых алгоритмов обнаружения.
Гонка вооружений продолжается
Эволюция дипфейков:
2018 — Видимые артефакты, неестественная мимика
2021 — Проблемы с синхронизацией губ
2023 — Реалистичная мимика, но без физиологических сигналов
2025 — Сохранение сердцебиения и других биометрических параметров
"С каждым годом разница между реальными и поддельными видео становится все менее заметной", — констатирует Эйсерт.
Политические последствия
Усовершенствованные дипфейки представляют особую опасность в:
- Политических кампаниях
- Журналистике
- Судебных процессах
Известны случаи использования поддельных видео с участием Барака Обамы и Дональда Трампа. Новые возможности технологии делают такие фейки еще более убедительными.
Будущее борьбы с дипфейками
Эксперты прогнозируют развитие следующих направлений:
- Мультимодальная аутентификация (сочетание нескольких методов)
- Цифровые водяные знаки нового поколения
- Законодательное регулирование создания и распространения deepfake
"Технологическая гонка только начинается. Нам нужно разрабатывать методы обнаружения, которые будут опережать возможности создания подделок", — заключает Эйсерт.
Исследование проводилось при поддержке Европейского союза в рамках программы Horizon 2025. Полные результаты доступны в журнале Frontiers in Imaging.