Как новая норма
Дипфейк — поддельный контент (изображение, видео или аудио), созданный с помощью искусственного интеллекта.
Согласно статистике аналитического центра НАФИ на ноябрь 2025 года, 21% россиян регулярно сталкиваются с контентом, созданным с использованием ИИ. При этом 43% не могут отличить дипфейк от материалов, созданных человеком, и 57% хотя бы раз не могли при разговоре отличить ИИ-ассистента от человека.
По словам Евгения Зрюмова, дипфейки имеют как положительные, так и отрицательные стороны: «Многие, общаясь с банковскими ассистентами, звоня на горячую линию МФЦ или используя другие сервисы с телефонными ассистентами, уже имели дело с технологиями дипфейка».
Речь идет о передовых, «глубоких» технологиях, предназначенных для создания разнообразного аудиовизуального контента. Эти разработки нашли применение во многих сферах жизни, и взаимодействие с ними стало для многих обыденностью.
Неосознанно
Сама идея обмана не нова — она глубоко уходит корнями в природу, где выживание часто зависит от умения ввести в заблуждение. Эта фундаментальная стратегия, от хитрости животных до сложных социальных взаимодействий, нашла отражение и в человеческой коммуникации.
«Ложь — неотъемлемая часть человеческой коммуникации. Но это нужно признавать. Это появилось не сегодня, не вчера, и мы четко понимаем, как все происходит», — говорит эксперт.
Исследование, проведенное Массачусетским университетом, пролило свет на поразительную частоту, с которой люди прибегают ко лжи в повседневном общении. Согласно полученным данным, около 60% людей лгут приблизительно три раза всего за десятиминутный разговор.
Евгений Зрюмов выделил несколько основных причин, побуждающих людей говорить неправду. Одна из главных мотиваций — страх наказания или конфликта. Человек может прибегнуть ко лжи, желая избежать неприятной ситуации или ее последствий.
Зачастую люди стремятся извлечь из ситуации выгоду. В жизни часто встречаются ситуации, когда ложь используется для достижения личных целей или получения преимуществ.
Не менее важной причиной выступает деликатность. Некоторые предпочитают умолчать правду или исказить ее, чтобы «сохранить лицо» собеседника, проявить жалость или тактичность.
Также часто встречается самооправдание. Ситуации, где этот мотив выступает как повод для лжи, относятся к наиболее значимым и частым.
«Комбинация этих элементов и приводит к тому, что мы иногда даже неосознанно говорим неправду», — добавил министр.
Назад к истории
Обман, как и в природе, всегда имел серьезные и долгосрочные последствия в истории человечества. Ряд таких фейков не просто искажал факты, но и мог кардинально менять ход исторических событий.
«Здесь мы говорим не об украденных 10 тыс. рублей, хотя у нас очень большие потери среди населения от фейков и разных мошенничеств, начиная с телефонных и заканчивая другими видами мошенничества», — говорит министр.
Одним из самых ранних и значимых исторических фейков, который, по мнению Евгения Зрюмова, перевернул ход мировой истории, стал документ «Дар Константина».
Подделка сообщала о том, что император Константин передал часть власти над Римом папе римскому. Этот документ веками служил обоснованием папской власти. Важно, что именно на основе «Дара Константина» произошло разделение христианства на католичество и православие.
Исследователи доказали, что грамота была сфальсифицирована. Тем не менее этот исторический фейк оказал огромное влияние на развитие церкви, которое до сих пор ощущается в современных политических событиях.
Чистые фото
С появлением цифровых технологий создавать визуальные фейки стало намного проще. За последние годы технологии дипфейков, основанные на генеративно-состязательных сетях, стали доступны и широко распространены.
«Если взять фото и добавить к нему какой-нибудь шум, например, немного поправить брови, глаза, нос и рот, у нас получится что-то похожее на человеческое изображение, если материал нормально сгенерируется, — говорит Евгений Зрюмов. — Если же нет, нужно прогонять еще раз и тогда получится новое изображение. Каждый раз результат будет отличаться».
Иногда картинки получаются странными, например, когда у человека появляется шестой палец, и это происходит тоже из-за «шума». Программа пытается достроить изображение и иногда ошибается. Сейчас эти ошибки исправляют, чтобы люди на фото выглядели нормально.
«Эти нюансы сейчас дорабатываются, чтобы у человека не было трех глаз и четырех ушей. Технология постоянно совершенствуется, но ее суть остается прежней», — добавил министр.
Как распознать
Поскольку цифровые технологии позволяют создавать удивительно реалистичные подделки, важно научиться отличать настоящие изображения от сгенерированных искусственным интеллектом.
Первый практический совет, который дал Евгений Зрюмов, — искать «стыки» и несоответствия. При грубом редактировании дипфейка можно заметить неестественные соединения, например, между головой и телом. Нужно обращать внимание на пропорции и плавность переходов.
Второй важный аспект — анализ освещения и теней. Если источник света находится с одной стороны, а тени падают совершенно иначе — явный признак подделки. Солнце не может находиться и на той, и на другой стороне одновременно. Также важна правильность падения теней на окружающие предметы.
Третий совет — отслеживать логические несоответствия. Например, когда погода не соответствует тому, внешнему виду человека: «Идет ливень, а прическа такая, будто я только что вышел из парикмахерской, да и все выглядит великолепно».
Не стоит забывать о том, что киберпреступники тоже постоянно учатся. Современные технологии позволяют создавать дипфейки, которые обманывают даже сложные системы распознавания лиц. Злоумышленники уже научились использовать распечатанные фотографии для обхода домофонов.
Теперь они учатся обманывать и более продвинутые биометрические системы, которые анализируют не только черты лица, но и такие неочевидные признаки, как пульсация тканей.
Чтобы бороться с такими уловками, исследователи разрабатывают новые методы защиты. К ним как раз относится анализ пульсации лица. С помощью высокочувствительных камер можно зафиксировать мельчайшие изменения изображения, связанные с кровообращением. Если 3D-модель лица, распечатанная на принтере, не проявляет признаков жизни, алгоритм может распознать ее как фейк.
«Таких примеров становится все больше, и чем сложнее становится система, тем труднее ей соответствовать. Мошенники начинают все узнавать и подстраивать свои инструменты. Но борьба все равно продолжается, и нам нужно не терять бдительность», — добавил министр.
Никогда не спит
Евгений Зрюмов привел интересный пример того, как дипфейки служат инструментом, приносящим ощутимую пользу: в международной практике, в частности в Китае, эта технология активно применяется для продвижения товаров в социальных сетях и мессенджерах.
Дипфейк-ведущий, созданный с помощью искусственного интеллекта, ведет онлайн-продажи 24 часа в сутки. Он способен мгновенно адаптироваться к комментариям зрителей, понимать их потребности и предлагать именно то, что необходимо. Такой персонализированный подход приводит к взрывному росту продаж.
Личный пример
Завершая выступление, министр продемонстрировал аудитории возможности искусственного интеллекта на своем примере. Он вывел в презентации несколько изображений, сгенерированных нейросетью, где предстал в неожиданных образах.
На одном из них Евгений Зрюмов был одет в форму. Картинка вышла очень реалистичной, и можно было представить, что он проводит «Цифровой диктант» для важный людей.
Но не все эксперименты оказались безошибочными. Вторая иллюстрация на фоне живописного Дубая вызвала легкое недоумение: у министра появился шестой палец.