СМИ

Пропаганда на базе ИИ заявляет о победе, которую Россия не одержала

Пока бои на востоке Украины продолжаются, прокремлевские каналы наводняют соцсети сфабрикованными видео о падении морального духа украинцев.

Боец артиллерийского расчета батальона полиции особого (стрелкового) назначения Главного управления Национальной полиции в Запорожской области наводит 122-мм гаубицу Д-30 для стрельбы по позициям российских войск на Покровском направлении в Донецкой области, Украина, 20 ноября 2025 года. [Дмитро Смоленко/NurPhoto/AFP]
Боец артиллерийского расчета батальона полиции особого (стрелкового) назначения Главного управления Национальной полиции в Запорожской области наводит 122-мм гаубицу Д-30 для стрельбы по позициям российских войск на Покровском направлении в Донецкой области, Украина, 20 ноября 2025 года. [Дмитро Смоленко/NurPhoto/AFP]

AFP |

На востоке Украины не стихают ожесточенные бои за Покровск, но в пророссийском сегменте соцсетей Москва уже одержала победу: навязчивые видео, сгенерированные искусственным интеллектом (ИИ), изображают отступление украинской армии с фейковыми, плачущими солдатами.

Россия пытается захватить этот транспортный узел в восточной части Донецкой области уже более года. Согласно картам боевых действий, публикуемым Институтом изучения войны, натиск в последние недели усилился, замыкая окраины «клещами».

Несмотря на то, что битва продолжается, серия вирусных постов в соцсетях рассказывает другую историю: десятки сгенерированных ИИ видеороликов, в которых украинские солдаты бросают оружие или плачут по дороге на фронт, завирусились в соцсетях в ноябре, набрав миллионы просмотров.

Эти фейковые видео являются частью «более широкого нарратива, который мы видели с самого начала вторжения, о том, что [президент Украины Владимир] Зеленский отправляет на передовую молодых и пожилых людей против их воли, поскольку дела идут плохо», — говорит Пабло Маристани-де-лас-Касас, аналитик Института стратегического диалога.

Боец артиллерийского расчета батальона полиции особого (стрелкового) назначения Главного управления Национальной полиции в Запорожской области стоит у 122-мм гаубицы Д-30, чтобы открыть огонь по позициям российских войск на Покровском направлении в Донецкой области, Украина, 20 ноября 2025 года. [Дмитро Смоленко/NurPhoto/AFP]
Боец артиллерийского расчета батальона полиции особого (стрелкового) назначения Главного управления Национальной полиции в Запорожской области стоит у 122-мм гаубицы Д-30, чтобы открыть огонь по позициям российских войск на Покровском направлении в Донецкой области, Украина, 20 ноября 2025 года. [Дмитро Смоленко/NurPhoto/AFP]

«Всегда есть событие, на основе которого можно построить ложную информацию», — добавила Кароль Гримо, исследовательница из Университета Экс-Марсель во Франции.

Эти видеоролики «используют неопределенность как инструмент, чтобы сеять сомнения в общественном мнении», — сказала она агентству AFP.

Визуальные несоответствия

В одном из роликов некий украинский солдат говорит, что «покидает Покровск», однако шагает без усилий, несмотря на с гипс на ноге. Носилки выглядят парящими в воздухе, а ноги — отделенные от тела — то появляются, то исчезают на заднем плане.

Эти визуальные несоответствия являются характерными для контента, созданного генеративным ИИ, хотя их становится все труднее заметить невооруженным глазом.

На других фейковых роликах с логотипом Sora от OpenAI (инструмента для их создания), показаны солдаты в украинской форме, которые плачут и просят не отправлять их на фронт.

Для некоторых из них, по-видимому, использовали лица российских онлайн-стримеров.

Среди них был замечен и уехавший из России ютубер Алексей Губанов, чье лицо появилось в фейковом видео с плачущим украинским солдатом.

«Ясно, что это не я», — сказал он в видеоролике на YouTube.

«К сожалению, многие люди верят в это... и это играет на руку российской пропаганде».

«Подрыв» морального духа

Европейская обсерватория цифровых медиа (EDMO) — финансируемая ЕС сеть организаций по проверке фактов, — заявляет, что ее сообщество опубликовало более 2000 статей, связанных с войной в Украине после вторжения России в 2022 году, и что ИИ становится все более распространенной темой.

Ян Гарнер, специалист по российской пропаганде из Института Пилецкого, отметил, что дезинформация — это «старая тактика, но технология новая».

Эти видеоролики «постепенно расшатывают боевой дух украинцев, словно говоря: "Смотри, это кто-то такой же как ты, это мог бы быть твой брат, твой отец"», — говорит эксперт.

И в то же время они поднимают боевой дух россиян, — добавил он.

TikTok сообщил агентству AFP, что аккаунты, которые, судя по всему, стояли за этими видеороликами, были удалены, но до этого один из них набрал более 300 тысяч «лайков» и несколько миллионов просмотров.

Компания OpenAI сообщила агентству AFP, что провела расследование, не вдаваясь при этом в подробности.

Тем не менее, видеоролики продолжают циркулировать.

Агентство AFP обнаружило их, среди прочего, в инстаграме, телеграмме, Фейсбуке и X в публикациях на греческом, румынском, болгарском, чешском, польском и французском языках; на сайте российского еженедельника, а также в сербском таблоиде.

Влияние фейкового видеоролика сложно измерить, но «когда он повторяется, восприятие людей может меняться», — сказала Гримо.

Чатботы на базе ИИ также используются для продвижения прокремлевских тезисов.

Исследование Института стратегического диалога, опубликованное в октябре, показало, что среди протестированных чат-ботов «почти пятая часть ответов ссылалась на российские государственные источники».

Несмотря на то, что некоторые компании продемонстрировали готовность бороться со злоупотреблением их инструментами, «масштабы и влияние информационной войны опережают ответные меры компаний», — сказал Маристани де лас Касас.

Вам нравится эта статья?


Введите защитный код *