СМИ
Пропаганда на базе ИИ заявляет о победе, которую Россия не одержала
Пока бои на востоке Украины продолжаются, прокремлевские каналы наводняют соцсети сфабрикованными видео о падении морального духа украинцев.
![Боец артиллерийского расчета батальона полиции особого (стрелкового) назначения Главного управления Национальной полиции в Запорожской области наводит 122-мм гаубицу Д-30 для стрельбы по позициям российских войск на Покровском направлении в Донецкой области, Украина, 20 ноября 2025 года. [Дмитро Смоленко/NurPhoto/AFP]](/gc6/images/2025/11/28/52952-afp__20251124__ukrinform-ukrainia251120_npf2v__v1__highres__ukrainianartilleryuniton-370_237.webp)
AFP |
На востоке Украины не стихают ожесточенные бои за Покровск, но в пророссийском сегменте соцсетей Москва уже одержала победу: навязчивые видео, сгенерированные искусственным интеллектом (ИИ), изображают отступление украинской армии с фейковыми, плачущими солдатами.
Россия пытается захватить этот транспортный узел в восточной части Донецкой области уже более года. Согласно картам боевых действий, публикуемым Институтом изучения войны, натиск в последние недели усилился, замыкая окраины «клещами».
Несмотря на то, что битва продолжается, серия вирусных постов в соцсетях рассказывает другую историю: десятки сгенерированных ИИ видеороликов, в которых украинские солдаты бросают оружие или плачут по дороге на фронт, завирусились в соцсетях в ноябре, набрав миллионы просмотров.
Эти фейковые видео являются частью «более широкого нарратива, который мы видели с самого начала вторжения, о том, что [президент Украины Владимир] Зеленский отправляет на передовую молодых и пожилых людей против их воли, поскольку дела идут плохо», — говорит Пабло Маристани-де-лас-Касас, аналитик Института стратегического диалога.
![Боец артиллерийского расчета батальона полиции особого (стрелкового) назначения Главного управления Национальной полиции в Запорожской области стоит у 122-мм гаубицы Д-30, чтобы открыть огонь по позициям российских войск на Покровском направлении в Донецкой области, Украина, 20 ноября 2025 года. [Дмитро Смоленко/NurPhoto/AFP]](/gc6/images/2025/11/28/52954-afp__20251124__ukrinform-ukrainia251120_npjff__v1__highres__ukrainianartilleryuniton-370_237.webp)
«Всегда есть событие, на основе которого можно построить ложную информацию», — добавила Кароль Гримо, исследовательница из Университета Экс-Марсель во Франции.
Эти видеоролики «используют неопределенность как инструмент, чтобы сеять сомнения в общественном мнении», — сказала она агентству AFP.
Визуальные несоответствия
В одном из роликов некий украинский солдат говорит, что «покидает Покровск», однако шагает без усилий, несмотря на с гипс на ноге. Носилки выглядят парящими в воздухе, а ноги — отделенные от тела — то появляются, то исчезают на заднем плане.
Эти визуальные несоответствия являются характерными для контента, созданного генеративным ИИ, хотя их становится все труднее заметить невооруженным глазом.
На других фейковых роликах с логотипом Sora от OpenAI (инструмента для их создания), показаны солдаты в украинской форме, которые плачут и просят не отправлять их на фронт.
Для некоторых из них, по-видимому, использовали лица российских онлайн-стримеров.
Среди них был замечен и уехавший из России ютубер Алексей Губанов, чье лицо появилось в фейковом видео с плачущим украинским солдатом.
«Ясно, что это не я», — сказал он в видеоролике на YouTube.
«К сожалению, многие люди верят в это... и это играет на руку российской пропаганде».
«Подрыв» морального духа
Европейская обсерватория цифровых медиа (EDMO) — финансируемая ЕС сеть организаций по проверке фактов, — заявляет, что ее сообщество опубликовало более 2000 статей, связанных с войной в Украине после вторжения России в 2022 году, и что ИИ становится все более распространенной темой.
Ян Гарнер, специалист по российской пропаганде из Института Пилецкого, отметил, что дезинформация — это «старая тактика, но технология новая».
Эти видеоролики «постепенно расшатывают боевой дух украинцев, словно говоря: "Смотри, это кто-то такой же как ты, это мог бы быть твой брат, твой отец"», — говорит эксперт.
И в то же время они поднимают боевой дух россиян, — добавил он.
TikTok сообщил агентству AFP, что аккаунты, которые, судя по всему, стояли за этими видеороликами, были удалены, но до этого один из них набрал более 300 тысяч «лайков» и несколько миллионов просмотров.
Компания OpenAI сообщила агентству AFP, что провела расследование, не вдаваясь при этом в подробности.
Тем не менее, видеоролики продолжают циркулировать.
Агентство AFP обнаружило их, среди прочего, в инстаграме, телеграмме, Фейсбуке и X в публикациях на греческом, румынском, болгарском, чешском, польском и французском языках; на сайте российского еженедельника, а также в сербском таблоиде.
Влияние фейкового видеоролика сложно измерить, но «когда он повторяется, восприятие людей может меняться», — сказала Гримо.
Чатботы на базе ИИ также используются для продвижения прокремлевских тезисов.
Исследование Института стратегического диалога, опубликованное в октябре, показало, что среди протестированных чат-ботов «почти пятая часть ответов ссылалась на российские государственные источники».
Несмотря на то, что некоторые компании продемонстрировали готовность бороться со злоупотреблением их инструментами, «масштабы и влияние информационной войны опережают ответные меры компаний», — сказал Маристани де лас Касас.