Наука и Технологии
Россия внедряет свои нарративы об Украине в системы ИИ
Новое исследование показало, что большие языковые модели (LLM), обученные на основе ложной информации, воспроизводят пророссийские нарративы об Украине.
![Президент России Владимир Путин (в центре) в сопровождении главы Сбербанка РФ Германа Грефа (слева) осматривает выставку в рамках конференции по ИИ в Москве 24 ноября 2023 года. [Михаил Климентьев/СТОК/AFP]](/gc6/images/2025/09/23/52079-afp__20231124__344q8nx__v1__highres__russiaaitechnologypolitics-370_237.webp)
Галина Корол |
Поле битвы в Украине неожиданно расширилось, выйдя на просторы искусственного интеллекта (ИИ).
Опубликованное в августе совместное исследование Texty.org.ua и OpenBabylon показало, что большие языковые модели, которые лежат в основе чат-ботов, переводчиков и многих сервисов, начинают повторять кремлевские нарративы.
Исследователи задали 2803 вопроса об Украине 27 открытым языковым моделям из США, Канады, Франции и Китая и оценили их ответы по шкале от явно проукраинских до явно пророссийских. Некоторые прямо называли Россию агрессором и признавали Крым украинским. Другие уклонялись или повторяли кремлевские штампы о «едином народе» и «законных интересах».
«Чаще всего искусственный интеллект "ломается" на темах истории, геополитики и национальной идентичности», — подчеркивают исследователи.
![Человек держит мобильный телефон с логотипом DeepSeek 10 февраля 2025 года в Эдмонтоне, Канада. [Артур Видак/NurPhoto/AFP]](/gc6/images/2025/09/23/52080-afp__20250211__widak-photoill250210_npgku__v1__highres__photoillustrationsfeaturingl-370_237.webp)
Наиболее «дружественными» к Украине оказались модели из Канады, Франции и США, где проукраинские ответы составляли в среднем 25–30%. В то же время китайские модели показали самый низкий уровень поддержки украинской стороны (всего 22,1%), при этом почти 20% воспроизводят прокремлевские нарративы .
По мнению исследователей, эти различия отражают влияние местной информационной среды. Россия имеет соглашения с китайскими медиа о синхронном распространении информации. Так информация попадает в китайские системы ИИ, которые склонны оправдывать советское прошлое и трактовать независимость Украины как «побочный эффект распада СССР», что соответствует официальной риторике Коммунистической партии Китая .
Результаты исследования свидетельствуют о том, что информационная война теперь не ограничивается экранами телевизоров или фермами троллей. Теперь она встроена в алгоритмы, которые влияют на то, как миллионы людей ищут информацию, читают и понимают войну в Украине.
Языковые модели не нейтральны
Москва уже давно рассматривает информацию как оружие. Еще в советское время Кремль понимал, что управлять восприятием — значит управлять людьми.
Мэттью Кэнхэм, исполнительный директор Института когнитивной безопасности из Вашингтона, в интервью «Контуру» сказал, что «контроль над нарративом имеет решающее значение, как для поддержания власти внутри страны, так и для проецирования влияния за рубежом». По его словам, на такие инструменты, как манипуляции в социальных сетях и кибероперации, государства выделяют значительные финансовые и технологические ресурсы.
Виктор Таран, киевский эксперт по оборонным и военно-техническим инновациям, руководитель Центра подготовки операторов БПЛА «КРУК» объясняет, что с появлением новых технологий изменился не только масштаб, но и механизм доставки пропаганды.
«Теперь пропагандисты могут постучаться конкретно к вам, в ваш дом, в ваш телефон», — сказал он «Контуру».
По словам Бориса Дрожака, главного инженера DataRobot, появление ИИ также снизило стоимость распространения дезинформации.
В отличие от телевидения, где нужны значительные ресурсы, в интернете стая правильно запрограммированных ботов может без проблем писать и комментировать нужный для пропаганды материал. Это создает видимость, что существует какая-то «альтернативная часть населения, которая мыслит иначе», — сказал он в разговоре с «Контуром».
Когда боты становятся людьми
По словам экспертов, пропаганду, которую раньше распространяли преимущественно фабрики троллей, теперь масштабирует ИИ, чем открывает совершенно новые и опасные возможности.
«ИИ-агенты представляют собой современную угрозу в сфере искусственного интеллекта по нескольким причинам. Главные из них — способность работать автономно и доступ к набору инструментов», — говорит Мэттью Кэнхэм.
Он подчеркивает, что ИИ-агенты изначально разрабатываются так, чтобы функционировать с минимальным участием человека или вовсе без него. Достаточно поставить агенту конкретную задачу, после чего агент может самостоятельно создавать и распространять нужные сообщения.
В отличие от обычных фейковых аккаунтов, эти «цифровые двойники» умеют имитировать реальных людей и вести продолжительные диалоги. Одним из преимуществ ИИ-агентов является их способность имитировать личность и поведение отдельных людей на основе их цифровых следов, объясняет Кэнхэм.
Такие двойники могут использоваться для онлайн-имперсонации или для проверки эффективности сообщений перед запуском реальных кампаний пропаганды. Опасность в том, что эти агенты автономны и имеют доступ к разным наборам инструментов. Они могут создавать фейковые видео или аудиофайлы, и даже выступать от имени авторитетных лиц для распространения нарративов.
«Пропаганда, создаваемая с помощью ИИ, уже сегодня является серьезной проблемой, и ситуация, по всей видимости, лишь ухудшается», — предупреждает эксперт.
Особая угроза связана с «отравлением данных», когда атакуются такие ресурсы, как Wikipedia, чтобы исказить информацию, которую затем агрегируют языковые модели, используемые в качестве источников информации.
Чтобы заставить ИИ распространять кремлевские нарративы, Россия создала специальную сеть сайтов под названием «Правда», сообщалось в исследовании NewsGuard в марте.
Целевая аудитория «Правды» — не обычные читатели, а сами ИИ-модели. Эта сеть объединяет около 150 сайтов, которые только в 2024 году опубликовали 3,6 миллиона статей, «переупаковывая» заявления государственных СМИ, и не создавая оригинальный контент.
Цель проста: заполнить поисковые результаты и обучающие данные для ИИ таким количеством лжи, чтобы большие языковые модели начали считать ее «нормой», говорится в отчете NewsGuard. По данным французского агентства Viginum, эту сеть администрирует крымская IT-компания TigerWeb, принадлежащая разработчику Евгению Шевченко.
Борьба с пропагандой
Эксперты подчеркивают: бороться с пропагандой, усиленной искусственным интеллектом, можно только коллективными усилиями.
Теперь люди, не имеющие базовых знаний в таких областях как история или политология, могут поверить в эту сфабрикованную «реальность». Особенно уязвимой категорией становится молодежь, говорит Виктор Таран. Он считает критическое мышление «вакциной» против цифровой инфекции.
Мэттью Кэнхэм уверен, что для противодействия пропаганде, основанной на ИИ, потребуется «участие всего общества», с опорой на государство, индустрию и академическую среду. Просветительские кампании могут объяснять людям, как именно работают пропагандистские техники, а специализированные аналитические структуры должны отслеживать взаимосвязи между фабриками троллей, сетями ботов и государственными СМИ.
«Некоммерческие и неправительственные организации могут внести свой вклад, запуская контркампании для разоблачения манипуляций», — говорит он.