Доступность ссылки

Обманная «Матрешка». Российские дипфейки нацелены на беженцев из Украины


Во время акции протеста против вторжения войск России в Украину возле российского посольства в Польше. Варшава, 17 июля 2022 года
Во время акции протеста против вторжения войск России в Украину возле российского посольства в Польше. Варшава, 17 июля 2022 года

Новые видео в онлайне, недавно исследованные редакцией «Голосом Америки», свидетельствуют, как искусственный интеллект, вероятно, используется для создания провокационных так называемых дипфейков, нацеленных на украинских беженцев.

В одном из примеров видео похоже на телевизионный репортаж об украинском беженце-подростке и ее опыте обучения в частной школе в США. Но затем видеоряд переключается на кадры переполненных школьных коридоров и пачек крека (кристаллическая форма кокаина), а голос за кадром звучит так, будто девушка называет американские государственные школы опасными и применяет обидные стереотипы об афроамериканцах.

«Я понимаю, что [в частной школе] это достаточно дорого, – говорит она. – Но было бы несправедливо, если бы мою семью заставили платить за мою безопасность. Пусть это делают американцы.

Этот сюжет является фабрикацией. Только его первая часть – кадры о девушке-подростке – настоящая.

Пренебрежительный голос за кадром, вероятно, был создан с помощью искусственного интеллекта, чтобы реалистично скопировать ее голос, что привело к созданию продукта, известного как дипфейк.

И, похоже, это часть российской информационной операции под названием «Матрешка», названной в честь игрушки. Она сейчас направлена против украинских беженцев.

«Голос Америки» обнаружил, что кампания запустила два дипфейка, которые имели целью изобразить украинских беженцев жадными и неблагодарными, а также распространили фейковые материалы о том, что авторитетные западные журналисты утверждают, что Украина, а не Россия, распространяет неправду.

Согласно Antibot4Navalny, учетной записи в сети X, исследующей российские информационные операции, и широко цитируемой ведущими западными медиа, эти видео отображают новейшую стратегию российской онлайн-кампании по дезинформации.

Спецпрокурор Роберт Гур во время слушаний Комитета по правовым вопросам Палаты представителей Конгресса США. Вашингтон, 12 марта 2024 года
Спецпрокурор Роберт Гур во время слушаний Комитета по правовым вопросам Палаты представителей Конгресса США. Вашингтон, 12 марта 2024 года

Готовность России нацелиться на беженцев, включая подростков, показывает, насколько далеко готов зайти Кремль, регулярно отрицающий свою роль в дезинформации, пытаясь подорвать поддержку Запада для Украины.

Нацеливаясь на жертв

Второе видео, нацеленное на украинских беженцев, начинается с реальных новостных кадров, в которых украинка выражает благодарность за пожертвование одежды и поддержку, которую Дания предоставила беженцам.

Затем видео переключается на общие кадры и вероятный дипфейк, когда голос женщины начинает жаловаться, что украинские беженцы вынуждены жить в маленьких квартирах и носить подержанную одежду.

Редакция не распространяет ни одного из этих видео, чтобы защитить личности беженцев, изображенных в дипфейках, но оба использовали украденные кадры из авторитетных международных СМИ.

Такая техника – подмена высказываний человека путем имитации его голоса – новая для «Матрешки», сообщили «Голосу Америки» в Antibot4Navalny.

«За последние несколько недель почти все видео было построено по этой схеме», – написала исследовательская группа.

Но эксперты говорят, что основная стратегия подделки настоящих сообщений СМИ и нацеливания на беженцев не является чем-то новым.

К примеру, после смертоносного ракетного удара России в апреле 2022 года по железнодорожному вокзалу Краматорска в Украине Кремль создал фальшивый репортаж якобы от имени BBC, обвинив украинцев в ударе, напоминает Роман Осадчук, специалист Лаборатории цифровых криминалистических исследований «Атлантического совета».

Пятна крови возле сумок, чемоданов, детской коляски на платформе после ракетного удара российских военных по железнодорожному вокзалу в Краматорске. Украина, 8 апреля 2022 года
Пятна крови возле сумок, чемоданов, детской коляски на платформе после ракетного удара российских военных по железнодорожному вокзалу в Краматорске. Украина, 8 апреля 2022 года

В этот же период, отметил он, Россия также распространяла в Молдове дезинформацию, которая имела целью настроить местное население против украинских беженцев.

«К сожалению, беженцы очень популярна мишенью для российских кампаний дезинформации, не только для нападений на принимающее общество... но и в Украине», – сказал Осадчук «Голосу Америки».

Когда такие операции по дезинформации ориентированы на украинскую аудиторию, добавил он, целью часто является создать столкновение между выехавшими из Украины и оставшимися.

Однако дипфейки, похоже, направлены на то, чтобы повлиять на общественное мнение другим способом. Например, одно видео, якобы содержащее аудио основателя Bellingcat Элиота Хиггинса, утверждает, что вторжение Украины в российскую Курскую область является просто блефом.

«Весь мир наблюдает за смертельными спазмами Украины, – якобы говорит Хиггинс. – Нечего дальше обсуждать».

В другом видео Шаян Сардаризаде, старший журналист BBC Verify, кажется, говорит, что «Украина создает фейки, чтобы проверяющие факты организации обвиняли Россию». Затем он описывает это как часть «глобальной мистификации».

На самом деле, оба видео являются дипфейками, созданными по той же формуле, что и предыдущие, нацеленные на беженцев.

Хиггинс рассказал «Голосу Америки», что вся аудиоимитация его собственного голоса выглядит дипфейком. Он предполагает, что цель видео состояла в том, чтобы привлечь факт чекеров и заставить их случайно повысить его аудиторию.

«Я думаю, что это больше о повышении их статистики, чтобы [те, кто участвуют в дезинформации] могли продолжать доить российское государство, получая деньги на продолжение такой деятельности», – отметил он в комментарии «Голосу Америки», полученному по электронной почте.

Сардаризаде не ответил на запрос о комментариях к этой публикации.

Во время акции в Вене в день визита президента России Владимира Путина в Австрию, 24 июня 2014 года
Во время акции в Вене в день визита президента России Владимира Путина в Австрию, 24 июня 2014 года

Реальный вред

Быстрое распространение AI в последние несколько лет привлекло повышенное внимание к проблеме поддельных видео и изображений искусственным интеллектом, особенно когда эти технологии используются для создания изображений сексуального характера без согласия.

Исследователи подсчитали, что более 90% дипфейков в интернете откровенно сексуальны. Их использовали как против рядовых женщин, так и против девушек и знаменитостей.

Дипфейки также применяются для нацеливания на политиков и кандидатов на государственные должности. Однако остается непонятным, действительно ли они повлияли на общественное мнение или результаты выборов.

Исследователи из Microsoft Theat Analysis Center обнаружили, что «полностью синтетические» видео мировых лидеров часто не убедительны и легко опровергнуты. Но они также пришли к выводу, что аудио дипфейки часто «эффективнее».

Четыре видеоролика, распространенных «Матрешкой», в которых в основном используется глубокое фейковое аудио, демонстрируют, что опасность не ограничивается откровенными изображениями политиков. И если ваше изображение доступно в интернете, вы мало что можете сделать, чтобы полностью защитить себя.

Сегодня всегда есть риск «распространения любой информации публично, включая голос, внешность или фотографии», говорит Осадчук.

Ущерб, причиненный этим человеку, может быть существенным.

Белль Торек, адвокат, специализирующаяся на технической политике и гражданских правах, говорит, что люди, образы которых используются без согласия, часто испытывают чувство обиды, унижения, беспомощности и страха.

«Осознание того, что их имиджем манипулируют для распространения лжи или ненависти, может усилить травму, – сказала она. – И в этом случае, я думаю, последствия будут еще сильнее для этих сообществ [беженцев], которые и так страдают от перемещения и насилия».

Насколько эффективны дипфейки?

Хотя нетрудно понять потенциальный ущерб дипфейкам, сложнее оценить их влияние и объем охвата.

Пост в сети X с фальшивыми видео беженцев набрал более 55 тыс. просмотров. Это существенно, считает Ольга Токарюк, старшая аналитика Института стратегического диалога.

«Это еще не вирусный контент, но уже не маргинальный», – говорит она.

Кроме того, Antibot4Navalny считает, что российские участники дезинформационных кампаний активно распространяют сообщения X, используя другие контролируемые учетные записи, и очень мало реальных людей видят их.

Но даже если большое количество реальных людей пересмотрело дипфейки, это не обязательно означает, что видео достигло целей Кремля.

«Всегда трудно со 100% корреляцией доказать влияние этих дезинформационных кампаний на политику», – сказала Ольга Токарюк.

СПРАВКА: Российское полномасштабное военное вторжение в Украину продолжается с утра 24 февраля 2022 года. Российские войска наносят авиаудары по ключевым объектам военной и гражданской инфраструктуры, разрушая аэродромы, воинские части, нефтебазы, заправки, церкви, школы и больницы. Обстрелы жилых районов ведутся с использованием артиллерии, реактивных систем залпового огня и баллистических ракет.

Ряд западных стран, включая США и страны ЕС, ужесточил санкции в отношении России и осудили российские военные действия в Украине.

Россия отрицает, что ведет против Украины захватническую войну на ее территории и называет это «специальной операцией», которая имеет целью «демилитаризацию и денацификацию».

Роскомнадзор пытается заблокировать доступ к сайту Крым.Реалии. Беспрепятственно читать Крым.Реалии можно с помощью зеркального сайта: https://d6e1ketvyr3dd.cloudfront.net/ следите за основными новостями в Telegram, Instagram и Viber Крым.Реалии. Рекомендуем вам установить VPN.

В ДРУГИХ СМИ




Recommended

XS
SM
MD
LG