Доступність посилання

ТОП новини

Спецоперація «Матрьошка». Російські «дипфейки» націлені на біженців з України (розслідування)


 Під час акції протесту проти вторгнення військ Росії до України біля російського посольства у Польщі. Варшава, 17 липня 2022 року
Під час акції протесту проти вторгнення військ Росії до України біля російського посольства у Польщі. Варшава, 17 липня 2022 року
Тетяна Ворожко, Меттью Купфер, «Голос Америки»

Нові відео в онлайні, нещодавно досліджені Російською та Українською службами «Голосу Америки», засвідчують, як штучний інтелект, ймовірно, використовується для створення провокаційних так званих «дипфейків», націлених на українських біженців.

В одному з прикладів відео схоже на телевізійний репортаж про українську біженку-підлітка та її досвід навчання у приватній школі в Сполучених Штатах.

Але потім відеоряд перемикається на кадри переповнених шкільних коридорів і пачок креку (кристалічна форма кокаїну), а голос за кадром звучить так, ніби дівчина називає американські державні школи небезпечними та застосовує образливі стереотипи про афроамериканців.

«Я розумію, що [у приватній школі] це досить дорого, – каже вона. – Але було б несправедливо, якби мою сім'ю змусили платити за мою безпеку. Нехай це роблять американці».

Цей сюжет є фабрикацією. Тільки його перша частина – кадри про дівчину-підлітка – справжній.

Зневажливий голос за кадром, ймовірно, був створений за допомогою штучного інтелекту, щоб реалістично скопіювати її голос, що призвело до створення продукту, відомого як «дипфейк».

І, схоже, це частина російської інформаційної операції в онлайні під назвою «Матрьошка», названої на честь російської іграшки матрьошки. Ця операція зараз спрямована проти українських біженців.

«Голос Америки» виявив, що кампанія запустила два дипфейки, які мали на меті зобразити українських біженців жадібними та невдячними, а також розповсюдили фейкові матеріали про те, ніби авторитетні західні журналісти стверджують, що Україна, а не Росія, поширює неправду.

Згідно з Antibot4Navalny, обліковим записом у мережі X, який досліджує російські інформаційні операції, і є широко цитованим провідними західними медіа, ці відео відображають найновішу стратегію російської онлайн-кампанії з дезінформації.

Спецпрокурор Роберт Гур під час слухання Комітету з правових питань Палати представників Конгресу США щодо дипфейку, щоб був сфабрикований з інтерв'ю президента Джо Байдена. Вашингтон, 12 березня 2024 року
Спецпрокурор Роберт Гур під час слухання Комітету з правових питань Палати представників Конгресу США щодо дипфейку, щоб був сфабрикований з інтерв'ю президента Джо Байдена. Вашингтон, 12 березня 2024 року

Готовність Росії націлитися на біженців, включно з підлітками, показує, наскільки далеко готовий зайти Кремль, який регулярно заперечує свою роль у дезінформації, намагаючись підірвати підтримку Заходу для України.

Націлюючись на жертви

Друге відео, націлене на українських біженців, починається з реальних новинних кадрів, у яких українка висловлює подяку за пожертвування одягу та підтримку, яку Данія надала біженцям.

Потім відео перемикається на загальні кадри та ймовірний дипфейк, коли голос жінки починає скаржитися, що українські біженці змушені жити в маленьких квартирах і носити вживаний одяг.

За останні кілька тижнів майже всі відео були побудовані за цією схемою
Дослідницька група

«Голос Америки» не поширює жодного з цих відео, щоб захистити особи біженців, зображених у дипфейках, але обидва використовували вкрадені кадри з авторитетних міжнародних ЗМІ.

Така техніка – підміна висловлювань людини шляхом імітації її голосу – нова для «Матрьошки», повідомили «Голосу Америки» в Antibot4Navalny.

«За останні кілька тижнів майже всі відео були побудовані за цією схемою», – написала дослідницька група.

Але експерти кажуть, що основна стратегія підробки справжніх повідомлень ЗМІ та націлювання на біженців не є чимось новим.

Наприклад, після смертоносного ракетного удару Росії у квітні 2022 року по залізничному вокзалу Краматорська в Україні Кремль створив фальшивий репортаж нібито від імені BBC, звинувативши українців в ударі, нагадує Роман Осадчук, фахівець Лабораторії цифрових криміналістичних досліджень «Атлантичної ради».

Плями крові біля сумок, валізок, дитячої коляски на платформі після ракетного удару російських військових по залізничному вокзалі в Краматорську, 8 квітня 2022 року. Тоді загинули 50 людей, зокрема п'ятеро дітей
Плями крові біля сумок, валізок, дитячої коляски на платформі після ракетного удару російських військових по залізничному вокзалі в Краматорську, 8 квітня 2022 року. Тоді загинули 50 людей, зокрема п'ятеро дітей

У цей же період, зазначив він, Росія також поширювала в Молдові дезінформацію, яка мала на меті налаштувати місцеве населення проти українських біженців.

Біженці є дуже популярною мішенню для російських кампаній дезінформаці
Роман Осадчук

«На жаль, біженці є дуже популярною мішенню для російських кампаній дезінформації, не лише для нападів на приймаючу громаду... але й в Україні», – сказав Осадчук «Голосу Америки».

Коли такі операції з дезінформації орієнтовані на українську аудиторію, додав він, метою часто є створити зіткнення між тими, хто виїхав з України, і тими, хто залишився.

Проте дипфейки, схоже, спрямовані на те, щоб вплинути на громадську думку в інший спосіб. Наприклад, одне відео, яке нібито містить аудіо засновника Bellingcat Еліота Гіґґінса, стверджує, що вторгнення України в російську Курську область є просто блефом.

«Весь світ спостерігає за смертельними спазмами України, – нібито каже Гіґґінс. – Нема що далі обговорювати».

В іншому відео Шаян Сардарізаде, старший журналіст BBC Verify, здається, каже, що «Україна створює фейки, щоб організації, які перевіряють факти, звинувачували Росію». Потім він описує це як частину «глобальної містифікації».

Насправді обидва відео є дипфейками, створеними за тією ж формулою, що й попередні, націлені на біженців.

Гіґґінс розповів «Голосу Америки», що вся аудіоімітація його власного голосу виглядає дипфейком. Він припускає, що мета відео полягала в тому, щоб залучити фактчекерів і змусити їх випадково підвищити його аудиторію.

«Я думаю, що це більше про підвищення їхньої статистики, щоб [ті, хто беруть участь в дезінформації] могли продовжувати доїти російську державу, отримуючи гроші на продовження такої діяльності», – зауважив він у коментарі «Голосу Америки», отриманому електронною поштою.

Сардарізаде не відповів на запит про коментарі до цієї публікації.

Архівна світлина. Під час акції у Відні в день візиту президента Росії Володимира Путіна до Австрії, 24 червня 2014 року
Архівна світлина. Під час акції у Відні в день візиту президента Росії Володимира Путіна до Австрії, 24 червня 2014 року

Фальшиве відео, реальна шкода

Швидке поширення штучного інтелекту протягом останніх кількох років привернуло підвищену увагу до проблеми підроблених відео та зображень штучним інтелектом, особливо коли ці технології використовуються для створення зображень сексуального характеру без згоди.

Дослідники підрахували, що понад 90% дипфейків в інтернеті є відверто сексуальними. Їх використовували як проти пересічних жінок, так і проти дівчат та знаменитостей.

Дипфейки також застосовують для націлювання на політиків і кандидатів на державні посади. Однак залишається незрозумілим, чи справді вони вплинули на громадську думку або результати виборів.

Дослідники з Microsoft Theat Analysis Center виявили, що «повністю синтетичні» відео світових лідерів часто не переконливі та їх легко спростувати. Але вони також дійшли висновку, що аудіо дипфейки часто є «ефективнішими».

Усвідомлення того, що їхнім іміджем маніпулюють для поширення брехні чи ненависті, може посилити наявну травму
Белль Торек

Чотири відеоролики, поширені «Матрьошкою», в яких в основному використовується глибоке фейкове аудіо, демонструють, що небезпека не обмежується відвертими зображеннями політиків. І якщо ваше зображення доступне в інтернеті, ви мало що можете зробити, щоб повністю захистити себе.

Сьогодні завжди є ризик «поширення будь-якої інформації публічно, включно з голосом, зовнішністю чи фотографіями», каже Осадчук.

Шкода, завдана цим людині, може бути суттєвою.

Белль Торек, адвокатка, яка спеціалізується на технічній політиці та громадянських правах, каже, що люди, образи яких використовуються без згоди, часто відчувають почуття образи, приниження, безпорадності та страху.

«Усвідомлення того, що їхнім іміджем маніпулюють для поширення брехні чи ненависті, може посилити наявну травму, – сказала вона. – І в цьому випадку, я думаю, наслідки будуть ще сильнішими для цих спільнот [біженців], які вже й так потерпають від переміщення та насильства».

Наскільки ефективні дипфейки?

Хоча неважко зрозуміти потенційну шкоду дипфейків, складніше оцінити їхній вплив та обсяг охоплення.

Пост у мережі X із фальшивими відео біженців набрав понад 55 000 переглядів. Це суттєво, вважає Ольга Токарюк, старша аналітикиня Інституту стратегічного діалогу.

Завжди важко зі 100-відсотковою кореляцією довести вплив цих дезінформаційних кампаній на політику
Ольга Токарюк

«Це ще не вірусний контент, але вже і не маргінальний», – каже вона.

З іншого боку, Antibot4Navalny вважає, що російські учасники дезінформаційних кампаній активно поширюють дописи X, використовуючи інші контрольовані облікові записи, і дуже мало реальних людей бачать їх.

Але навіть якщо велика кількість реальних людей переглянула дипфейки, це не обов’язково означає, що відео досягли цілей Кремля.

«Завжди важко зі 100-відсотковою кореляцією довести вплив цих дезінформаційних кампаній на політику», – сказала Ольга Токарюк.

Форум

ВИБІР ЧИТАЧІВ

XS
SM
MD
LG