Ссылки для упрощенного доступа

Кто ломает нейросети?


Коллаж
Коллаж

Искусственный интеллект – оружие пропаганды?

Главный тренд прошедшего апреля – итальянский брейнрот. Bombardiro Crocodilo, акула Tralalero Tralala и другие вымышленные персонажи захватили интернет. Все они сгенерированы искусственным интеллектом. Любой желающий может попросить Chat GPT придумать смешную фразу, созвучную с итальянским языком, и оживить получившееся существо.

Искусственным интеллектом теперь может пользоваться каждый. Делает это и российская пропаганда. Исследователи обнаружили сеть из более чем сотни сайтов, которые заполняют интернет миллионом фейков, тем самым обманывая ИИ. Треть всех ответов Chat GPT, Gemini или Grok повторяет российскую пропаганду.

Пользуется искусственным интеллектом и Маргарита Симоньян, которая уже заменила часть сотрудников редакции нейросетями.

Как успеть за трендами искусственного интеллекта, разобраться, где фейк, и не попасться в сети пропаганды, разбираемся с нашими гостями: IT-специалистом Михаилом Климаревым и создателем "Проверено.медиа" Ильёй Бером.

Новые тренды и мемы комментирует IT-эксперт, глава Общества защиты интернета Михаил Климарёв.

– На заре интернета были волны мемов. Они очень популярны были, а потом уходили. Напомню, "превед медвед", "я креветка". Здесь примерно то же самое. Появился новый инструмент, довольно весёлый. Делает картинки безумные, технически это выполнено хорошо. Потом нейронные сети станут выдавать более качественный контент, найдётся что-то новое. У программистов есть анекдот, что стану старый, придут внуки, а я достану из коробочки скрипты и буду говорить: "сам писал, не то, что ваши сгенерированные". А что в этом плохого? Если хороший контент сгенерирован нейронными сетями, им будут пользоваться люди, читать, смотреть. Это для людей сделанная вещь. А то, что для машины, не будет популярно, вы не будете этого замечать. Это очередной виток технологии. Лента пользователя формируется на основании взаимодействия с контентом. Если человек что-то быстро пролистнул, как в ТикТоке, это просмотром не считается. Лента формируется, потому что люди смотрят. А люди смотрят, потому что любопытно.

А если комментировать исследование проекта NewsGuard Reality Check, где говорится об уязвимости языковых моделей перед публикациями в духе российской пропаганды?

– Не думаю, что это создавалось специально. Это технология, которая давно существует в интернете, называется Doorway, когда создаются много сайтов, и у них главная задача, чтобы они ссылались на какой-то сайт. Здесь примерно та же ситуация: поднятие контента в поисковой строке. В Гугле пишете что-то, и поскольку много ссылок, индекс растёт. Языковые модели восприняли этот контент, обработали. Проблема понятная, думаю, что дата-инженеры, которые занимаются разработкой нейронных сетей, это учтут.

А чату GPT вообще доверять нельзя. Это машина, которая на основании каких-то вероятностей сгенерировала текст. Не обязательно, что в нём говорится чистая правда. Галлюцинирование нейронных сетей – частое явление, с которым борются, как и с выдачей спама в поисковых системах.

Эффект, что нейронка приближена к человеку

Генерация текста – это просто предсказание, какое должно быть следующее слово, наиболее вероятное. Чтобы создавалась вариативность, в неё вносят элемент случайности. Вот есть два очень близких слова, какое из них будет выбрано? Может быть одно, может другое. За счёт этого создаётся вариативность, такой эффект, что нейронка приближена к человеку, потому что человек никогда не говорит одинаково одно и то же.

Есть безопасность нейронных сетей. Чтобы избежать ошибок, рядышком поставили ещё одну нейронную сеть, которую обучили, чтобы она поняла, что она выдаёт какие-то российские штуки. Прежде чем выдать текст, она его проверяет. Если не подходит, возвращает, пока не удовлетворит нейронную сеть-надсмотрщик. Это учит нейронную сеть, чтобы она не выдавала фигню.

Самое зацензуренное – это российские нейронные сети

В Китае нейронная сеть-надсмотрщик работает, она натренирована на то, что кажется создателем чувствительным. В западных странах другие чувствительные вещи, которые связаны с расизмом, нацизмом, и так далее. Мне попалось исследования по поводу цензуры в нейронных сетях. Самое зацензуренное, как выяснилось, это российские нейронные сети. Выяснилось, что Гига-чат, по-моему, называется, и Яндекс GPT, с точки зрения цензуры, натренированного надсмотрщика, гораздо жёстче, чем китайские.

Можно ли обучить искусственный интеллект фактчекингу? Или это останется прерогативой журналистов, профессиональных фактчекеров?

– Как и любая автоматизированная система, скорее всего, ИИ будет выдавать ошибки. Больше скажу, люди, даже фактчекеры, тоже допускают ошибки. Проверенная новость могла быть на каких-то ложных предпосылках. Сегодня этот факт-чек прошёл, а завтра появилась новая информация. Это будет совершенствоваться, нейронные сети будут больше напоминать работу человеческого мозга: они не устают, не подвержены болезням, работают быстрее, у них лучше память. Мне кажется, машинный факт-чек будет через какой-то момент гораздо качественнее. Другое дело, что сейчас нейронные сети работают на созданном корпусе текстов. То есть типа "я не знаю, эта вещь – какая-то новая штука, которую я ещё не изучила".

Тренды ИИ - от брейнрота до пропаганды
пожалуйста, подождите

No media source currently available

0:00 0:04:56 0:00

Комментирует журналист-фактчекер Илья Бер:

– Мы имеем дело с фейками со всех сторон, но почему-то получается, большей частью с российской официальной. К сети "Правды" много вопросов. Западные коллеги писали про её вредоносность. Мы удивлялись: много сайтов, доменных имён, специально выкупленных, но эффекта мало, посещаемость низкая. Кто-то пилит деньги, или что происходит? Правильный ответ, видимо, таков, как пишет Newsguard: сеть создана не для людей, белковых созданий, а для ИИ, для чат-ботов, которые обучаются на информационных массивах из интернета.

Допустим, пользователь открывает Chat GPT, начинает болтовню, да ещё и о политике. Можно ли отличить случайную ошибку искусственного интеллекта от заражения пропагандой?

– Нет, нельзя. Ответственные люди не будут задавать чату GPT cодержательные вопросы о том, как устроен мир. Он не совсем для этого создан. Chat GPT – помощник, который может сделать саммери по какому-нибудь документу, или нескольким. Вы ему говорите: "Такие-то ссылки или файлы я в тебя загрузил, сделай на их основе summary, анализ проведи". Это он отлично умеет делать, отвечает на содержательный вопрос уверенно. Но если он вас вводит в заблуждение, значит, он опирался на недостоверный источник, неавторитетный, или в котором оказалась ошибка, так тоже бывает. Вы это не распознаете, если не пойдёте проверять его ответ. Ответственное использование чат-ботов – если помимо ответа вы просите ссылки, откуда он это взял, разрешаете ему искать в сети, в чате GPT надо отдельную кнопочку нажать. Идёте по ссылкам, которые он даёт, и перепроверяете, действительно ли в этих источниках написано то, что он пересказал. И это не стопроцентная гарантия: в авторитетных источниках, просто с гораздо меньшей вероятностью, могут быть ошибки.

Есть ли какие-то общие признаки того, что конкретная новостная платформа напоминает фейковые?

– Сайт "Правда" опытных пользователей вряд ли мог бы ввести в заблуждение, потому что интерфейс сделан не особенно аккуратно. Зато, как говорят специалисты, он специально оптимизирован под движки поисковых машин, которые написаны для удобства роботов. Но бывают случаи, когда не отличишь, люди вкладываются в дизайн. Если пользователь попадает на сайт по внешней ссылке, чтобы прочитать одну статью, не идёт дальше смотреть, то вполне может "купиться".

Пользователь вполне может "купиться"

Самые громкие фейки обычно отрабатывают нарратив о многомиллионных покупках Зеленского и его жены в разных странах мира, отели на горнолыжных курортах, Mercedes Гитлера, виллу Гитлера. Это делается так: выдумывается несуществующее СМИ, выкупается доменное имя, или делается сайт. Чаще всего с помощью искусственного интеллекта, но он маскируется под нормальное СМИ. Размещается якобы расследование или интервью с какими-то людьми, с актёрами либо дипфейками, созданными с помощью ИИ, которые рассказывают, как они знают, что покупки происходили, слитые документы показываются. Если сайт свою функцию исполнил, если происходит вирусный эффект, – это то, чего добивается пропаганда. Потом на сайте ничего не публикуется, он через некоторое время становится недоступен, потому что перестают платить за продление хостинга и доменного имени. Вот такая схема.

Получается, клиповое мышление в целом влияет на критику, и вера фейкам будет расти?

– Мне кажется, это некоторое паразитирование на наших страхах. Истории про клиповое мышление, про то, что люди всё хуже могут выполнять когнитивные задачи, насколько я знаю, не подтверждаются серьёзными исследованиями. Во все времена подавляющее большинство людей не умело проверять информацию и отличать правду от лжи. В количественном отношении сейчас людей, которые это умеют, делать гораздо больше, чем раньше.

Искусственный интеллект везде

Мы постоянно сталкиваемся с изображениями, созданными с помощью искусственного интеллекта, или обработанными им, с дипфейками, с текстами, созданными таким способом. Создаются сайты, где размещаются новости, которые пишет ИИ. Выдумываются кликбейтные заголовки. Это делается, чтобы завлечь пользователя, разместить рекламу, получить за каждый заход копейку. Такая схема действует во всём мире. С ней крупные рекламодатели, типа Гугла или Facebook, по идее, должны бороться, потому что это обман рекламодателя. Но насколько они с этим борются, непонятно. ИИ везде, и пока что нам, живым белковым фактчекерам, в подавляющем большинстве удаётся отличить одно от другого. Тексты отличать сложнее, чем фото и видео, но появляется все больше инструментов, которые и тексты стараются определять.


XS
SM
MD
LG