Число судебных споров в России, связанных с использованием ИИ, за последний год выросло на 60% . По данным РАПСИ, чаще всего они касаются мошенничества с дипфейками, споров из-за автоматических штрафов, авторских прав и персональных данных. Но устойчивой судебной практики, как и специального закона об искусственном интеллекте, в России нет. Поэтому судьи в подобных случаях применяют существующие нормы гражданского, уголовного и административного права. А это, как отмечают эксперты, становится все сложнее.
Также в выпуске: Женщины потерпят. Почему российские власти предпочитают разговоры о традиционных ценностях профилактике домашнего насилия. Комментирует юристка, экспертка по проблеме насилия в отношении женщин и девочек Дарьяна Грязнова. Куда пошлют, там и лечи. Выпускников российских медвузов обязали работать по госраспределению до трех лет. Комментирует врач Александр Полупан.
При этом председатель Верховного суда России Игорь Краснов поручил ускорить внедрение технологий искусственного интеллекта в работу самих судей. Он полагает, что нейронные сети можно использовать для анализа судебной практики, выявления в ней противоречий и недостатков правового регулирования. Однако Краснов считает, что окончательное решение, касающееся людских судеб, всегда должно оставаться за человеком.
Ранее СМИ сообщали, что Минцифры РФ и Альянс в сфере ИИ разработали новую концепцию регулирования искусственного интеллекта. Авторы говорят, что она существенно отличается от подходов других стран. О том, как сейчас в России регулируется применение ИИ, и чего ожидать в будущем, Радио Свобода рассказал киберадвокат Саркис Дарбинян:
Hегулирование ИИ в России пока весьма мягкое, в отличие от большинства стран
– Надо сказать, что регулирование ИИ в России пока весьма мягкое, в отличие от большинства стран, даже ближайших соседей – того же Казахстана, который буквально на прошлой неделе принял отдельный закон об искусственном интеллекте. В России ничего подобного нет, здесь более гибридная модель, которая регулируется разными федеральными законами и такими мягкими понятиями российского правового контура, как этические нормы. Видимо, с учётом того, что вся разработка технологий, связанных с ИИ, в России находится в руках государственных компаний, а этим занимается только "крупняк" вроде "Mail.ru Group", " Сбера", "Ростеха"и " Яндекса", пока кажется, что эту сферу решили сильно не душить.
Она и так задушена, так как российский рынок отрезан от технологий и разработок всего искусственного интеллекта, которые происходят в мире. Разговор о том, чтобы участвовать в глобальной технологической гонке, ну хотя бы на своем уровне, уже не идёт. Но при этом есть какие-то отдельные судебные решения и судебная практика, которая пытается корректировать законодательство в связи с очевидно изменяющимися условиями. Обычные нормы, в том числе о защите авторских прав, о защите персональных данных, работать уже перестают.
– Насколько реально, что российские власти начнут требовать от пользователей какие-то персональные обязательства - например, декларировать, что они создали контент с помощью искусственного интеллекта, или обязательно хранить какие-то данные, сохранять историю своих запросов при генерациях, показывать исходные промты и прочее?
Пока мы видим, что это больше касается каких-то вопросов, связанных с так называемой "нотификацией"
– Пока мы видим, что это больше касается каких-то вопросов, связанных с так называемой "нотификацией" - уведомлением, что контент был создан с помощью искусственного интеллекта. Надо сказать, что такие нормы уже содержатся во многих законах, в том числе, законе Европейского Союза, который известен как AI Act, там тоже есть случаи, когда вы обязаны указать, что это сгенерировано ИИ. Это касается далеко не всех случаев.
– Это не касается России?
– Это не касается России. Но Россия может копировать какие-то нормы и стандарты. Например, в европейском праве – это всё, что связано с биометрией и с эмоциями человека. То есть если речь идёт о дипфейках и прочем – вы обязаны указать, что это произведено с помощью ИИ, а если вы через нейросеть сделали перевод документов, которые сами написали, вряд эта обязанность необходима. Но рамочного регулирования нет, это скорее ad hoc, разбор тех ситуаций, которые возникают на практике, и в основном, законодатель пока перекладывает это на голову судебной власти, чтобы та разбиралось с частными случаями.
– Если речь идёт об ответственности за последствия использования вредного или спорного контента, какие решения принимает судебная власть в России: отвечает ли за это пользователь, владелец сервиса, который представляет вот эту нейросеть, или её разработчик?
Общий тренд российского регулирования в том, что вся саморегуляция исчезает - это головная боль платформ
-Общий тренд российского регулирования в том, что вся саморегуляция исчезает. Платформа уже напрямую обязана соблюдать те стандарты, которые устанавливает государство – регистрироваться в реестрах, удалять противоправный контент, реагировать, не допускать этого противоправного контента. Поэтому во всех случаях это, конечно, головная боль платформ. Как мы видим, в некоторых случаях это уже начинает быть и головной болью самих пользователей. Я имею в виду развитие норм, связанных с умышленным поиском и допуском к запрещенному контенту.
– Например?
– Например, если вы будете задавать приложению "Алиса" вопросы, связанные с деятельностью структур Навального или других организаций, которые признаны экстремистскими, то эти алгоритмы могут вам не ответить, но записать факт обращения. А дальше может наступать ответственность, которая установлена в административном кодексе за умышленный поиск экстремистского контента. Эти алгоритмы абсолютно непрозрачные, вы не знаете, как они работают, вы не знаете, какие красные флажки они проставляют, кого уведомляют. И в этом плане, конечно, надо быть очень осторожным.
– Может ли вам "прилететь", условно говоря, за то, что вы где-то что-то не так спросили у той же самой "Алисы "или пошутили про товарища майора?
– Абсолютно верно. Возникает большой риск, что "Алиса" вам ничего не ответит, зато шепнёт товарищу майору.
– А какие негативные последствия могут наступить или уже наступают для обычных пользователей, потребителей контента от использования нейросетей? Многие уже поняли, что сейчас сильно продвинулась технология дипфейков, мошенники тоже её начали активно использовать, чтобы выманить у людей деньги или получить доступ к каким-то персональным аккаунтам. Но кроме этого, какие ещё есть опасности?
Мы видим, как на глазах происходит изменение сознания людей
– Здесь, я думаю, возникает много вопросов не столько правовых, а этических и социальных. Насколько общество к этому готово. Сейчас мы видим, как на глазах происходит изменение сознания людей. Иногда люди попадают в определенный ИИ психоз, когда пытаются получать там консультации. Это приводит их к абсолютно неверным выводам, потому что системы искусственного интеллекта пока находятся в сравнительно зачаточном состоянии. Они галлюцинирует, они не обладают сознанием. Да, они работают как большой Т9 – помощник по набору текстов, а люди слишком много этим результатам доверяют и, в том числе, используют их в своей работе.
Это мы видим и в юридическом корпусе, когда не хочется думать головой, ты загрузил все данные, поставил задачу, и вот ИИ за тебя пишет решение. Согласитесь, это довольно заманчиво для того, чтобы облегчить рутину. Но возникают ошибки, мы это уже видим - и юристы, и судьи пытаются халтурить. Это всё требует очень глубокого переосмысления и, конечно, очень аккуратного внедрения на уровне государственного управления судебной системой. При определенном поэтапном внедрении это, конечно, может помогать, но всё должно находиться под контролем человека.
– Существует такая присказка, что когда появился интернет и Google, люди разучились искать информацию и получать её, а когда появился искусственный интеллект, люди разучились критически относиться к найденной ими информации. Вы согласны с этим?
Раньше люди искали источники информации, а теперь они ищут саму информацию
– Конечно, раньше люди искали источники информации, а теперь они ищут саму информацию. И они, в большинстве случаев, не проверяют ссылки и источники. Тот же Gemini от Google работал отвратительно. Сейчас последняя модель, как говорят, демонстрирует какие-то невероятные успехи, по ряду критериев, даже победу над Open AI, но тем не менее, эти ответы зачастую ужасные. И сейчас известно, что, конечно, и Chat GPT, и другие языковые модели во многом зависят от SEO оптимизации поисковых машин, вроде Google.
Про "Яндекс", конечно, мы не говорим, это скорее российская зависимость. Но да, такая корреляция есть, и в основном, они опираются на источники, которые имеют наибольшую цитируемость или посещаемость в "белом" интернете для того, чтобы формировать свои ответы, что, конечно же, не является далеко правильным решением. Потому что ресурсы по SEO оптимизации могут продвигаться совершенно разными, я не говорю, мошенническими, но коммерческими способами, что не гарантирует истинности информации в этих источниках.
– А в этой ситуации можно ли говорить о том, что в самом ближайшем обозримом будущем человечество будет порабощено искусственным интеллектом? То есть люди будут безусловно верить в то, что выдают нейросети?
Это само по себе страшно, потому что производит огромное количество ошибок
– Такая проблема есть как большая проблема алгоритмизации всех юридически значимых решений в отношении человека, которые уже начинают приниматься не людьми, а алгоритмами и машинами. Это само по себе страшно, потому что производит огромное количество ошибок, ложных срабатываний, но есть и изменения сознания. Как-то человечество пытается эту проблему решить.
Сейчас мы видим, что это появление новых вакансий на стыке технологий и глубоких знаний. Это, как правило, операторы в разных секторах над разными языковыми моделями, которые занимаются тем, что составляют для них промты, верифицируют информацию, проверяют, какие ответы они дают. Я думаю, что эти профессии точно будут развиваться, и скорее всего, на таких людей в ближайшие 5-10 лет будет огромный спрос, - уверен киберадвокат Саркис Дарбинян.