Первый большой всплеск интереса к компании Cambridge Analityса произошел в начале декабря 2016 года: меньше чем через месяц после президентских выборов в США, победу в которых одержал Дональд Трамп, швейцарский журнал Das Magazine опубликовал расследование о том, что успеху избранного президента помогла аналитическая компания, обладатель технологии, позволяющей очень точно таргетировать политическую рекламу в социальных сетях. Журналисты рассказали, что Cambridge Analytica успела поработать и во время референдума по Brexit для сторонников выхода Британии из ЕС, и с “Национальным фронтом” Ле Пен во Франции. Теперь эта история обрела новые, шокировавшие многих подробности: оказывается, для настройки своей системы таргетинга Cambridge Analytica использовала украденные личные данные миллионов пользователей Facebook.
Что же это за компания? Название Cambridge Analytica не случайно, и связь между ней и одним из старейших и наиболее известных британских университетов в самом деле есть, правда, скорее косвенная. В Кембриджском университете существует так называемый Центр психометрии – лаборатория, изучающая возможность измерить различные психологические особенности личности. Традиционно это делается с помощью различных тестов – от тестов на IQ до опросников о сексуальных предпочтениях. Однако некоторое время назад исследователи поняли, что измерить личность человека можно, изучая его цифровой след – лайки в социальных сетях, геоданные, поисковые запросы и так далее. Один из авторов этой идеи – ученый польского происхождения Михал Косински, занимавший должность заместителя директора Центра психометрии. Косински разработал целую систему, позволявшую составлять психологический профиль человека на основе как ответов на опросники, так и данных социальных сетей. Для настройки системы исследователь привлекал добровольцев, участвовавших в тестах на специальной странице, – в качестве вознаграждения они просто получали описание своих психологических особенностей.
В начале 2014 года к Косински обратился коллега, также сотрудник Кембриджского университета, Александр Коган, который предложил специалисту по психометрии применить созданную им модель для анализа нескольких миллионов профилей американских граждан по заказу некой компании. “Он был доцентом на психологическом факультете Кембриджского университета в то время, когда я был там же аспирантом, – рассказал в декабре 2016 года Косински Радио Свобода в большом интервью. – Но наши пути давно разошлись, он основал небольшую компанию и, насколько я понял из прессы, продавал данные Cambridge Analytica, а я остался в академическом мире”. Косински от сотрудничества отказался, однако вскоре узнал из прессы, что Cambridge Analytica использует аналитические модели, очень похожие на ту, что сконструировал он сам.
В том же разговоре с Радио Свобода Михал Косински отметил, что создать такую модель не очень сложно:
Я призываю разработать политику, процедуры, которые бы определяли этичное использование этой технологии
– Это может сделать любой человек, у которого есть базовые навыки программирования, немного денег и компьютер, подключенный к интернету, – собственно, именно это и делает проблему такой значительной. Здесь используются самые стандартные статистические методы, ничего особенного. Главная мысль моих публикаций в том, что это легко, важно лишь изменить фокус: для психометрии больше не нужны опросники и тесты, достаточно иметь цифровой след человека. И это дает огромные преимущества, можно улучшить маркетинг, карьерное планирование, методы психологической помощи, много чего еще. Но ту же технологию можно использовать и против людей. Я уверен, что Александр Коган был в курсе моих исследований, и, хотя об этом я могу судить только по сообщениям журналистов, он сделал ровно то, что я предлагал, и продал результат компании Cambridge Analytica. Я много раз говорил и явно указывал в своих статьях, что не хотел никого вдохновить на такого рода деятельность, более того, я уверен, что люди занимались цифровым психологическим профайлингом задолго до меня, просто не рассказывали об этом так активно, как Cambridge Analytica. Я как раз призываю разработать политику, процедуры, которые бы определяли этичное использование этой технологии.
Судя по исследованию The New York Times, опубликованному 17 марта, опасения Косински об этичности использования нового подхода к психометрии были не напрасны. Американские журналисты выяснили, что Александр Коган, в точности как и сам Косински, настраивал свою модель с помощью добровольцев, проходивших в интернете специальный психологический тест (в отличие от тестов Косински, участникам платили деньги, в общей сложности на это ушло 800 тысяч долларов), параллельно собирая информацию об их профилях в Фейсбуке и о профилях их друзей – на тот момент социальная сеть предоставляла такую возможность сторонним приложениям. Как и Косински, Коган уверял участников эксперимента, что будет использовать их данные исключительно в исследовательских целях, но это оказалось обманом. Бывшие сотрудники Cambridge Analityca рассказали журналистам NYT, что через Когана в распоряжение их фирмы попали персональные данные 50 миллионов пользователей Facebook, благодаря которым и появилась возможность чрезвычайно эффективно таргетировать политическую рекламу.
Вот несколько примеров того, как использовался на американских президентских выборах психологический профайлинг. Аналитики выяснили, что людям разного склада характера стоит по-разному преподносить мнение кандидата по поводу закона о свободном распространении оружия: боязливым людям с высоким уровнем нейротизма оружие можно представить как залог безопасности, а богатым консерваторам-экстравертам показать картинку утиной охоты. Об этом методе с гордостью рассказывал на саммите для влиятельных политиков и бизнесменов Concordia сам сооснователь Cambridge Analytica Александр Никс, причем прямо в разгар президентской гонки. Другие примеры: жителям квартала Маленький Гаити в Майами показывали информацию об отказе Хиллари Клинтон участвовать в ликвидации последствий землетрясения на Гаити, афроамериканцам – видео, где Клинтон сравнивает темнокожих мужчин с хищниками. Наконец, данные компании использовали волонтеры, ходившие по домам американских избирателей и агитировавшие голосовать за Дональда Трампа. Они заранее знали, что за люди живут в доме, куда собирались зайти, и заранее могли избрать выигрышную стратегию убеждения.
Журналистам удалось выяснить, что Cambridge Analytica предлагала свои услуги и американским демократам, но они не заинтересовались. А вот Стивен Бэннон, бывший руководитель консервативного сайта Breitbart и бывший советник Трампа, заинтересовался, он же нашел и деньги – в капитал компании вошли основные доноры кампании Трампа, семья Мерсеров (инвестиции составили всего лишь 15 миллионов долларов), а сам Бэннон стал вице-президентом фирмы, хотя и непубличным – в 2016 году о сумме вложений говорили, но имен Бэннона и Мерсеров не называли.
Расследование спровоцировало скандал, коснувшийся многих участников этой истории. Во-первых, представители Facebook, как утверждают авторы публикации, знали об утечке данных пользователей и о том, как они будут использованы. После выхода разоблачительных статей социальная сеть закрыла для Cambridge Analytica возможность работы со своими данными.
Во-вторых, деятельность Cambridge Analytica проходит по грани легальности с точки зрения законов США, в первую очередь из-за того, что среди сотрудников фирмы было много граждан других стран.
В-третьих, выяснилось, что Александр Каган работает не только в Кембридже, но и в Санкт-Петербургском государственном университете. (Некий А. Коган упоминается на сайте университета как руководитель исследования “Стресс, здоровье и психологическое благополучие в социальных сетях: кросс-культурное исследование”, которое проводилось на психологическом факультете СПбГУ в 2015–2017 годах). Впрочем, нет абсолютно никаких данных, которые бы указывали, что через профессора на американские выборы пытались влиять российские власти.
Но главное, пожалуй, в том, что глобальная манипуляция с помощью кражи большого количества приватной информации превратилась из страшилки, которой любят пугать человечество технопессимисты, в реальность.
“Важность истории Cambridge Analytica, на самом деле, не в том, что компания помогла Трампу в предвыборной гонке, – говорил Косински в интервью Радио Свобода в декабре 2016 года. – Это коммерческая фирма, у них есть технология, они хотят зарабатывать деньги, здесь все ясно. Важно то, что если раньше вы хотели составить чей-то психологический профиль, вы должны были попросить человека заполнить опросник, пройти тест – и испытуемый хорошо понимал, что вот сейчас, в этот самый момент, кто-то измеряет его психологические характеристики. А теперь можно делать то же самое, но человек не узнает, что его самые интимные особенности прямо сейчас кто-то оценивает и измеряет. Достаточно посмотреть на цифровой след: записи в социальных сетях, лайки, историю просмотра страниц в интернете, историю поисковых запросов”.
По словам Косински, для построения крайне точного психологического профиля пользователя достаточно знать всего несколько десятков интересных ему страниц в Facebook. Используя эти данные, можно точнее угадать ответы пользователя на вопросы психологического теста, чем это сможет сделать его ближайший родственник. И с этим невозможно бороться: нет смысла стирать свой профиль в социальной сети, мы все равно оставляем огромный цифровой след, которым, как показывает история Cambridge Analytica, не просто кто-то может воспользоваться гипотетически, но и наверняка уже пользуется прямо сейчас.
Сам британский ученый считает, что с этим придется свыкнуться. Его собственные опасения куда более глобальны:
Стоит помнить об этом, потому что когда миром станет править искусственный интеллект, мы вполне можем этого точно так же не заметить
– Вот есть голуби и муравьи, думаете, они знают, что миром правит человек? Догадываются, что Дональд Трамп может нажать на красную кнопку? Нет, конечно. Стоит помнить об этом, потому что когда миром станет править искусственный интеллект, мы вполне можем этого точно так же не заметить. Мы ведь уже не можем осмыслить и проанализировать те объемы данных, которые сами же и производим, – и нам приходится доверяться компьютеру. Вы можете спросить у машины: можешь что-то предсказать на основе этих данных? Она ответит: да, конечно. Вы спросите: а как ты это делаешь? Она скажет: прости, но ты не поймешь. И все это – уже реальность, – считает Михал Косински.