Linkuri accesibilitate

Vocea lui Biden, utilizată într-un „deepfake” pentru a descuraja alegătorii


Prin tradiție, alegerile primare din statul New Hampshire încep în Dixville Notch, localitate aflată aproape de granița cu Canada, unde se votează într-un hotel, chiar de la miezul nopții. În imagine: oficial electoral pregătind urna de la Tillotson House.
Prin tradiție, alegerile primare din statul New Hampshire încep în Dixville Notch, localitate aflată aproape de granița cu Canada, unde se votează într-un hotel, chiar de la miezul nopții. În imagine: oficial electoral pregătind urna de la Tillotson House.

Mesajul ce îndemna votanții din New Hampshire „să sară” peste primarele democrate de marți, 23 ianuarie, a fost transmis prin intermediul unor apeluri telefonice ce imitau vocea lui Biden, generată de inteligența artificială (AI).

Procurorii din New Hampshire au anunțat deja deschiderea unei anchete, fiind documentate mai multe cazuri.

„Deși vocea din apelul telefonic robot pare a fi vocea președintelui Biden, acest mesaj pare a fi generat artificial, pe baza primelor dovezi”, se arată în mesajul biroului procurorului general.

Aplicația anti-apeluri robotice Nomorobo estimează că au fost efectuate între 5.000 și 25.000 de astfel de apeluri în ultima perioadă.

Procurorul general din New Hampshire, John Formella, susține că acest mesaj transmis alegătorilor în ziua de duminică, este cel mai probabil o tentativă ilegală de a perturba procesul electoral. Oficialul a îndemnat cetățenii „să ignore în întregime conținutul acestui mesaj”.

Associated Press notează că apelul telefonic nu doar că a imitat vocea președintelui SUA, dar și a folosit unele dintre frazele sale emblematice. În același apel, ascultătorii sunt îndemnați „să-și păstreze votul” pentru alegerile din noiembrie.

„Votul din această marți le va permite republicanilor să-l aleagă din nou pe Donald Trump. (...) Votul tău va face o diferență în noiembrie, nu în această marți”, se menționa în apel.

Autorii sunt necunoscuți

Nu este clar cine stă în spatele acestor apeluri telefonice, deși multe dintre ele au apărut în mod fals ca venind din partea fostei președinte a Partidului Democrat din New Hampshire, Kathy Sullivan. În prezent membră a comitetului de acțiune politică ce sprijină realegerea lui Biden, aceasta a anunțat că a depus o plângere la biroul procurorului general.

Echipa de campanie a lui Donald Trump a negat orice implicare.

Secretara de presă a Casei Albe, Karine Jean-Pierre, a confirmat incidentul, afirmând că „apelul a fost într-adevăr fals și nu a fost înregistrat de președinte”. În același timp, managerul de campanie a lui Biden, Julie Chavez Rodriguez, a afirmat că membrii echipei de campanie „discută în mod activ măsurile suplimentare ce ar trebui luate imediat”, afirmând că combaterea acestui tip de dezinformări reprezintă o prioritate în acest an.

AI, marele risc al anului electoral 2024

Cazul din New Hampshire reprezintă o ilustrare a unuia din cele mai mari riscuri pe care inteligența artificială generativă le prezintă la adresa democrației, în special când vine vorba de utilizarea ei în campaniile de dezinformare. Experții susțin că această tehnologie ar putea duce la un nivel fără precedent de manipulare și distribuire a știrilor false în anul electoral 2024, deși incidente de acest tip au mai fost înregistrate, de pildă la alegerile din toamnă din Slovacia sau la cele din acest an, din Taiwan.

„Rostul lor nu este să ne convingă că (...) minciunile pe care le spun sunt adevărate", a spus David Becker, expert electoral și fost procuror al Departamentului de Justiție al SUA.

„Trebuie doar să ne convingă că nu există adevăr, că nu poți crede nimic din ceea ce ți se spune”, a adăugat acesta.

În SUA, această tehnologie nu este încă reglementată la nivel federal, Congresul fiind încă în discuții cu privire la acest subiect. Comisia Electorală Federală monitorizează situația, deși există apeluri publice la inițierea unui mecanism de control a deepfake-urilor generate de AI în mesajele de campanie electorală.

Populare și în R. Moldova

Utilizarea tehnologiei deepfake, în special cu ajutorul inteligenței artificiale generative, este cunoscută inclusiv și în R. Moldova. Cele mai multe, care au apărut în ultimul an, în special în perioada campaniei electorale, au utilizat imaginea și vocea Maiei Sandu pentru a transmite mai multe mesaje de ordin politic sau social, uneori cu tentă ironică.

De obicei, acestea apar fie pe pagini de Facebook sau pe canale de Telegram. Într-un clip video apărut la începutul lunii noiembrie, înaintea alegerilor locale, „Maia Sandu”, îmbrăcată ca și cum ar fi musulmană, își anunța demisia și îndemna cetățenii să voteze un candidat pro-rus.

Cel mai recent clip video de acest fel a apărut la 22 ianuarie curent, unde „șefa statului” vorbea despre modernizarea sistemului medical prin distrugere.

Anterior, Președinția a denunțat și condamnat apariția acestor tipuri de mesaje, calificându-le drept „atacuri asupra democrației”. Maia Sandu a avertizat ulterior că „minciunile vor continua și vor lua proporții tot mai mari”.

„Vă îndemn să analizați cu atenție ce citiți, să nu vă lăsați prinși în capcana propagandei, să aveți încredere în Moldova, căci doar așa, împreună, vom reuși să construim viitorul pe care ni-l dorim cu toții”, a subliniat președinta Maia Sandu.

  • 16x9 Image

    Cristian Bolotnicov

    Sunt istoric devenit jurnalist cu timpul. Între 2021 și 2023, am lucrat ca reporter la Agora.md, acoperind teme de politică internă și externă, justiție și tehnologie. În prezent, sunt bursier în cadrul programului Vaclav Havel al Europei Libere.

XS
SM
MD
LG