Cum a ajuns inteligența artificială motor al dezinformării despre războiul din Ucraina

Inteligenţa artificială (IA) a devenit un motor al dezinformării despre războiul din Ucraina, în special prin crearea de imagini false şi manipularea chatboţilor precum ChatGPT cu falsuri menite să modeleze cursul acestui conflict, care intră marţi, 24 februarie, în al cincilea an, scrie EFE, preluată de Agerpres.
De la izbucnirea sa, războiul din Ucraina a fost unul dintre evenimentele care au generat cea mai mare dezinformare în era reţelelor sociale, cu fake news şi naraţiuni false care au traversat graniţele. Cu toate acestea, inteligenţa artificială a marcat un punct de cotitură în ceea ce priveşte forma şi diseminarea propagandei proruse, notează Olga Petriv, avocată specializată în IA la Centrul pentru Democraţie şi Statul de Drept, cu sediul în Ucraina.
"Dezinformarea a trecut de la crearea manuală de 'ştiri false' la o etapă de operaţiuni complet automatizate la scară industrială", subliniază ea cu privire la apariţia acestei tehnologii.
Aceste campanii de dezinformare îşi propun, printre altele, să manipuleze răspunsurile "chatboţilor" conversaţionali.
Tehnica, cunoscută sub numele de LLM Grooming (manipularea marilor modele de limbaj), constă în inundarea internetului cu dezinformare, astfel încât aceasta să fie detectată şi încorporată de chatboţi şi în răspunsurile lor.
"Prin inundarea internetului cu milioane de articole generate de inteligenţa artificială, reţelele de propagandă 'otrăvesc' efectiv mediul informaţional. Acest lucru forţează sistemele de inteligenţă artificială generativă să reproducă în mod accidental aceste minciuni ca fapte obiective", explică experta citată.
Acesta este cazul reţelei Pravda, o colecţie de site-uri web prezente în aproximativ 50 de ţări, care publică zeci de mii de articole în fiecare lună, aliniate cu naraţiunile proruse.
Conform mai multor investigaţii, instituţiile media tradiţionale şi blogurile oferă linkuri către articole din această reţea în relatările lor, ceea ce le creşte credibilitatea şi poziţionarea în motoarele de căutare şi chatboţi.
Pe de altă parte, progresul fără precedent în imaginile generate de inteligenţa artificială a ajutat, de asemenea, agenţii de dezinformare să creeze conţinut aproape imposibil de distins de realitate.
Acum câteva luni, un videoclip cu un presupus soldat ucrainean în vârstă de 23 de ani plângând în faţa camerei în timp ce povestea cum a fost forţat să meargă pe front a devenit viral pe reţelele de socializare.
Videoclipul fusese generat folosind inteligenţa artificială, pornind de la chipul unui creator de conţinut rus care se poziţionase împotriva regimului preşedintelui rus Vladimir Putin.
Aceste imagini, la fel ca altele cu falşi soldaţi care pretind că au fost forţaţi să lupte, nu prezintă defectele tipice asociate conţinutului generat cu această tehnologie, ci doar mici inexactităţi în privinţa uniformei sau a stemei ucrainene pot alerta privitorul că imaginea este falsă.
Realismul său contrastează puternic cu alte conţinuturi modificate digital care au circulat la începutul războiului, cum ar fi un deepfake al preşedintelui ucrainean, Volodimir Zelenski, dansând, însă în acest conţinut erorile puteau fi observate cu ochiul liber.
"Tehnologiile generative moderne au atins un asemenea nivel de realism încât identificarea manipulării necesită mai mult decât simpla observare: sunt necesare instrumente analitice specializate, deoarece aceste atacuri vizează declanşatorii subconştienţi ai publicului", argumentează Petriv.
Experta avertizează că proliferarea imaginilor artificiale poate servi drept "alibi" pentru negarea faptelor reale: "Acum pot nega chiar şi dovezi de netăgăduit ale crimelor lor (de exemplu, imagini autentice din prima linie) pur şi simplu etichetându-le drept 'generate de IA'".
Acest lucru creează o "prezumţie de falsitate" periculoasă, în care, implicit, informaţiile primite sunt adesea percepute ca potenţial false, lăsând faptele reale fără apărare împotriva negării cinice.
Unele dintre aceste imagini generate de IA au fost difuzate în mai multe limbi, cum ar fi germană, spaniolă, franceză, engleză, italiană şi portugheză, sugerând existenţa unei campanii organizate.
În afara domeniului IA, în ultimele luni au fost detectate şi falsuri care încearcă să descurajeze luptătorii străini, în special columbienii, să lupte pentru Ucraina sau chiar să saboteze negocierile de pace.
Știri din Teleorman
24NewsRo.ro - Portalul de știri al județului Teleorman