Breaking Fake News realizează, săptămânal, o selecție a narațiunilor false demontate în presa internațională.
Suporterii lui Putin înregistraţi în pauza de sinceritate
dailymail.co.uk / 28 mar. 2023; novayagazeta.eu / 26 mar. 2023; meduza.io / 26 mar. 2023
„- Nu dă doi bani pe nimic, nu dă doi bani pe Patrie. E Satana.
- Da.
- E un nimeni. Şi el, şi celălalt, sunt plini de nesiguranţă. Sunt nişte pitici nenorociţi, şovăielnici. Toată lumea îi detestă, îi urăşte.
- Şi întrebarea e când se va termina asta ?”
Personajele descrise deloc măgulitor în transcrirea acestei înregistrări audio sunt preşedintele rus Vladimir Putin şi acolitul său, fostul preşedinte Dmitri Medvedev, iar vocile interlocutorilor - aparent în deplin acord - au fost identificate ca fiind ale unor susţinători proeminenţi ai despotului de la Kremlin: Iosif Prigojin, cunoscut producător muzical şi susţinător al anexării Crimeei, şi Farhad Ahmedov, un miliardar fost senator al regiunii Krasnodar. Convorbirea telefonică ar fi fost înregistrată în ianuarie şi a fost publicată iniţial de televiziunea ucraineană Canal 5, stârnind uimire la Moscova şi intrând, inevitabil, în atenţia Serviciului Federal de Securitate FSB. Timp de mai bine de jumătate de oră, interlocutorii se întrec în critici presărate cu vulgarităţi la adresa felului în care Putin şi cercul său de apropiaţi gestionează războiul din Ucraina.
„[…] I. P.: Părerea mea e că se poartă de parc-ar fi nişte regi, nişte zei, f***. Sunt nişte animale nenorocite, asta sunt ! Nu pot să spun nimic bun despre ei. Nişte ticăloşi, f***.
F.A.: Toţi poartă o vină colectivă. Toţi sunt la vârf şi fiecare e responsabil pentru sectorul lui. Au furat de peste tot. [...] Totul e absurd. Nu am auzit o singură declaraţie care să aibă sens. Nu a existat nici măcar o acţiune corectă.
I.P.: Ai dreptate, aşa e, Farhad. [...]
F.A.: Întrebarea e: ce va urma după ei ? Ce ne aşteaptă ? (03:12) Ne-au terminat pe noi, pe copiii noştri, viitorul lor, destinele lor, ***.
I.P.: Da, la drept vorbind, e clar că sunt nişte criminali, ***. (03:17)”
La scurt timp după ce înregistrarea a devenit virală, Iosif Prigojin a negat vehement autenticitatea acesteia, acuzând o lucrătură deepfake şi reafirmându-şi loialitatea pentru Putin.
I.P.: „(Este) o falsă înregistrare care pretinde că ar prezenta vocea mea şi o convorbire cu un personaj influent a fost ditribuită online. Când am ascultat înregistrarea, mai că mi-a venit să cred că sunt chiar eu. Desigur, e neplăcut să ştiu că vocea mea circulă pe Internet “
Ulterior, Prigojin a admis că unele fraze îi aparţin, dar a insistat că nu-şi mai aduce aminte convorbirea cu pricina. Între timp, publicaţia Important Stories, care citează o sursă din serviciile speciale ruse, susţine că FSB ar fi confirmat valabilitatea înregistrării şi pregăteşte măsuri în consecinţă.
Putin îşi „vânează” opozanţii (şi) cu tehnologie americană
reuters.com / 28 mar. 2023
Nu mai e de mult un secret că guvernul rus foloseşte recunoaşterea facială pentru a-şi supraveghea cetăţenii. Încă din 2017, Moscova a anunţat lansarea uneia dintre cele mai mari reţele video de recunoaştere facială din lume. La acea vreme, mai bine de 3.000 din cele160.000 de camere instalate în capitala Rusiei erau conectate la sistemul care permite identificarea după caracteristicile biometrice ale figurii. După ce au verificat peste 2.000 de cazuri ajunse pe rolul instanţelor moscovite, jurnaliştii agenţiei Reuters au constatat că respectivele camere au jucat un rol important în sute de arestări. Dosarele arată că majoritatea celor trimişi în faţa judecătorilor în 2021 au fost reţinuţi pentru participarea la protestele anti- guvernamentale. Invadarea Ucrainei de către Rusia a adus o schimbare: autorităţile au început să folosească recunoaşterea facială nu doar pentru a-i identifica şi sancţiona pe cei care îşi exprimă nemulţumirile în stradă, ci şi preventiv, pentru a-i împiedica să o facă. S-a ajuns astfel ca persoane a căror imagine se află în baza de date să fie reţinute după bunul plac de forţele de ordine în zilele sărbătorilor naţionale, când de regulă apar proteste, sau atunci când sentimentele anti-războinice ale ruşilor sunt în creştere, cum s-a întâmplat în septembrie anul trecut, cu ocazia mobilizării parţiale. 28 dintre cele 29 de persoane oprite la metrou intervievate de Reuters au confirmat că, potrivit poliţiştilor, măsura a fost o consecinţă a folosirii recunoaşterii faciale. 14 au identificat sistemul de analiză video numit “Sfera”, care foloseşte tehnologia companiei americane VisionLabs. Printre cei reţinuţi s-au aflat studenţi, pensionari, un om de ştiinţă, un cercetător universitar şi un curier. Unii veneau sau plecau la serviciu. Un bărbat mergea la teatru cu soţia şi copii săi. O femeie îşi însoţea mama bolnavă la doctor. Cu toţii aveau în comun atitudinea critică faţă de Kremlin şi, câţiva dintre ei, participarea anterioară la proteste antiguvernamentale. La metroul din Moscova, recunoaşterea facială este parte a sistemului de acces la peron. Atunci când trec prin porţile de intrare, pasagerii sunt fotografiaţi iar un algoritm le compară chipurile cu imaginile din baza de date. Sistemul avertizează atunci când un călător se află pe lista celor urmăriţi. Reacţia poliţiei vine după câteva secunde sau minute. Dintre cele patru firme care furnizează algoritmii pentru funcţionarea sistemului, cel puţin trei utilizează cipuri fabricate de companiile americane Nvidia Corp sau Intel Corp. Contactate de Reuters, conducerile ambelor firme au declarat că au sistat furnizările către Rusia în martie anul trecut, imediat după introducerea de către Statele Unite a restricţiilor de export. Cu toate acestea, documentele vamale consultate de jurnalişti arată că, între 1 aprilie şi 31 octombrie 2022, cel puţin 129 de transporturi ale mărcii Nvidia au ajuns în Rusia prin intermediul unor terţi. Dintre acestea, 57 conţineau unităţi de procesare grafică indispensabile bunei funcţionări a sistemului de recunoaştere facială folosit ca măsură represivă de Kremlin.
Tehnologia „deepfake” – o ameninţare veritabilă
theweek.co.uk / 27 mar. 2023; atlantico.fr / 29 mar. 2023; thetimes.co.uk / 29 mar. 2023
Avalanşa de imagini deepfake revărsată în ultimele săptămâni în spaţiul virtual provoacă îngrijorare printre sociologi, jurnalişti şi politicieni, ba chiar şi în rândul specialiştilor IT. Impactul generat de compunerea digitală a vocii sau imaginii unor personaje reale transpuse apoi în ipostaze fictive dovedeşte că, folosit cu rea-credinţă sau doar fără discernământ, progresul tehnologic poate da o aură de credibilitate oricărui fals, oricât de dăunător. Ceea ce acum câţiva ani părea o doar glumă hi-tech a unor iniţiaţi utilă industriei divertismentului a devenit, prin mulţimea de aplicaţii tot mai sofisticate şi mai accesibile, o ameninţare potenţială la adresa democraţiei şi a societăţii. Experţii în securitate cibernetică atrag atenţia că distribuirea acestor produse ale Inteligenţei Artificiale extrem de realiste poate avea, asemenea altor forme de de dezinformare online, consecinţe extreme. Deepfake-urile pot provoca schimbări dramatice pe pieţele financiare, pot răsturna rezultatele alegerilor democratice, pot face dintr-un inocent un criminal şi pot ruina reputaţii altfel inatacabile. Cu alte cuvinte, generează efecte catastrofale cu costuri devenite astăzi minimale. Acceptarea facilă a produselor deepfake este favorizată de ignoranţă şi credulitate. De pildă, deşi există o categorie tot mai largă de utilizatori ai Internetului, prea puţini dintre ei sunt la curent sau înţeleg ce înseamnă Inteligenţa Artificială şi capcanele ei. O mare parte a publicului tinde să acorde credit oricărei informaţii provenite din surse pe care le consideră legitime pentru simplul motiv că sunt prezente pe ecranul telefonului, calculatorului sau televizorului. În acelaşi timp, incapacitatea de a discerne ficţiunea de realitate are ca efect pervers declinul încrederii publicului în presă, handicap greu de recuperat. Pe de altă parte, inadecvarea reglementărilor la realitate şi lipsa normelor etice sunt semnalate şi în scrisoarea deschisă prin care mii de experţi în IT au cerut în 29 martie un moratoriu de minumum şase luni în domeniul inteligenţei artificiale, invocând “riscuri majore pentru umanitate”.
(Horia Grușcă)