Nr. 56: AI și dezinformare în războiul Israel – Hamas

Nr. 56: AI și dezinformare în războiul Israel – Hamas
© EPA-EFE/HARISH TYAGI   |   O persoană își verifică mobilul în timp ce se încarcă informații despre cum pot fi combătute știrile false, New Delhi, India, 02 Mai 2019

Breaking Fake News realizează, săptămânal, o selecție a narațiunilor false demontate în presa internațională.

Inteligenţa artificială şi războiul falsurilor  Israel – Hamas

dw.com / 10 nov. 2023; ynet.news.com / 9 nov. 2023; epicenter.bg / 29 oct. 2023; @IsraelinUSA/twitter.com /14 nov. 2023; @jacksonhinklle/twitter.com / 12 nov.2023

Într-un conflict în care emoţiile sunt exacerbate, aşa cum este războiul Israel-Hamas, utilizarea inteligenţei artificiale reprezintă un instrument eficient de  dezinformare, deşi nu foarte răspândit. Evoluţia tehnologică rapidă face tot mai performante şi mai accesibile aplicaţiile care pot genera imagini sau videoclipuri virtuale credibile. Specialiştii consultaţi de Deutsche Welle identifică două mari categorii. Cea dintâi se referă la imaginile care se concentrează pe suferinţele populaţiei civile pentru a stârni compasiunea privitorului. Cea de a doua o reprezintă imaginile generate artificial care exagerează sprijinul fie pentru Israel, fie pentru Hamas sau palestinieni, amplificând sentimentele patriotice. Din prima categorie face parte o fotografie care pare să înfăţişeze un tată cu cinci copii mergând printre ruinele lăsate în urmă de bombardamentele israeliene. A fost distribuită intens pe Twitter şi Instagram, unde a fost vizualizată de sute de mii de ori. O privire atentă scoate la iveală mai multe erori şi neconcordanţe specifice creaţiilor Inteligenţei Artificiale. De pildă, umărul drept al bărbatului este vizibil disproporţionat, iar braţele au o aparenţă ciudată, ca şi cum i-ar creşte de sub pulover. La fel de nefireşti sunt şi mâinile copiilor încolăcite în jurul gâtului tatălui lor. Numărul degetelor de la mâinile sau picioarele peronajelor din fotografie sunt fie prea multe, fie prea puţine. Anomalii asemănătoare se regăsesc şi într-o altă fotografie devenită virală pe platforma X, fostă Twitter, care naşte simpatie pretinzând că arată o familie numeroasă de palestinieni mâncând împreună înconjuraţi de dărâmături. Una din imaginile care se încadrează în cea de-a doua categorie de falsuri prezintă soldaţi şi blindate mărşăluind pe o stradă mărginită de clădiri bombardate între rămăşiţele cărora flutură steaguri israeliene. A fost distribuită cu predilecţie de utilizatorii unor conturi pro-israeliene, care par să salute evenimentul descris. Imaginea a fost preluată şi într-o publicaţie online bulgărească, fără să fie marcată ca falsificată cu ajutorul Inteligenţei Artificiale. Primul lucru nenatural care atrage atenţia este felul în care flutură steagurile inserate  de-a lungul drumului. Apoi, strada din mijloc este neobişnuit de curată, în timp ce molozul de pe margini pare distribuit uniform. Una peste alta, senzaţia vizuală este că totul este prea „curat” ca să fie real. Această aparenţă de „impecabil”, care face imaginea să semene cu o pictură, este tipică pentru creaţiile Inteligenţei Artificiale. Cele mai multe astfel de falsuri sunt răspândite online atât de pe conturi autentificate, cât şi de pe cele false. Creaţiile artificiale sunt însă folosite în scop ilustrativ şi de către jurnalişti, o problemă etică dezbătută în multe companii media. Firma de software Adobe a stârnit controverse aprinse la sfârşitul anului trecut, când a adăugat fotografii generate artificial în banca sa de imagini oferite spre comercializare. Este adevărat, acestea sunt marcate ca atare, dar publicaţiile care le achiziţionează nu menţionează întotdeauna acest lucru atunci când le folosesc. Chiar şi Serviciul de Cercetare al Parlamentului European a ilustrat un text online despre conflictul din Orientul Mijlociu cu un fals din banca de date Adobe, fără să prevină cititorii că imaginea nu e reală. Pe de altă parte, interferenţa imaginilor create digital în reflectarea evenimentelor induce în rândul unor utilizatori un  sentiment de neîncredere în tot ceea văd pe Internet. Se ajunge astfel, în oglindă, la situaţia perversă în care imagini reale sunt considerate ca fiind produse ale Inteligenţei Artificiale. Este cazul unei fotografii tulburătoare cu cadavrul carbonizat al unui copil israelian, distribuită de premierul Benjamin Netanyahu. Au urmat acuzaţii că imaginea ar fi una creată artificial, fiind invocat rezultatul verificării cu aplicaţia online „A.I. or Not”. Contestarea a adunat peste 20 de milioane de vizualizări. Au urmat alte verificări ale autenticităţii fotografiei cu programe ale unor firme concurente, fără să fie identificate elemente concludente care să indice că ar fi vorba de un fals. Controversa evidenţiază că tehnologia de depistare a falsurilor nu este încă infailibilă, aşa cum, deocamdată, nu există nici falsuri perfecte.

Acuzaţii false de înscenare a unor drame adevărate  

@ofirgendelman/twitter.com; mediaite.com / 9 nov. 2023; rfi.fr / 14 nov. 2023; ap.com / 28 oct. 2023; euronews.com / 1 nov. 2023

În paralel cu înmulţirea falsurilor generate de algoritmii Inteligenţei Artificiale, apar tot mai des acuzaţii de victimizare, exagerare sau chiar falsificare de către palestinieni pentru publicul online a catastrofei umanitare din Fâşia Gaza. Unele dintre acestea     s-au dovedit nefondate. O postare recentă distribuită masiv pe reţelele de socializare prezintă un videoclip cu o fetiţă căreia i se aplică un machiaj cu sânge fals în timp ce aşteaptă zâmbitoare pe o targă să fie luată de brancardieri. Printre cei care au distribuit clipul s-a numărat şi Ofir Gendelman, purtător de cuvânt pentru lumea arabă al premierului Benjamin Netanyahu. Oficialul israelian a susţinut că imaginile probează că palestinienii îşi regizează rănile pentru a stârni compasiunea, folosind termenul de “Palywood” ca trimitere ironică la capitala mondială a filmelor de ficţiune. În scurt timp, un jurnalist de la BBC a demontat acuzaţia, arătând că imaginile au fost de fapt înregistrate în culisele realizării scurtmetrajului libanez intitulat „Realitatea”, aşa cum însuşi regizorul filmului a declarat public într-o postare. Diplomatul israelian nu este la prima mistificare de acest gen. Cu două săptămâni înainte, Gendelman distribuise un videoclip atribuit armatei israeliene despre care a spus că arată cum militarii îi încolţesc pe luptătorii Hamas în tunelurile din Gaza folosind câini de atac. Ulterior, un jurnalist israelian a declarat că filmarea, la realizarea căreia a participat, a fost realizată mai demult în timpul unei şedinţe de dresaj canin. O altă acuzaţie nefondată de înscenare adusă palestinienilor, devenită virală, l-a avut printre promotori pe Hananya Naftali, până de curând consilierul pe probleme digitale al premierului israelian, şi el cu antecedente în promovarea falsurilor online. Naftali a adunat 1.700.000 de vizualizări cu postarea unui montaj paralel de imagini descris ca  înfăţişând un blogger palestinian plimbându-se sănătos prin Gaza la o zi după ce apăruse pe reţelele de socializare pe un pat de spital, aparent grav rănit de bombele israeliene. În realitate, în filmări apar două personaje diferite, fără legătură între ele. Primul clip a fost publicat în 26 octombrie şi îl înfăţişează pe Saleh Aljafarawim, un palestinian care postează frecvent imagini cu conflictul în curs din Fîşia Gaza. În cel de-al doilea - distribuit pe TikTok în august, deci cu mult înaintea izbucnirii războiului - , a fost identificat Mohammad Zendek, un palestinian de 16 ani din Cisiordania, care şi-a pierdut un picior în urma incursiunii din iulie a forţelor israeliene în tabăra de refugiaţi Nour Shams, la 100 de kilometri de Gaza. 

False mesaje de susţinere a beligeranţilor din Gaza

washingtonpost.com / 10 nov. 2023; factcheck.afp.com / 2 nov. 2023; apnews.com / 2 nov. 2023; leadstories.com / 2 nov. 2023; fullfact.org / 31 oct. 2023

Războiul din Orientul Mijlociu a împărţit lumea celebrităţilor mondiale în două. Actori, cântăreţi, sportivi şi-au exprimat deschis sprijinul fie pentru cauza palestiniană, fie pentru Israel. În cazul unor vedete care au evitat să-şi asume public o opinie   tranşantă, admiratorii s-au mobilizat online şi le-au atribuit idolilor declaraţii inventate, potrivite convingerilor lor. S-a ajuns astfel ca fotografia fotbalistului argentinian Lionel Messi să circule pe platformele de socializare asociată fie cu drapelul israelian, fie cu culorile palestiniene prin modificarea unor fotografii  ale vedetei disponibile online. Deşi nu are cont pe niciuna dintre reţelele existente, actorul american Mel Gibson a fost prezentat în mod fals ca autor al unei postări ilustrate în care binecunoscuta Stea a lui David este înlocuită cu clepsidră stilizată şi un mesaj prevestind sfârşitul statului Israel. O surpriză similară a avut şi colegul său de breaslă, actorul Jason Statham, despre care s-a spus, fără temei, că ar fi fost filmat arborând steagul Organizaţiei pentru Eliberarea Palestinei pe maşină. O analiză  video a dovedit că, în ciuda unei asemănări superficiale, personajul din clip nu este faimosul erou al filmelor de acţiune. În cazul fotomodelului american Bela Hadid, mistificare a fost mai elaborată. Autorii au apelat la tehnologia Deep Fake, pornind de la un discurs al vedetei filmat la un eveniment monden din 2016, la care au înlocuit coloana sonoră cu un fals mesaj de susţinere a Israelului pe care Hadid, al cărei tată este palestinian, l-ar fi rostit după atacul 7 octombrie al teroriştilor Hamas.

Bell Hadid, fotomodel (declaraţie DeepFake)

Îmi cer iertare pentru ultimele mele comentarii. Această tragedie mi-a deschis ochii la suferinţa de acolo şi sunt alături de Israel în lupta sa cu terorismul.

Eşecul propagandei anti-ucrainene în cinematografele Rusiei

belsat.eu / 6 nov. 2023; aljazeera.com / 9 nov. 2023; imdb.com

Primul film artistic dedicat de propaganda Kremlinului războiului din Ucraina pare să fi eşuat lamentabil în cinematografele din Rusia. Finanţată generos cu două milioane de dolari, producţia intitulată „Svidetel / Martorul”, regizată de David Dadunaşvili şi lansată în august a avut după  patru zile încasări de doar 70.000 de dolari, deşi a rulat în 1.131 de săli de cinema. Şi asta în ciuda propmovării agresive şi în absenţa concurenţei filmelor americane, supuse sancţiunilor. Scenariul spune povestea unui violonist belgian aflat în turneu la Moscova, unde se întâlneşte cu un oligarh ucrainean care-l invită la Kiev. Începutul invaziei armatei ruse îl surpinde încercând să părăsească Ucraina, o ţară marcată de toate tarele descrise de propaganda Moscovei, de la manifestări neo-fasciste, corupţie şi furturi, până la violenţe, violuri şi crime. Nu sunt ratate până la final nici mistificările grosolane arhicunoscute: armata ucraineană este responsabilă pentru bombardarea teatrului şi a maternităţii din Mariupol, a gării din Kramatorsk şi pentru uciderea civililor din Bucea. Să mai spunem că site-ul Internet Movies Data Base (IMDB), cea mai autorizată sursă în domeniu, i-a acordat filmului Svidetel nota unu din zece.

Timp citire: 8 min