
Inteligența artificială ajută la identificarea soldaților ruși, stabilirea de noi ținte și interceptarea comunicațiilor inamicului, scrie Anna Wittenberg* în Nowa Europa Wschodnia. Este și un element ce nu poate fi separat de propagandă și campaniile de dezinformare. Acest instrument multifuncțional a stârnit multe controverse vizavi de folosirea lui în condiții de război. Folosirea diferitelor forme de AI a ridicat și multe semne de întrebare cu privire la adaptarea normele în materie de drept internațional umanitar vizavi de conflictele armate.
„Un bărbat care pretindea că face parte din armata noastră a fost găsit într-un spital. Susținea că este în stare de șoc în urma bombardamentelor, că a fost traumatizat și nu-și mai aduce aminte nimic. Doctorul său ne-a trimis o poză cu el, pe baza căreia l-am putut identifica în doar câteva minute. I-am găsit profilul pe o rețea de socializare și am aflat că este de fapt soldat rus. În mod evident, a fost tras la răspundere”, se laudă pe website-ul companiei americane Clearview AI ministrul transformării digitale a Ucrainei, Mihailo Fedorov. De la începutul invaziei ruse, Fedorov caută modalități de a pune tehnologiile de ultimă generația în slujba statului. Căutând cu disperare sprijin, Ucraina s-a transformat într-un laborator de testare a soluțiilor digitale. Produse care în alte părți, mai liniștite, ale lumii sunt privite cu suspiciune, primesc aici un adevărat botez al focului.
Vrem ca mamele să știe că și-au pierdut copiii
Identitatea soldatului despre care vorbește Fedorov a putut fi stabilită cu ajutorul Clearview AI. Acest instrument de recunoaștere facială are funcții deosebite – nu este nevoie decât să încarci o fotografie în aplicație, pentru ca, mulțumită algoritmilor avansați de căutare, aceasta să o compare cu cele peste 10 miliarde de imagini din baza sa de date. Pentru dezvoltarea acestui sistem, compania folosit programe informaționale specifice care descarcă automat fotografii de pe diferite website-uri: rețelele americane Facebook și Instagram, dar și VKontakte și Odnoklassniki, folosite în Rusia. Una din cinci imagini stocate în baza de date provin din aceste ultime rețele de socializare, se laudă reprezentanții companiei.
Tehnologia oferită de Clearview AI a devenit rapid unul din principalele instrumente digitale folosite de ucraineni. În prezent, Clearview AI este folosită de șapte instituții diferite, inclusiv de armată și poliția de frontieră. Peste 900 de utilizatori au acces la baza de date. În total au fost realizate 125.000 de căutări în sistem. Potrivit autorităților ucrainene, mulțumită acestei tehnologii, 7.500 de suspecți au fost identificați, iar 125 de militari ruși au fost puși sub acuzare. Clearview AI a contribuit la reîntregirea familiilor, la identificarea persoanelor declarate dispărute, detectarea informațiilor false, facilitând procedurile de trecere a frontierei și identificarea spionilor. Soft-ul Clearview a stat și la baza uneia dintre cele mai spectaculoase operațiuni ale războiului informațional.
Datorită algoritmilor săi, IA dezvoltată de Clearview poate recunoaște până și fețele afectate de leziuni grave. Ucrainenii au început să folosească soft-ul pentru identificarea trupurilor neînsuflețite ale militarilor ruși omorâți în luptă, contactând familiile acestora. „Răspândim informațiile pe rețelele sociale. Este un gest de bunovoință față de mamele acestora, am vrut ca măcar familiile lor să știe că și-au pierdut fiii, să poată veni să-i recupereze”, argumentează Fedorov. Alți oficiali ai guvernului ucrainean au declarat că acest lucru este posibil să fi afectat și proasta mobilizare din Rusia.
Toată lumea face asta
Cum a ajuns Clearview AI în Ucraina? Compania a fost cea care și-a oferit serviciile. La începutul lunii martie 2022, președintele Clearview, Hoan Ton-That, a oferit guvernului ucrainean nu doar acces gratuit la tehnologiile companiei, ci și module de instruire pentru folosirea acestora. „Sunt cu inima alături de ucraineni. Sper ca tehnologia noastră să fie folosită pentru a preveni violențele, pentru a salva persoane nevinovate și pentru a preveni pierderea de vieți omenești”, a declarat Ton-That.
Potrivit informațiilor oficiale, deși ucrainenii nu au plătit pentru a folosi această tehnologie avansată, în realitate nimic nu e gratis. Acest studiu de caz a devenit un fel de CSR (răspundere socială corporatistă) în vreme de război, mai exact un model de business unde una din părțile implicate în tranzacție beneficiază de serviciile unei companii, în timp ce compania însăși punctează la capitolul imagine. Toate citatele folosite de oficialii ucraineni în acest articol provin de pe site-ul companiei. A fost nevoie de Clearview AI pentru că atunci când Ton-That și-a oferit seriviciile guvernului ucrainean, autoritățile de relgementare europene și americane l-au acuzat de grave încălcări ale confidențialității utilizatorilor de Internet. Datele lor personale au fost obținute prin nerespectarea reglementărilor folosite de rețelele de socializare. Ton-That a ieșit în presă argumentând că „toată lumea face asta”.
La scurt timp după ce Ton-That și-a înaintat propunerea către autoritățile de la Kiev, autoritatea pentru protecția datelor personale din Italia a amendat Clearview AI cu 20 de milioane de euro. Este cea mai mare amendă posibilă prevăzută de GDPR. În luna mai, și autoritățile britanice au amendat compania cu 8 milioane de euro, pentru ca ulterior și Grecia și Franța să aplice companiei penalități de 20 de milioane de euro fiecare. Pentru Clearview, sumele nu sunt derizorii – potrivit portalului CB Insights care monitorizează industria de profil, valoarea totală a acțiunilor emise de Clearview AI se ridică la 38 de milioane de dolari.
Iar lucrurile nu se opresc aici – companiei i s-a solicitat să elimine fotografiile cu rezidenții țărilor respective din baza ei de date, primind interdicția de a mai colecta astfel de informații pe viitor. În statul american Illinois, Clearview AI a primit interdicție de comercializare a produselor – atât pentru servicii, cât și pentru firme – pentru următorii cinci ani.
Ce spune Palantirul
O altă companie de tehnologie care-și oferă serviciile forțelor armate ucrainene este Palantir. Compania, care poartă numele globurilor magice de cristal din seria Stăpânul inelelor a lui J.R.R. Tolkien, se ocupă de analiza datelor, iar portofoliul ei de clienți include și Departamentul Apărării al SUA, CIA și FBI.
În Ucraina, Palantir a devenit un instrument esențial pentru realizarea unui număr din ce în ce mai mare de sarcini, de la asistență umanitară la operațiuni pe front. De exemplu, imediat după invadarea la scară largă a Ucrainei de către Rusia, a apărut o nevoie urgentă de a găsi locuințe pentru persoanele care fugeau din calea războiului. Marea Britanie a solicitat ajutorul companiei americane. Cu ajutorul soluțiilor software furnizate de aceasta, Marea Britanie a lansat aplicația Case pentru Ucraina, care asigură relocarea refugiaților în condiții de siguranță. La 24 de ore de la lansare, în aplicație au fost înregistate peste 120,000 de oferte de cazare.
Palantir mai este folosit și la documentarea crimelor de război comise de ruși, punând la dispoziția procurorului general al țării un software care leagă presupusele crime de unitățile militare ruse. Soluțiile dezvoltate pe companie vor fi esențiale însă șî pentru reconstrucția viitoare a țării. Pe baza analizelor privind repartiția studenților, Palantir poate contribui, de exemplu, la procesul decizional privind amplasarea noilor școli. Investitorii nu au nicio îndoială că va fi o colaborare bănoasă pentru companie – de îndată ce a fost făcut anunțul privind parteneriatul cu autoritățile ucrainene, valoarea acțiunilor Palantir a crescut cu peste 10%.
Și asta nu-i tot. În februarie 2023, CEO-ul Palantir, Alex Karp, a recunoscut că ucrainenii folosesc tehnologia companiei în scopuri strict militare, pentru monitorizarea țintelor. Sistemul folosit de ucraineni se numește MetaConstellation și folosește datele colectate de sateliți comerciali, senzori de căldură și drone de recunoaștere, dar și din surse tradiționale, adică spioni. Cât de eficientă este tehnologia? După cum reunoștea într-un interviu pentru The Times generalul Richard Barrons, care a condus unitățile britanice în teatrele de operațiuni din Irak și Afganistan, dacă în urmă cu două decenii comandamentul armatei putea să identifice 10 ținte pe zi, în prezent în jur de 300 de ținte pot fi localizate cu ajutorul noilor tehnologii.
Alex Karp echivalează din ce în ce mai des folosirea de sisteme avansate de inteligență artificială cu deținerea unui arsenal de arme nucleare. Și nu este singurul care spune asta. În luna februarie a acestui an, guvernul olandez a organizat primul summit internațional pentru folosirea responsabilă a inteligenței artificiale în domeniul militar. În deschiderea summit-ului, vice-premierul și ministrul afacerilor externe din Olanda, Wope Hoekstra, a făcut o afirmație similară cu cea a CEO-ului Palantir. Peste 50 de țări au participat la summit, inclusiv China (Rusia nu a fost invitată). Participanții au semnat o declarație prin care și-au exprimat angajamentul de a coopera pentru a asigura măsurile de siguranță adecvate și prezența factorul uman în procesele de supraveghere a folosirii sistemelor pe bază de inteligeță artificială.
Și în Polonia se discută pe tema folosirii IA în sectorul militar. În luna aprilie, președintele Andrzej Duda a semnat o rezoluție privind principalele direcții de dezvoltare a Forțelor Armate poloneze în perioada 2025 – 2039. Pe lângă sistemele de apărare aeriană, pe lista înzestrăriilor viitoare ale armatei se numără și soluții de inteligență artificială și soft-uri de anaiză a datelor.
Zelenski capitulează, Putin declară starea de asediu
Totuși, războiul din Ucraina nu se bazează doar pe sistemele de inteligență artificială dezvoltate de marile companii de profil. Este și o gherilă informațională care folosește instrumente generative de inteligență artificială cu viteză de răspândire foarte mare, precum ChatGPT. După lansarea publică de către OpenAI în noiembrie 2022, Ucraina a făcut eforturi mari în următoarele șase luni pentru ca serviciul să fie disponibil pe teritoriul său (inițial ChatGPT a fost blocat, la fel ca în Rusia sau Iran).
Modelele de limbaj de mari dimensiuni (LLM) sunt sisteme avansate de inteligență artificială, capabile să genereze texte pe baza unui volum uriaș de date generale, care pot fi folosite într-o gamă largă de sarcini, precum înțelegerea limbajului vorbit, traducerea și generarea de conținut scris. Chatboții care folosesc aceste sisteme pot fi instrumente deosebit de puternice într-un război informațional. Ei vor genera cu ușurință mesaje în orice limbă, folosind chiar stilul de adresare specific anumitor persoane. Pot crea site-uri sau analiza documente. Desigur, există și o latură întunecată: datele pe care le introducem în aceste soft-uri sunt colectate de dezvoltatori, contribuind la pregătirea viitoarei generații de algoritmi. Este motivul pentru care multe companii, ca de pildă Samsung, interzic folosirea acestor tehnologii, riscul de divulgare a secretelor companiei fiind prea mare. Ca să nu mai vorbim de informațiile militare confidențiale.
Ambele tabere implicate în conflict folosesc inteligența artificială în scop propagandistic. De exemplu, algoritmii contribuie la realizarea de filme, așa-ziselor deep fake-uri reprezentând diverși politicieni. Încă din martie 2022, rușii au lansat o înregistrare pe Internet cu președintele Ucrainei, Volodîmîr Zelenski, în care liderul de la Kiev își îndemna compatrioții să depună armele. Filmulețul a fost rapid identificat ca fiind fals, fiind eliminat de pe platforme precum YouTube și Facebook. La începutul lunii iunie, televiziunea rusă a difuzat o înregistrare în care președintele Vladimir Putin decreta starea de asediu, avertizând populația că va dispune o mobilizare generală. Și această înregistrare a fost trucată. Cu toate acestea, autorii ei nu fost identificați.
Chiar dacă răspândirea de știri false nu reprezintă o noutate, IA oferă oportunități nemaiîntâlnite de amplificare a acestor campanii, în special atunci când sunt dublate de acoperirea oferită de platformele sociale. Numai rețeaua Telegram, unde informațiile despre război circulă în mod obișnuit datorită politicilor liberale de administrare a conținutului, are un miliard de utilizatori. Într-un astfel de mediu, o minciună dezvoltată cu ajutorul IA poate fi ușor răspândită.
Când drona ratează ținta
Folosirea algoritmilor în procesul decizional militar este extrem de controversată. Chiar și în aplicațiile civile, sistemele IA sunt învăluite în mister. Deși principiile generale de funcționare sunt cunoscute, programatorii înșiși nu înțeleg uneori de ce soft-urile au luat anumite decizii și nu altele. Modul de funcționare a acestor algoritmi încă mai prezintă interes pentru oamenii de știință. În 2023, Consiliul European de Cercetare a oferit o bursă profesorului Piotr Sankowski de la Universitatea din Varșovia. În opinia acestuia, când oamenii nu înțeleg de ce programul le sugerează o anumită soluție, vor fi mai puțin dispuși să aibă încredere în el.
„În armată, lucrul acesta este foarte important. Inteligența artificială poate fi folosită în două moduri: pentru a susține deciziile luate de conducători sau ca entitate care ia decizii în mod autonom. Primul este cu siguranță mai puțin controversat. IA este folosită astfel de ani de zile – avem soft-uri care procesează datele oferite de sateliți, informațiile secrete, imaginile captate de sistemele de supraveghere. Adevărata problemă apare atunci când armata decide să acorde libertate decizională acestor programe”, spune Dr. Kaja Kowalczewska, avocat la Universitatea din Wrocław și autoare a volumului Inteligența artficială în război. Perspectiva dreptului internațional umanitar cu privire la conflictele armate.
Ce înseamnă acest lucru? Să luăm ca exemplu dronelor care singure urmăresc și elimină ulterior ținta, omorând astfel o persoană. „Când un militar ia o decizie greșită, el poate fi tras la răspundere în fața tribunalului de judecată. Și superiorul lui poate fi considerat responsabil. Ce se întâmplă însă atunci când o mașinărie face o greșeală? Țara care a folosit dispozitivul ar trebui să răspundă. Dar cine, mai exact? Cumpărătorul, producătorul sau poate programatorul care a creat algoritmul defectuos?”, se întreabă Kowalczewska. Indiferent de tehnologia folosită, toate părțile implicate în conflict sunt obligate să respecte legislația internațională umanitară, „ale cărei principii trebuie aplicate de toți beligeranții”, mai susține aceasta.
Citește articolul integral pe pagina Nowa Europa Wschodnia.
Anna Wittenberg* este jurnalistă la publicația Dziennik Gazeta Prawna, unde scrie despre impactul tehnologiei asupra societății. Printre altele, este interesată de protecția datelor personale și inteligența artificială. Anterior a lucrat la Życie Warszawy, la postul public de radio din Polonia și la Przekrój. A fost nominalizată la premiul Roman Czernecki pentru publicațiile ei despre sistemul de învățământ din Polonia.