Bună dimineața,
👉 Discursul politic digital al candidaților la președinția României este distorsionat de acțiuni care amplifică artificial prezența acestora online, arată un raport publicat de Funky Citizens.
Raportul descrie cum paginile și conturile oficiale de social media ale candidaților cu cele mai vizibile profiluri electorale au crescut masiv și inexplicabil în anumite momente punctuale - singura justificare plauzibilă fiind folosirea unor metode artificiale de amplificare.
Adică rețele de boți. Din datele prezentate în raport, mi s-a părut remarcabilă informația că există comentarii în limbi străine care amplifică unele postări ale candidaților, și acestea activează pe mai multe platforme:
„Analiza geografică a timpilor de postare pentru aceste comentarii și interacțiuni în limbi străine relevă modele consistente cu fusurile orare din Asia de Sud-Est și Orientul Mijlociu—regiuni cunoscute pentru găzduirea unor «ferme de conținut» care oferă servicii de amplificare pe social media”, arată raportul.
În plus, acesta mai subliniază că „prevalența conturilor de urmăritori în limbi străine pe toate platformele indică coordonare dincolo de granițele României”.
Raportul nu atribuie vreunei entități reale interferența în activitatea conturilor oficiale.
👉 Acțiunile care generează distorsiune în peisajul digital nu se opresc aici. Expert Forum a semnalat, în ultimele două săptămâni, de mai multe ori, că Meta acceptă publicitate care poate fi considerată politică, dar nu este marcată în acest fel - o cerință de transparență vizată atât de autoritățile din România cât și cele europene.
Puteți citi detalii despre acțiunile EFOR aici, aici sau aici.
👉 Rusia are trei obiective principale pe care speră să le atingă în România:
a) ţara noastră să oprească sprijinul pentru Republica Moldova
b) să oprească sprijinul pentru Ucraina
c) să vulnerabilizeze flancul estic al NATO
În plus, explică Ileana Racheru, expertă în spaţiul ex-sovietic şi dezinformare, Rusia e interesată să câştige unui nou pion în UE, după Orban la Budapesta şi Fico la Bratislava, pentru a slăbi din interior această organizaţie. (News.ro)
O temă de meditație
Marz Zuckerberg, CEO-ul Meta, a prezentat săptămâna trecută un grafic care arată că, în ultimii doi ani, timpul petrecut de utilizatori vizionând conținut publicat de „prieteni” (friends) a scăzut semnificativ: de la 22% la 17% pe Facebook și de la 11% la 7% pe Instagram. Zuckerberg a fost audiat în prima fază a unui proces anti-trust împotriva Meta. (The New Yorker)
…dar ar trebui să luăm cu puțină apă rece mesajul său, care spune, în esență, că social media nu mai înseamnă, astăzi, conexiunea socială cu alți oameni, cât platforme de divertisment și căutări.
În primul rând, pentru că în această acțiune, Meta este acuzată de o poziție de monopol ilegal în serviciile de „platforme sociale pentru uz personal” - adică exact activitatea despre care susține că ar fi scăzut în ultimii doi ani.
În al doilea rând, pentru că rețeaua nu este transparentă în ceea ce privește conținutul pe care îl adaugă automat în feed-urile utilizatorilor.
De pildă, The Verge arată că pentru a vizualiza doar conținutul produs de prieteni, trebuie să alegem Tab-ul Friends din opțiunile Facebook - ceea ce foarte puțini dintre noi facem. În același timp, feed-ul clasic este invadat de postări ale unor pagini și conturi pe care nu le urmărim.
Cu alte cuvinte, scăderea anunțată de Zuckerberg ar putea fi datorată algoritmilor care creează feed-ul, nu lipsei de interes a utilizatorilor pentru conținutul produs de prieteni.
În același timp, Meta anunța în urmă cu doar câteva zile că se străduiește să „curețe” Facebook de conținutul de tip spam și va penaliza mai departe paginile și conturile care publică acest tip de conținut. (The Verge)
Știri despre știrile false (și rețelele sociale care le amplifică)
👉 Europarlamentarul AUR Gheorghe Piperea vorbește pentru France 24 despre acțiunile autorităților din România, care au dispus ștergerea unor postări de pe rețelele sociale și susține că acestea favorizează candidatul alianței formate de PSD, PNL și UDMR.
…în condițiile în care AUR este partidul care a depus cele mai multe reclamații la Biroul Electoral Central privind exact ștergerea unor postări. (G4Media) …dar link-ul de mai sus e relevant și ca să vă faceți o idee despre engleza folosită de europarlamentarul român.
👉 Tot despre valul de dezinformare care însoțește campania electorală din România scrie și Associated Press.
👉 Accesul Bulgariei la zona euro, planificat pentru 2026, este afectat de o campanie de falsuri - cel mai răspândit fiind acela că UE s-ar pregăti să confiște economiile oamenilor, dacă acestea nu sunt cheltuite până la un termen limită. (Euronews)
…dar dacă vă amintiți, am avut acest fals și acasă. L-a demontat pe larg Veridica.
👉 În primele 100 de zile de președinție ale lui Donald Trump, SUA au redus drastic finanțarea federală pentru cercetarea dezinformării și au închis o agenție-cheie, care combate operațiunile de influență străină.
„Este șocant că înțelegerea modului în care oamenii sunt induși în eroare de informații false a devenit acum un subiect interzis”, a declarat Lisa Fazio, profesor asociat de psihologie la Universitatea Vanderbilt, confirmând că finanțarea sa federală pentru a studia „cum se formează convingerile false (și) cum pot fi corectate” a fost anulată. (France 24)
👉 …în timp ce techdirt observă, într-o analiză, că acțiunile sunt motivate de credința falsă că orice cercetare asupra fenomenului dezinformării ar reprezenta un „program de cenzură”.
👉 Meta și-a mutat operațiunile de moderare a conținutului în Ghana, unde angajați prost plătiți vizionează zilnic imagini de o violență extremă.
Moderatorii spun că sunt supravegheați, amenințați și forțați să lucreze în condiții toxice, fără sprijin psihologic real. Meta neagă responsabilitatea directă, invocând contracte cu firme terțe. (The Bureau of Investigative Journalism)
👉 Escrocheriile cu deepfake în timp real au devenit realitate: infractori cibernetici folosesc aplicații care le permit să-și schimbe chipul și vocea în timpul apelurilor video, pentru a se da drept altcineva — de la parteneri romantici fictivi până la identități false folosite în fraude financiare.
Experții în securitate cibernetică avertizează că fenomenul se extinde rapid și devine din ce în ce mai greu de detectat. (404 Media)
👉 Decesul Papei Francisc a readus în atenția publică valurile de conținut fals generate în jurul personalității sale. Poynter Institute și Deutsche Welle scriu despre moștenirea unui om care a avertizat omenirea de efectele dezastruoase ale dezinformării și a fost, în același timp, una din cele mai proeminente figuri afectate de acest fenomen.
👉 Meta a blocat accesul la știri pe rețelele sale din Canada, dar continuă să facă profit cu ajutorul site-urilor care imită… exact ziarele blocate, arată un expert citat de The Globe and Mail. Asta într-o campanie electorală marcată de campanii de dezinformare.
👉 …după cum arată și o cercetare a DFRLab, campania electorală din Canada a fost marcată de acțiunea unor boți care au amplificat conținut fals pe rețelele sociale, postând automatizat răspunsuri la postările unor conturi oficiale.
…canadienii au votat ieri în alegerile federale, pentru a decide dacă Partidul Liberal al premierului Mark Carney va rămâne la conducerea țării sau conservatorii vor reveni la putere pentru prima dată în aproape un deceniu. (G4Media)
👉 Influencer-ii au roluri proeminente în campaniile electorale, însă activitatea lor nu este reglementată în niciun fel în multe țări. Cu alte cuvinte, publicul nu poate să știe exact dacă opiniile expuse de aceștia sunt autentice - adică reflectă opțiunile lor politice - sau sunt parte a unor campanii plătite.
Universitatea din Ottawa a publicat un raport care scoate în evidență felurile în care publicul poate fi înșelat de campaniile influencerilor. (The Conversation)
👉 PODCAST. În Brazilia, activiștii anti-vaccin fac profit din comerțul cu tratamente pseudoștiințifice și presupuse substanțe care ar detoxifia corpul de vaccinurile administrate anterior.
E o industrie din care sănătatea publică are doar de pierdut, spun experții citați. (The Conversation)
👉 Apropo de dezinformarea pe teme medicale, poate ați auzit recent pe TikTok expresii precum „burtă de cortizol” și „față de cortizol” - folosite de influenceri care vorbesc despre presupusele efecte ale stresului asupra corpurilor noastre.
E bine să știți că expresiile astea reduc procese biologice extrem de complexe la niște mesaje ușor de consumat. Obsesia rețelelor sociale pentru cortizol nu este despre sănătate, ci despre crearea de conținut care atrage atenția și generarea de clicuri. (The Conversation)
ANALIZĂ. Represiunea algoritmică. Cum este folosită tehnologia AI în războaie și programe de monitorizare în masă
De Alex Ștefănescu
* Pentru că ne dorim să înțelegem cât mai bine impactul tehnologiei și a reglementărilor acesteia, găzduim o analiză semnată de Alex Ștefănescu, activistă tech & hacker, membră a Asociației pentru Tehnologie și Internet.
Tehnologia care transformă fotografii personale în ilustrații drăguțe pe stilul Studio Ghibli se bazează pe același tip de algoritm ca tehnologiile de monitorizare, identificare a celor care au participat la proteste studențești și a celor care sunt suspectați că ar colabora cu organizații teroriste. Acești algoritmi de inteligență artificială sunt generativi, bazați pe modele lingvistice mari.
Larry Ellison, CTO-ul Oracle, preconiza la finalul anului 2024, că monitorizarea generalizată a spațiului online folosind inteligența artificială va marca începerea unei noi ere, în care cetățenii „se vor comporta exemplar”.
În martie 2025, Departamentul de Stat al SUA, parte din guvernul federal cu atribuții similare cu ale Ministerului Afacerilor Externe, a lansat un program de evaluare în masă a activității pe platformele de social media, utilizând tehnologia AI. Ținta lor este să identifice acei studenți ale căror postări online sunt considerate o formă de susținere pentru organizația teroristă Hamas, sau alte organizații teroriste.
Programul, denumit „Catch and Revoke”, analizează cu ajutorul tehnologiei AI și apoi marchează profilele studenților considerate ca fiind problematice nu doar dacă aceștia comunică faptul că participă la proteste, ci și dacă redistribuie conținut care critică acțiunile militare ale Israelului în Palestina, sau dacă dau Like unor asemenea postări.
Secretarul de stat Marco Rubio a estimat că numărul studenților cărora viza de studiu le-a fost anulată, fiind forțați să părăsească Statele Unite ale Americii, se ridica la 300 în luna martie a acestui an.
Algoritmii de inteligență artificială joacă, în acest caz, rolul unui judecător care dă verdictul în cazul tuturor postărilor și interacțiuni online, fără ca cineva să îl poată verifica. Nu există o comunicare a guvernului SUA legată de audituri independente, nici intenții de a transparentiza criteriile pe baza cărora acești algoritmi marchează anumiți studenți ca fiind indezirabili. Iar faptul că aceste acțiuni sunt făcute automatizat și netransparent, de software, scad șansele apariției unor avertizori de integritate care să scoată la lumină adevărul despre practicile de revocare ale vizelor studenților.
Mai mult decât atât: în Statele Unite ale Americii, unele dintre echipele din instituții guvernamentale cu expertiză și experiență și modernizarea digitală sunt forțate să colaboreze cu Departamentul de Eficiență Guvernamentală (DOGE), în termenii impuși de această instituție nou-creată cu apropiați ai lui Elon Musk. În cazul unei echipe de defensivă digitală din cadrul Pentagonului, angajații și conducerea au preferat să își dea demisia în masă. Adoptarea algoritmilor de inteligență artificială și impunerea lor în structurile instituționale de către persoane din afara aparatului de stat slăbesc sau șterg complet proceduri și procese care au fost construite de-a lungul a ani întregi.
Inteligența artificială este folosită și de către armata Israelului pentru a crea liste de persoane care, mai apoi, deveneau țintele unor atacuri menite să le ucidă. O investigație jurnalistică publicată de +972 Magazine în aprilie 2024 descrie două tehnologii construite cu inteligență artificială: Lavender, care creează liste de persoane potențial afiliate cu grupuri militare armate în Gaza și „Where's Daddy?”, care monitoriza țintele în timp real și notifica armata atunci când aceste persoane intră în casele lor, alături de familie.
Investigația citează surse din serviciile de informații israeliene care susțin că, în primele săptămâni după atacul din 7 octombrie 2023, Lavender ar fi generat liste de 37,000 de persoane pentru atacurile armatei israeliene.
La începutul folosirii lui Lavender, personalul militar aloca cam 20 de secunde pentru a verifica dacă persoanele care figurau pe liste sunt identificate corect, în baza unor informații factuale, susține o sursă citată de +972 Magazine.
Rata de eroare a lui Lavender era, la momentul acela, de 10%.
Rolul inteligenței artificiale în cazul tehnologiei „Where's Daddy?” era să ofere armatei israeliene oportunitatea de a ataca aceste persoane atunci când erau în casele lor, alături de familii. Un soldat în cadrul Israel Defense Force (IDF) a declarat pentru investigație că armata prefera ca primă opțiune să țintească bombele către casele persoanelor de pe liste. Într-un drept la replică pentru The Guardian, IDF a susținut că folosește acest tip de tehnologie pentru a conecta date și informații din mai multe baze de date și a negat că ar targeta astfel victime.
În conflictele armate din trecut, armata israeliană alegea să atace o persoană în casa acesteia, alături de familie, doar în cazul în care persoana avea senioritate în comandamentul militar. Dovezile care atestau acest fapt erau verificate minuțios. Însă, în acțiunile militare ale IDF în Gaza după 7 octombrie 2023, aceste criterii au fost relaxate, iar munca de selectare a fost externalizată algoritmilor de inteligență artificială, arată investigația citată.
Lavender și sisteme similare operaționalizate de guvernul israelian în Gaza și Cisiordania - precum sisteme folosite de poliție - folosesc date extrase din numeroase surse, inclusiv de pe platformele de social media, date legate de telefoanele mobile și imagini filmate de drone. În 2023, Amnesty International a publicat un raport care detaliază cum folosirea tehnologiei de recunoaștere facială consolidează apartheidul. În 2022, aceeași organizație a catalogat tacticile și acțiunile guvernului israelian împotriva populației palestiniene ca apartheid.
În martie anul acesta, publicația +972 Magazine a documentat faptul că armata israeliană construiește un model lingvistic mare (large language model) folosind milioane de schimburi de replici interceptate între palestinieni. Tehnologia, similară lui ChatGPT, a fost antrenată pe conversații scrise și audio, în limba arabă, obținute de aceeași infrastructură masivă de monitorizare. În momentul publicării investigației de către The New York Times, încă nu era clar cum este folosită această tehnologie, însă sursele citate susțin că ea este menită să răspundă unor întrebări despre indivizi.
Acești algoritmi, oricât de buni, pot genera răspunsuri și predicții în baza datelor colectate până în momentul în care a fost antrenat. Criteriile pe care armata israeliană le folosește pentru a evalua fiecare individ în parte, precum și toate datele de antrenare ale acestor algoritmi, sunt înghețate în timp, nu se adaptează realității dinamice și acțiunilor spontane ale palestinienilor - de pildă, la finalul lunii martie a acestui an, proteste împotriva Hamas au răsunat zile la rând în Gaza.
Hannah Arendt, filozof politic, amintește că acțiunea politică spontană erupe împotriva sorților, într-un mod improbabil și creează o stare nouă, anulând faptele considerate cunoscute până în acel moment. Populația din Gaza și Cisiordania este, însă, reprezentată prin date statistice statice învechite, în sisteme de inteligență artificială care le decid soarta.
Nemulțumirea față de implicarea marilor companii de tehnologie în război crește în societate. În timpul aniversării a 50 de ani de existență a companiei Microsoft, o angajată din echipa de inteligență artificială a firmei s-a ridicat și l-a criticat cu voce tare pe CEO-ul Microsoft AI, Mustafa Suleyman, și a denunțat vânzarea de produse Microsoft și OpenAI către Israel. Ea a publicat apoi o scrisoare către angajații firmei, explicând, pe larg, raționamentul său.
Amnesty International, Human Rights Watch, au numit acțiunea militară a Israelului în Gaza un genocid, iar Națiunile Unite susțin că pierderile umane în rândul civililor și condițiile de trai sunt consistente cu caracteristicile unui genocid. Până în august 2024, armata israeliană a omorât peste 40.000 de persoane în Gaza și au strămutat forțat peste 85% din populație.
***
Înainte de AI-ul generativ, folosit pentru a analiza volume foarte mari de informații și a oferi răspunsuri concise - nu întotdeauna corecte - represiunea algoritmică se baza pe machine vision, recunoaștere facială și deducerea unor caracteristici personale. Un raport înaintat Parlamentului European în 2024 descrie represiunea algoritmică din China, Iran, Federația Rusă, Egipt și Africa Subsahariană.
În China, sistemul răspândit de monitorizare video a uigurilor și a altor minorități musulmane face parte dintr-o campanie de persecuție. Amnesty International a publicat încă din 2021 un raport care numește aceste practici de monitorizare și control crime împotriva umanității. Human Rights Watch compară această rețea de monitorizare constantă a populației în regiunea Xinjiang cu monitorizarea populației palestiniene de către Israel. Ambele permit autorităților să identifice și să neutralizeze rapid disidența pașnică și să exercite un control intruziv asupra unei largi populații.
În Iran, Rusia și Egipt, folosirea algoritmilor de AI se manifestă în activitatea pe platforme de social media și website-uri a unor boți care răspândesc conținut favorabil regimului de guvernare. De asemenea, aceste țări sunt într-un proces de a limita accesul populației la Internet și de a supraveghea opiniile exprimate în mediul online.