Bună dimineața,
Citiți astăzi o ediție Misreport redactată de Ovidiu, în care vă prezentăm obișnuita sinteză a săptămânii, dar și o analiză realizată de Alex Ștefănescu, despre impactul pe care l-a avut lansarea noului model DeepSeek.
👉 88% dintre germani se tem că alegerile din 23 februarie vor fi manipulate de actori străini, iar Rusia (45%), SUA (42%) și China (26%) sunt percepute ca principalele amenințări.
O treime dintre respondenți au declarat că au întâlnit deja informații false despre scrutin, iar deepfake-urile și campaniile online sunt considerate riscuri majore. (Deutsche Welle via Digi24)
👉 Experții care monitorizează alegerile din Germania declară că rețele coordonate de conturi anonime de TikTok promovează mesaje pro-AfD, ocolind regulile platformei.
Conturile distribuie idei pe care AfD nu le asumă oficial, amplificând discursuri radicale. (The National)
👉 Dezinformarea climatică se amplifică pe fondul schimbărilor politice și al progresului AI.
O analiză Global Witness arată că platformele digitale continuă să monetizeze conținut care neagă schimbările climatice, iar eliminarea fact-checking-ului de către Meta în SUA accelerează fenomenul. (Euractiv)
👉 Un raport al Z Zurich Foundation arată că programele axate pe sănătatea mintală a tinerilor sunt concentrate prea mult pe tratament și prea puțin pe partea de prevenție. Raportul subliniază că modificarea acestui model ar aduce beneficii sociale și economice semnificative. (Euractiv)
👉 Patru familii britanice dau în judecată TikTok, acuzând platforma că a contribuit la moartea copiilor lor prin promovarea unui trend periculos.
Părinții critică lipsa de transparență a companiei și cer acces la datele care ar putea clarifica circumstanțele tragediilor. (BBC)
👉 Propaganda rusă se extinde în Africa printr-o rețea complexă de dezinformare. Rusia folosește platforme sociale, influenceri locali și instituții media precum RT (fostă Russia Today) pentru a influența percepția publică în favoarea sa. (Deutsche Welle)
👉 WIRED analizează pe larg impactul arestării lui Pavel Durov asupra Telegram, vieții private digitale și responsabilității platformelor tech.
Despre asta a scris și Alex Ștefănescu în Ediția #222 a Misreport.
👉 Guvernul britanic cere acces la datele criptate ale utilizatorilor Apple, invocând riscuri de securitate națională. Experții avertizează că o astfel de măsură ar putea compromite confidențialitatea acestor date la nivel global. (BBC)
👉 Un nou sistem AI dezvoltat de ByteDance, OmniHuman-1, poate genera deepfake-uri video extrem de realiste dintr-o singură imagine și un clip audio.
Tehnologia ridică îngrijorări legate de utilizarea deepfake-urilor în fraude financiare și manipulare politică. Specialiștii avertizează că reglementările actuale sunt insuficiente pentru a combate răspândirea acestui tip de conținut. (TechCrunch)
👉 O femeie din Australia a fost nevoită să-și investigheze propriul caz de deepfake pornografic după ce poliția a tratat plângerea cu indiferență.
În final, probele strânse de ea au dus la condamnarea agresorului la nouă ani de închisoare, într-un proces considerat un precedent important pentru reglementarea deepfakeurilor. (BBC)
👉 … iar AI-ul de tip agent ar putea revoluționa atacurile cibernetice în 2025, permițând atacatorilor să automatizeze furtul de date și șantajul online.
Un raport Malwarebytes avertizează că astfel de sisteme pot identifica vulnerabilități, extrage date și desfășura escrocherii la scară largă.
👉 Aplicațiile de online dating integrează tot mai multe funcții bazate pe AI. De exemplu, Tinder și Bumble implementează asistenți AI pentru matches (n.r. potriviri) și mesaje.
Unii utilizatori se tem că AI-ul va reduce autenticitatea interacțiunilor și va transforma întâlnirile într-un algoritm și nu într-o conexiune reală. (WIRED)
👉 O investigație Adalytics a descoperit că sistemele de publicitate ale marilor companii tech au finanțat (n.r. au rulat reclame) pe un site care găzduiește imagini cu abuzuri asupra copiilor.
Deși companiile au blocat site-ul după expunerea cazului, experții declară că siteul, ce permite uploadul anonim de imagini, este unul cunoscut pentru lipsa de moderare și ar fi trebuit eliminat din start de orice companie responsabilă. (BBC)
👉 Erori în statisticile prezentate legate de consumul de brânză Gouda au forțat Google să editeze o reclamă pentru AI-ul Gemini.
Spotul susținea că acest tip de brânză reprezintă 50-60% din consumul global. Google a dat vina pe sursele web folosite de AI și a modificat reclama pentru a elimina informația greșită. (BBC)
Pentru că ne dorim să înțelegem cât mai bine impactul tehnologiei și a reglementărilor acesteia în spațiul european, găsiți mai jos o analiză semnată de Alex Ștefănescu, activistă tech & hacker, membră a Asociației pentru Tehnologie și Internet.
De data asta, vorbim pe larg despre ascensiunea neașteptată a DeepSeek, AI-ul generativ chinezesc care amenință dominația modelelor americane și în același timp ridică semne de întrebare legate de cenzură, protecția datelor și metodele de antrenare.
USA vs China în AI-ul generativ
Anul a început cu un șoc pentru industria de inteligență artificială generativă, dominată, până acum, de companii americane și de nume precum ChatGPT și Gemini. La finalul lunii ianuarie 2025 s-a lansat DeepSeek, un AI generativ produs în China. Din toate comparațiile făcute până în prezent, acest model pare să ofere rezultate cel puțin la fel de bune precum cel mai recent model ChatGPT, însă a fost creat cu o investiție mult mai mică.
Când vine vorba de comparații între software de AI generativ - denumite benchmark-uri - acestea nu sunt precise și repetabile, cum sunt măsurătorile legate de performanțele unui autoturism. Dat fiind că software-ul generează text în limbaj natural, performanța software-ului este evaluată prin întrebări care caută să urmărească abilitatea de a produce text inteligibil, de a urma un fir logic și de a efectua operații matematice. Testele sunt subiective.
Majoritatea evaluărilor performanțelor DeepSeek notează că acesta este comparabil cu cel mai recent model ChatGPT. Șocant este faptul că antrenarea lui DeepSeek a costat, conform companiei chinezești, 6 milioane de dolari, în timp ce antrenarea celui mai recent model ChatGPT a costat 100 de milioane.
Modelele de inteligență artificială generativă sunt antrenate folosind plăci grafice, în special cele produse de compania americană Nvidia. Exportul către China a celor mai performante plăci grafice oferite de această companie, modelul H800, a fost interzis. Compania care a creat DeepSeek a avut la dispoziție doar 2.000 de astfel de plăci. Compania OpenAI are nevoie de undeva în jur de 20.000 de plăci grafice pentru a antrena modele recente ale ChatGPT, conform estimărilor TrendForce.
Nu cunoaștem detalii exacte despre cât costă antrenarea și rularea software-ului ChatGPT, însă reacția puternică a companiei OpenAI și a presei americane ne dă de înțeles că optimizările făcute de compania DeepSeek sunt impresionante.
Oricine poate folosi software-ul DeepSeek online, sau să își descarce acest model pe propriile dispozitive. Însă cel mai important detaliu este că acest software este open-source.
Cât de open-source e DeepSeek, de fapt?
În definiția clasică, software-ul open-source are întreg codul sursă și întreaga documentație publicate la liber și accesibile oricui. În cazul DeepSeek, acest lucru nu este în întregime adevărat. Compania chinezească a publicat un raport tehnic care detaliază cum a fost creat modelul și oferă la liber anumite detalii precise legate de ce a rezultat în urma antrenării: așa-numitele model weights. Pe baza acestor informații, e posibil ca specialiștii în domeniu să creeze un software similar, sau să îmbunătățească în continuare performanța sa.
Deși DeepSeek nu este open-source în adevăratul sens, există suficiente detalii accesibile tuturor pentru a facilita folosirea acestei inteligențe artificiale generative de către oricine, cât și pentru a o folosi pentru a crea modele mai bune. Companii precum OpenAI, Microsoft și Google pierd, așadar, monopolul pe care îl aveau asupra software-ului de acest tip, pe care utilizatorii îl pot folosi doar contra cost, dacă au nevoie să ruleze multe operații complexe.
E adevărat că hoțu’ strigă hoțu’?
Două dintre problemele semnalate mai ales de presa americană sunt cenzura software-ului DeepSeek și faptul că, atunci când utilizatorii folosesc chatbot-ul online oferit de companie, datele personale, inclusiv modul în care tastează, pot ajunge la guvernului chinez. O a treia problemă, de tip „hoțu’ strigă hoțu’” se referă la faptul că DeepSeek ar fi folosit ChatGPT pentru a se antrena.
Să discutăm despre cine fură de la cine. Companiile care au creat cel mai folosit software de tip inteligență artificială generativă au fost date în judecată, în repetate rânduri și în țări diferite, pentru faptul că au folosit, pentru antrenarea modelelor, opere protejate de drepturi de autor. Mai mult, acest software este în prezent folosit la scară largă pentru a crea conținut care este mai apoi postat pe Internet - deci, site-urile sunt pline de conținut creat de ChatGPT și prietenii săi.
În acest context, nu putem decât să bănuim că DeepSeek e la fel de „hoț” ca ceilalți. Nu ar fi putut să ajungă la o asemenea performanță fără un set de date de antrenare stufos. Compania OpenAI a blocat accesul DeepSeek la ChatGPT.
Cu cenzura și cu datele cum rămâne?
Majoritatea software-ului de inteligență artificală generativă funcționează după un set strict de reguli referitoare la ce conținut poate produce. DeepSeek nu generează text despre relația dintre China și Taiwan, nici despre piața Tiananmen, unde protestele cetățenilor au fost suprimate sângeros de armată. Software-ul produs în America caută, de asemenea, să nu producă conținut considerat „controversat”. Este notabil, de exemplu, refuzul modelelor americane de a produce conținut despre drepturile persoanelor transgender.
Dat fiind faptul că Statele Unite ale Americii percep China ca pe un competitor politic, este lesne de înțeles că articolele în limba engleză denumesc restricțiile DeepSeek „cenzură”. În schimb, restricțiile ChatGPT sunt discutate nuanțat, în termeni de „libertate de exprimare” în balans cu „etica”.
Legat de date, situația se repetă. Compania OpenAI a fost amendată de autoritatea pentru protecția datelor cu caracter personal din Italia pentru faptul că a folosit datele personale ale utilizatorilor pentru a-și antrena modelele, fără să obțină consimțământ. Acum, aceeași autoritate investighează DeepSeek și a cerut companiilor din spatele software-ului să explice cum se asigură de faptul că serviciile lor respectă regulamentul GDPR.
Comisia Europeană investighează posibile încălcări ale legislației Uniunii Europene - spre exemplu, încălcări ale AI Act - în cazul DeepSeek. Nu a fost deschisă o investigație încă.
Tot legat de date, s-a dovedit că infrastructura în care compania DeepSeek stoca informații sensibile, inclusiv istoria chat-urilor, era accesibilă online, fără protecții de securitate, la momentul lansării modelului R1.
Doctor Emily Bender, una dintre autoarele unui studiu faimos despre inteligența artificială generativă, supranumit „stochastic parrot” (studiul despre papagaliceala stochastică) a concluzionat, despre lansarea DeepSeek: „The emperor still has no clothes, but it's very distressing to the emperor that their non-clothes can be made so much more cheaply.”
Te rugăm să nu uiți că Misreport este o publicație realizată de doi oameni, în timpul lor liber.
Poți sprijini Misreport devenind membru plătitor. Ne mai poți ajuta recomandând Misreport prietenilor sau distribuind conținutul newsletter-ului pe rețele sociale.