Root NationȘtiriștiri ITO fotografie a unei „explozii” în apropierea Pentagonului, generată de AI, a devenit virală Twitter

O fotografie a unei „explozii” în apropierea Pentagonului, generată de AI, a devenit virală Twitter

-

Recent in Twitter a apărut o fotografie care, după cum spunea descrierea, înfățișa o explozie care a avut loc în apropierea Pentagonului. Din această cauză, a avut loc chiar și o scădere pe termen scurt pe piață - indicele S&P 500 a scăzut cu 0,29%, dar după ce s-a dovedit că fotografia este falsă, indicele și-a revenit. Imaginea a fost postată de un cont Bloomberg Feed verificat, care, în ciuda bifei albastre, nu este afiliat companiei media Bloomberg.

Fotografia a fost rapid recunoscută ca fiind falsă. Se pare că a fost generat cu ajutorul inteligenței artificiale. Dar înainte de apariția acestor detalii, dezinformarea fusese deja răspândită de diverse relatări, inclusiv de ticălosul Russia Today (ei bine, cine s-ar îndoi).

Pentagon

Imaginea falsă arată un pană mare de fum negru lângă o clădire care seamănă vag cu Pentagonul, cu text însoțitor. La o inspecție mai atentă, autoritățile locale au confirmat că imaginea nu era o reprezentare exactă a Pentagonului, iar stâlpii gardului încețoșați și coloanele clădirii arătau ca o imagine destul de neglijent creată folosind un model AI precum Stable Diffusion.

Fals

Cont fals Bloomberg înainte Twitter a blocat-o, a avut zeci de mii de tweet-uri, dar mai puțin de 1 de urmăritori în total și nu este clar cine a condus-o și care au fost motivațiile care au stat la baza răspândirii imaginii false. Pe lângă Bloomberg Feed, alte conturi care răspândesc mesajul fals includ Walter Bloomberg și Breaking Market News, care, de asemenea, nu sunt afiliate cu adevărata companie Bloomberg.

Incidentul a evidențiat potențialele amenințări pe care imaginile generate de inteligența artificială le pot reprezenta pe rețelele sociale, unde informațiile neverificate sunt partajate în grabă, iar sistemul de verificare plătit în Twitter. În martie, imaginile false ale arestării lui Donald Trump, create folosind Midjourney, au devenit virale și, deși au fost imediat numite false, păreau extrem de realiste. De asemenea, mulți au fost induși în eroare de imaginile generate de IA ale Papei Francisc într-o jachetă albă.

Papa în jachetă de puf este una, dar o explozie la sediul Departamentului de Apărare al SUA este cu totul alta. Consecințele pot fi grave, așa cum demonstrează aceeași bursă. Dow Jones Industrial Average a scăzut cu 85 de puncte în cele patru minute după ce tweet-ul a devenit viral, dar și-a revenit rapid.

O mare parte din confuzia din jurul tweet-ului fals a fost posibilă de modificările aduse Twitter în timpul lui Elon Musk. A concediat mulți moderatori de conținut și a automatizat în mare măsură procesul de verificare a contului, mutându-l într-un sistem în care oricine poate plăti pentru un cec albastru. Criticii spun că această practică face platforma mai vulnerabilă la dezinformare.

Twitter

Deși autoritățile au recunoscut relativ repede fotografia exploziei ca fiind o falsă, disponibilitatea modelelor de sinteză a imaginilor, cum ar fi Midjourney și Stable Diffusion, înseamnă că falsurile convingătoare nu mai necesită talent artistic, lăsând un oarecare loc pentru dezinformare. Ușurința de a crea falsuri combinată cu natura virală a platformelor precum Twitter, înseamnă că informațiile false se pot răspândi mai repede decât pot fi verificate.

În acest caz, imaginea nu trebuie neapărat să fie de înaltă calitate pentru a crea un impact negativ. Experții spun că atunci când oamenii vor să creadă ceva, își pierd vigilența și nu verifică veridicitatea informațiilor.

Citeste si:

DzhereloArsTechnica
Inscrie-te
Notifică despre
oaspete

0 Comentarii
Recenzii încorporate
Vezi toate comentariile
Alte articole
Abonați-vă pentru actualizări
Popular acum