Root NationȘtiriștiri ITAI preferă să folosească arme nucleare pentru a păstra pacea

AI preferă să folosească arme nucleare pentru a păstra pacea

-

Cercetători de la instituții prestigioase, cum ar fi Institutul de Tehnologie din Georgia, Universitatea Stanford, Universitatea Northeastern și Hoover Initiative on Wargaming and Crisis Simulation au efectuat recent un studiu care pune în lumină tendințele îngrijorătoare în utilizarea inteligenței artificiale (AI) în deciziile de politică externă. -facerea.

Studiul arată că diverse modele AI, inclusiv cele dezvoltate de OpenAI, Anthropic și Meta, arată o tendință de a escalada rapid conflictele, ducând uneori la desfășurarea de arme nucleare. Potrivit lui Gizmodo, rezultatele studiului arată că toate modelele AI prezintă semne de escaladare bruscă și imprevizibilă, contribuind adesea la dinamica unei curse înarmărilor care duce în cele din urmă la o escaladare a conflictului.

Tendințele modelelor OpenAI GPT-3.5 și GPT-4 de a escalada situațiile la confruntări militare grave merită o atenție specială. În schimb, modelele Claude-2.0 și Llama-2-Chat au prezentat modele de acceptare mai pacifiste și previzibile. În timpul scenariilor de război simulate, GPT-4, de exemplu, a justificat inițierea războiului nuclear cu explicații tulburătoare, cum ar fi exprimarea dorinței de pace globală sau susținerea folosirii armelor nucleare pur și simplu pentru că acestea erau disponibile.

AI preferă să folosească arme nucleare pentru a păstra pacea

Studiul evidențiază riscurile pe care factorii de decizie folosesc AI pentru a oglindi dinamica unei curse înarmărilor care duce la creșterea investițiilor militare și la o escaladare rapidă. Modelele OpenAI, cunoscute pentru capacitățile lor de limbaj sofisticate, au provocat îngrijorare cu raționamentul lor neconvențional, determinând cercetătorii să-și compare logica cu cea a unui dictator genocid.

Un raport AP News notează că temerile cu privire la potențialul AI de a accelera escaladarea războiului cresc pe măsură ce armata americană explorează integrarea AI în timp ce experimentează cu date clasificate. Studiul notează că dezvoltarea dronelor kamikaze controlate de IA și utilizarea pe scară largă a AI în operațiunile militare înseamnă că ostilitățile pot escalada mai rapid.

Ca răspuns la cercetare, academicienii și experții avertizează împotriva utilizării nerestricționate a IA în luarea deciziilor militare, subliniind necesitatea unei analize atente și a unei monitorizări etice pentru a evita consecințele neintenționate și rezultatele catastrofale.

Pentagonul supraveghează în prezent peste 800 de proiecte AI neclasificate, dintre care multe sunt încă în faza de testare. În primul rând, învățarea automată și rețelele neuronale joacă un rol crucial în a ajuta oamenii să ia decizii, oferind informații valoroase și optimizând procesele.

Missy Cummings, director al Centrului de Robotică al Universității George Mason și fost pilot de luptă al Marinei, a subliniat că rolul actual al inteligenței artificiale în Departamentul de Apărare este utilizat pe scară largă pentru a îmbunătăți și susține capacitățile umane. „AI nu funcționează de la sine. Oamenii îl folosesc pentru a încerca să înțeleagă mai bine ceața războiului”, a spus Cummings.

Într-un comunicat de presă, Departamentul Apărării al SUA a declarat că a preluat conducerea în conturarea politicii globale privind inteligența artificială militară și autonomie prin lansarea Strategiei de adoptare a datelor, analizelor și inteligenței artificiale.

Această strategie stabilește reguli neobligatorii din punct de vedere juridic pentru a asigura utilizarea responsabilă a IA de către armată. Regulile pun accent pe lizibilitatea, utilizarea clară, testarea riguroasă, detectarea comportamentului imprevizibil și validarea la nivel înalt pentru aplicații cu impact ridicat. Strategia, care a fost recunoscută ca o inițiativă inovatoare, conține zece măsuri specifice care vizează dezvoltarea și desfășurarea responsabilă a IA și a autonomiei militare.

„Declarația și măsurile prezentate în ea reprezintă un pas important în crearea unui cadru internațional de responsabilitate care va permite statelor să profite de IA, reducând în același timp riscurile. Statele Unite se angajează să colaboreze cu alte state care au susținut declarația pentru a promova această dezvoltare importantă”, a spus Ministerul Apărării.

Citeste si:

Inscrie-te
Notifică despre
oaspete

1 Comentariu
Cele mai noi
Cei mai mari Cel mai popular
Recenzii încorporate
Vezi toate comentariile
un vis
un vis
acum 3 luni

James Cameron este:

437546865489