Root NationArticoleTehnologiiOpenAI Project Q*: ce este și de ce proiectul este o preocupare

OpenAI Project Q*: ce este și de ce proiectul este o preocupare

-

Misterios Proiect Q* de la OpenAI provoacă îngrijorare în rândul experților. Poate fi el cu adevărat periculos pentru omenire? Ce se știe despre el? După ce Sam Altman a fost concediat săptămâna trecută și el și echipa aproape s-au mutat în Microsoft, apoi s-a întors la locul de muncă (despre asta noi am scris aici), OpenAI este din nou la știri. De data aceasta din cauza a ceea ce unii cercetători numesc o posibilă amenințare la adresa umanității. Da, ai citit bine, o amenințare la adresa umanității.

Adevărata răsturnări în lumea tehnologiei a fost cauzată de Project Q* - un proiect nedezvăluit de inteligență artificială generală (AGI) - pronunțat Q-Star. Deși acest proiect este în fazele sale incipiente, este considerat a fi cu adevărat revoluționar în dezvoltarea AGI. Cu toate acestea, unii îl consideră un pericol pentru umanitate.

Proiectul OpenAI Q

Un proiect secret de inteligență artificială dezvoltat de celebrul laborator de inteligență artificială OpenAI are potențialul de a revoluționa tehnologia și societatea în general. Dar ridică și câteva întrebări etice cu privire la riscuri. Pe măsură ce apar detalii despre capabilitățile uimitoare ale Proiectului Q*, apar tot mai multe speculații cu privire la ceea ce ar putea însemna pentru viitorul umanității.

Interesant de asemenea: Istoria OpenAI: Ce a fost și ce urmează pentru companie

Ce este Inteligența Generală Artificială (AGI)?

Pentru a înțelege hype-ul din jurul Proiectului Q* (Q-Star), să încercăm mai întâi să înțelegem despre ce este vorba despre conceptul de Inteligență Generală Artificială (AGI). În timp ce sistemele actuale de inteligență artificială excelează la sarcini înguste și specifice, cum ar fi jocul de șah sau generarea de imagini, inteligența artificială generală se referă la mașini care pot învăța și gândi la nivel uman în multe domenii. Adică pot studia ca copiii mici la școală, de exemplu, bazele matematicii, chimiei, biologiei etc.

Inteligența artificială generală (AGI) este un tip de inteligență automată care poate imita ipotetic inteligența sau comportamentul uman, având capacitatea de a învăța și de a aplica acel potențial pentru a rezolva o varietate de probleme. AGI mai este numită și inteligență artificială puternică, inteligență artificială completă sau inteligență artificială la nivel uman. Inteligența artificială generală este diferită de IA slabă sau îngustă, care este capabilă să îndeplinească doar sarcini specifice sau specializate în cadrul unor parametri dați. ZHI va fi capabil să rezolve în mod independent diverse probleme complexe din diferite domenii de cunoaștere.

Proiectul OpenAI Q

Crearea inteligenței artificiale este principalul obiectiv al cercetării în domeniul inteligenței artificiale de către companii precum DeepMind și Anthropic. CSI este un subiect foarte popular în literatura științifico-fantastică și poate modela cercetările viitoare. Unii susțin că este posibil să se creeze un UCI în decurs de ani sau decenii, în timp ce alții susțin că ar putea dura un secol sau mai mult. Dar sunt cei care cred că acest lucru nu se va realiza niciodată. Unii au văzut începuturile unui URI în GPT-3, dar încă pare să fie departe de a îndeplini criteriile de bază.

Crearea inteligenței generale artificiale (AGI) este considerată de cercetători drept Sfântul Graal al inteligenței artificiale, o posibilitate teoretică care le-a captat de multă vreme imaginația. Prin urmare, apariția unui astfel de proiect precum OpenAI Project Q* a provocat o mare rezonanță în lumea cercetării algoritmilor de inteligență artificială. Deși toată lumea înțelege că aceștia sunt doar primii pași, aproape orbește, către o lume în care inteligența artificială va avea aceleași capacități ca și oamenii, sau chiar mai mari.

- Publicitate -

Interesant de asemenea: Totul despre Microsoft Copilotul: viitorul sau drumul greșit?

Ce este Project Q*?

Proiectul Q* nu este un algoritm tipic, deoarece este un model de inteligență artificială care se apropie din ce în ce mai mult de modelul de inteligență generală artificială (AGI). Aceasta înseamnă că, spre deosebire de ChatGPT, Project Q* arată abilități de gândire și cognitive mai bune în comparație cu alți algoritmi. ChatGPT răspunde în prezent la interogări bazate pe o cantitate mare de materiale faptice, dar cu AGI, modelul AI va învăța raționamentul și capacitatea de a gândi și înțelege singur. Se știe deja că Proiectul Q* este capabil să rezolve probleme matematice simple care nu făceau parte din materialul său de instruire. În acest sens, unii cercetători văd un pas semnificativ către crearea inteligenței artificiale generale (AGI). OpenAI definește AGI ca sisteme de inteligență artificială care sunt mai inteligente decât oamenii.

Proiectul OpenAI Q

Dezvoltarea Proiectului Q* este condusă de omul de știință șef al OpenAI, Ilya Sutzkever, iar baza sa a fost susținută de cercetătorii Jakub Pakhotsky și Shimon Sidor.

Capacitatea unui algoritm de a rezolva singur problemele matematice, chiar dacă aceste probleme nu făceau parte din setul de date de antrenament, este considerată o descoperire în domeniul inteligenței artificiale. Dezacordurile din echipă cu privire la acest proiect sunt asociate cu înlăturarea temporară a CEO-ului OpenAI, Sam Altman. Se știe că înainte ca Altman să fie concediat, un grup de cercetători ai companiei a trimis o scrisoare consiliului de administrație prin care avertizează cu privire la descoperirea AI care ar putea reprezenta o amenințare pentru umanitate. Acea scrisoare, care a discutat despre algoritmul Project Q*, a fost citată drept unul dintre factorii care au dus la concedierea lui Altman. Cu toate acestea, capacitățile Proiectului Q* și riscurile potențiale pe care le poate prezenta nu sunt pe deplin înțelese, deoarece detaliile sunt necunoscute. Nimic nu a fost eliberat publicului larg.

Proiectul OpenAI Q

În esență, Project Q* este o metodă de învățare prin întărire fără model, care se îndepărtează de modelele tradiționale, nefiind nevoie de cunoștințe anterioare despre mediu. În schimb, învață prin experiență, adaptând acțiuni bazate pe recompense și pedepse. Experții tehnici cred că Project Q* va putea dobândi capacități remarcabile prin dobândirea de abilități similare abilităților cognitive umane.

Cu toate acestea, această caracteristică este cea mai impresionantă în noul model de inteligență artificială care îngrijorează cercetătorii și criticii și le ridică temerile cu privire la aplicațiile din lumea reală ale tehnologiei și riscurile care stau la baza implicate. De ce le este atât de frică oamenilor de știință și cercetătorilor? Să ne dăm seama.

Interesant de asemenea: Cum să vă actualizați dispozitivele de acasă pentru a accepta Wi-Fi 6

Le este frică de necunoscut

Oamenii s-au temut întotdeauna de necunoscut, de incognoscibil. Aceasta este esența umană, o trăsătură a caracterului și modului nostru de viață.

Lumea tehnologiei a aflat despre Proiectul Q* în noiembrie 2023 după Reuters raportat despre o scrisoare internă scrisă de cercetători preocupați de la OpenAI. Conținutul scrisorii era vag, dar se pare că a analizat serios capacitățile Proiectului Q*. După cum am menționat mai sus, există chiar și speculații că această scrisoare a declanșat demisia lui Sam Altman.

Proiectul OpenAI Q

Această descoperire explozivă a dat naștere la diferite ipoteze cu privire la natura Proiectului Q*. Oamenii de știință au sugerat că acesta ar putea fi un model revoluționar de limbaj natural pentru AI. Un fel de inventator de noi algoritmi care îi va crea pentru alte forme de IA, sau ceva complet diferit în acest domeniu.

Comentariile provocatoare ale lui Altman despre inteligența artificială generală ca „angajat mediu” au ridicat deja îngrijorări cu privire la securitatea locului de muncă și extinderea de neoprit a influenței AI. Acest algoritm misterios este definit ca o piatră de hotar în dezvoltarea Inteligenței Generale Artificiale (AGI). Cu toate acestea, toată lumea înțelege că această piatră de hotar este costisitoare. Și nu este vorba acum despre bani. Nivelul de abilități cognitive promis de noul model AI poartă cu el incertitudine. Oamenii de știință OpenAI promit că AI va avea gândire la nivel uman. Și asta înseamnă că nu putem ști multe lucruri și nu putem prezice consecințele. Și cu cât este mai necunoscut, cu atât este mai greu să te pregătești să-l controlezi sau să-l repari. Adică, noul algoritm este capabil de auto-îmbunătățire și dezvoltare. Am vazut deja asta undeva...

Interesant de asemenea: Windows 12: Care va fi noul sistem de operare

- Publicitate -

Detalii uimitoare despre capabilitățile Project Q*

Când au început să apară mai multe informații, au șocat mulți cercetători. Primele indicii au fost că Proiectul Q* avea un talent uimitor la matematică. Spre deosebire de un calculator care efectuează calcule mecanice, Proiectul Q* poate folosi logica și raționamentul pentru a rezolva probleme complexe de matematică. Această abilitate matematică de a generaliza indică dezvoltarea unei inteligențe largi.

Proiectul OpenAI Q

Instruirea autonomă a Proiectului Q*, fără seturile de date specifice utilizate pentru a antrena IA tipice, va fi, de asemenea, un mare pas înainte. Rămâne necunoscut dacă Project Q* a stăpânit alte abilități. Dar abilitățile sale matematice sunt atât de uimitoare în sine încât îi încurcă chiar și pe cercetătorii experimentați.

Citeste si: Human Brain Project: O încercare de a imita creierul uman

Calea proiectului Q* către dominație?

Există scenarii atât optimiste, cât și pesimiste în această chestiune. Optimiștii vor spune că Proiectul Q* ar putea fi scânteia care duce la o descoperire tehnologică. Pe măsură ce sistemul se auto-îmbunătățește recursiv, inteligența sa supranaturală ar putea ajuta la rezolvarea unora dintre cele mai importante probleme ale umanității, de la schimbările climatice la controlul bolilor. Proiectul Q* poate automatiza munca plictisitoare și ne eliberează timpul liber pentru alte activități.

Proiectul OpenAI Q

Deși există mult mai multe opțiuni pesimiste. Uneori, ele sunt destul de rezonabile și au o anumită semnificație.

Pierderea locurilor de muncă

Schimbările rapide în dezvoltarea tehnologiei pot depăși adaptarea individuală a oamenilor. Acest lucru va duce la pierderea uneia sau mai multor generații care nu vor putea dobândi abilitățile sau cunoștințele necesare pentru a se adapta la noile realități. Adică, asta, la rândul său, înseamnă că mai puțini oameni își vor putea păstra locurile de muncă. Acesta va fi realizat în schimb de mașini, sisteme automate și roboți. Cu toate acestea, răspunsul nu este atât de clar când vine vorba de specialiști calificați. În plus, pot apărea noi profesii legate în mod specific de dezvoltarea algoritmilor de inteligență artificială. Dar există încă riscuri, iar umanitatea nu are dreptul să le ignore.

Pericolul puterii necontrolate

Dacă o IA la fel de puternică precum Proiectul Q* cade în mâinile celor cu intenții nefaste, riscă consecințe catastrofale pentru umanitate. Chiar și fără intenții potențial rău intenționate, nivelul de luare a deciziilor al Proiectului Q* poate duce la rezultate dăunătoare, subliniind importanța critică a evaluării cu atenție a aplicării sale.

Dacă Proiectul Q* este slab optimizat pentru nevoile umane, poate provoca daune datorită capacității sale de a maximiza unele valori arbitrare. Sau poate avea o dimensiune politică, cum ar fi pentru supravegherea statului sau pentru represiune. O dezbatere deschisă în jurul analizei de impact a Proiectului Q* va ajuta la definirea posibilelor scenarii pentru dezvoltarea ZHI.

Suntem pregătiți pentru o confruntare „Om vs. Machine”?

Hollywood a creat deja multe scenarii ale unei astfel de confruntări în filmele sale. Cu toții ne amintim de celebrul SkyNet și de consecințele unei astfel de descoperiri. Poate că cercetătorii OpenAI ar trebui să vizioneze acest film din nou?

Omenirea trebuie să accepte semnale și provocări și să fie pregătită pentru ceea ce se poate întâmpla. Un model de inteligență artificială capabil să gândească ca un om poate deveni într-o zi inamicul nostru. Mulți ar susține că în viitor oamenii de știință vor ști exact cum să țină situația sub control. Dar când vine vorba de mașini, nu poți exclude complet posibilitatea ca acestea să încerce să preia oamenii.

Interesant de asemenea: Nu tot ceea ce numim AI este de fapt inteligență artificială. Iată ce trebuie să știți

De ce este tăcut OpenAI?

În ciuda freneziei interesului public în Proiectul Q*, conducerea OpenAI tace cu privire la specificul algoritmului. Dar scurgerea internă arată tensiuni tot mai mari în laborator cu privire la priorități și deschiderea dezvoltărilor. În timp ce mulți dintre cei din interiorul OpenAI susțin crearea Proiectului Q*, criticii susțin că transparența a trecut pe planul din spate în ceea ce privește accelerarea progresului științific cu orice preț. Și unii cercetători sunt îngrijorați de faptul că se acordă o putere incredibilă sistemelor ale căror obiective nu coincid neapărat cu valorile și etica umană. Acești cercetători cred că dezbaterile privind supravegherea și responsabilitatea au devenit periculos de oprite. Au nevoie de mai multă publicitate și detalii.

Proiectul OpenAI Q

În calitate de creatori ai Proiectului Q*, OpenAI trebuie să înțeleagă că au o tehnologie care poate fie extinde foarte mult posibilitățile de dezvoltare a societății, fie o distruge fără milă. Astfel de inovații semnificative merită o transparență mult mai mare pentru a construi încrederea publicului. Orice prognostic al vârstei mașinii trebuie să cântărească cu atenție riscurile alături de beneficii. Și dezvoltatorii Proiectului Q* trebuie să dea dovadă de suficientă înțelepciune și grijă pentru a introduce în siguranță societatea într-o nouă eră a inteligenței artificiale generale, care ar putea veni mai devreme decât ne-am imaginat vreodată.

Pentru ca inteligența artificială generală să fie utilă și sigură pentru umanitate, trebuie să se asigure că funcționează în siguranță, etic și în conformitate cu valorile și obiectivele umanității. Acest lucru necesită dezvoltarea și implementarea unor acte de reglementare, standarde, reguli și protocoale adecvate care vor controla și restrânge acțiunile și comportamentul CSI. În plus, trebuie eliminate potențialele amenințări și riscuri asociate abuzurilor, accidentelor, incompatibilităților, manipulărilor și conflictelor care ar putea duce la distrugerea umanității. Între timp, investitorii și Microsoft așteaptă cu nerăbdare un produs comercializabil care ar putea genera profit, ceea ce, fără îndoială, intră în conflict cu nevoia de a acționa responsabil. Sa speram ca bunul simt va predomina.

Citeste si: 

Yuri Svitlyk
Yuri Svitlyk
Fiu al Munților Carpați, geniu nerecunoscut al matematicii, „avocat”Microsoft, altruist practic, stânga-dreapta
- Publicitate -
Inscrie-te
Notifică despre
oaspete

0 Comentarii
Recenzii încorporate
Vezi toate comentariile