Root NationArticoleAnalyticsȘase porunci ale inteligenței artificiale

Șase porunci ale inteligenței artificiale

-

Următorii ani vor fi marcați de dezvoltarea rapidă a tehnologiilor de inteligență artificială. Poate că este necesar să se introducă cadre clar definite pentru crearea și utilizarea AI? Sunt 6 luni de experiență suficiente pentru a reglementa o tehnologie care nici măcar nu a părăsit laboratorul? Această întrebare vine din ce în ce mai mult din gura experților și a jurnaliștilor când vine vorba de inteligența artificială. Voci și apeluri de a lua măsuri pentru reglementarea inteligenței artificiale – atât la nivel de utilizator, cât și la nivel de dezvoltare a proiectelor – se aud din ce în ce mai des. Istoria unor astfel de apeluri a început cu mult timp în urmă.

Prezența omniprezentă a inteligenței artificiale în spațiul digital și, mai ales, a modelelor capabile să creeze conținut care nu va diferi de cel creat de oameni, trezește emoții foarte diferite. Pe de o parte, avem un grup de entuziaști care văd viitorul în AI și, în ciuda capacităților sale relativ limitate (pentru că AI nu gândește și, adesea, doar preia informații de pe Internet), nu se tem să-i încredințeze multe sarcini. . De cealaltă parte a baricadei se află un grup care își exprimă scepticismul și îngrijorarea față de tendințele actuale în dezvoltarea inteligenței artificiale.

postulatul AI

Puntea dintre cele două grupuri este cercetătorii în inteligența artificială, care, pe de o parte, citează numeroase exemple despre modul în care inteligența artificială a afectat pozitiv realitatea înconjurătoare. În același timp, înțeleg că este prea devreme să se odihnească pe lauri, iar un salt tehnologic uriaș aduce multe provocări și o mare responsabilitate. Un exemplu clar al acestei atitudini este un grup internațional de cercetători în inteligență artificială și învățare automată condus de dr. Ozlem Garibay de la Universitatea din Florida Centrală. Publicația de 47 de pagini, scrisă de 26 de oameni de știință din întreaga lume, identifică și descrie șase provocări pe care instituțiile de cercetare, companiile și corporațiile trebuie să le răspundă pentru a-și asigura modelele (și software-ul care le utilizează).

Da, aceasta este o lucrare științifică serioasă, cu explicații importante pentru înțelegerea viitorului inteligenței artificiale. Cine este interesat, poate independent citiți acest raport științific și trageți propriile concluzii. Cu cuvinte simple, oamenii de știință au identificat 6 porunci ale inteligenței artificiale. Toate dezvoltările și acțiunile AI trebuie să se conformeze acestora, astfel încât să fie sigură pentru oameni și lume.

postulatul AI

În articolul meu, scris tocmai pe baza acestei lucrări științifice, voi încerca să formulez principalele postulate, legi conform cărora inteligența artificială ar trebui să existe și să se dezvolte. Da, aceasta este interpretarea mea aproape liberă a concluziilor oamenilor de știință cu privire la dezvoltarea inteligenței artificiale și o încercare de a le prezenta într-o versiune biblică, ca să spunem așa. Dar așa am vrut să vă prezint această lucrare științifică a oamenilor de știință respectați.

Interesant de asemenea: Construirea AI: Cine conduce cursa?

Prima lege: bunăstarea umană

Primul postulat al cercetătorilor este de a concentra munca inteligenței artificiale asupra bunăstării umane. Din cauza lipsei de „valori umane, bun simț și etică”, inteligența artificială poate acționa într-un mod care va duce la o deteriorare semnificativă a bunăstării umane. Problemele pot fi rezultatul abilităților supraumane ale AI (de exemplu, cât de ușor AI învinge oamenii - și nu numai la șah), dar și faptul că AI nu gândește de la sine și, prin urmare, nu este capabilă să „filtreze” părtinirile sau greșeli evidente.

AI Postulat

- Publicitate -

Cercetătorii notează că încrederea excesivă în tehnologiile de inteligență artificială poate afecta negativ bunăstarea oamenilor. O societate care nu înțelege cum funcționează de fapt algoritmii de inteligență artificială tinde să-și exagereze încrederea în ea sau, dimpotrivă, are o atitudine negativă față de conținutul generat de un anumit model, în special chatboții. Luând în considerare acești factori și alți factori, echipa lui Garibay solicită să pună bunăstarea umană în centrul viitoarelor interacțiuni AI-om.

Citeste si: ChatGPT: un ghid simplu de utilizare

A doua lege: Responsabilitatea

Responsabilitatea este un termen care continuă să apară în lumea inteligenței artificiale în contextul pentru care folosim învățarea automată și în ce mod exact sunt dezvoltați și antrenați modelele și algoritmii de inteligență artificială. Echipa internațională subliniază că proiectarea, dezvoltarea și implementarea inteligenței artificiale trebuie făcute exclusiv cu bune intenții.

AI Postulat

În opinia lor, responsabilitatea ar trebui luată în considerare nu numai din punct de vedere tehnic, ci și din punct de vedere juridic și etic. Tehnologia trebuie luată în considerare nu numai din punctul de vedere al eficienței sale, ci și în contextul utilizării sale.

Odată cu introducerea tehnicilor avansate de învățare automată, devine din ce în ce mai important să înțelegem cum a fost luată o decizie și cine este responsabil pentru aceasta.” – scriu cercetătorii.

A treia lege: Confidențialitatea

Confidențialitatea este un subiect care se află în bumerang în fiecare discurs despre tehnologie. Mai ales când totul se discută în rețelele de socializare. Cu toate acestea, acest lucru este extrem de important pentru inteligența artificială, deoarece nu există fără o bază de date. Și ce sunt bazele de date?

Oamenii de știință le descriu drept „o abstractizare a elementelor de bază care formează modul în care vedem lumea”. Aceste blocuri sunt de obicei valori banale: culori, forme, texturi, distanțe, timp. În timp ce IA îngustă axată pe un singur obiectiv, cum ar fi gradul în care obturatorul se deschide la o anumită intensitate a luminii, folosește date obiective disponibile public, AI în aplicații mai largi (aici, de exemplu, modele text-to-image, cum ar fi Midjourney , sau modele de limbă, cum ar fi ChatGPT) pot folosi date despre și create de oameni. De asemenea, trebuie menționate articolele din presă, cărțile, ilustrațiile și fotografiile publicate pe internet. Algoritmii de inteligență artificială au acces la orice, pentru că noi înșine le-am dat. În caz contrar, nu va ști nimic și nu va da răspunsuri la nicio întrebare.

AI Postulat

Datele utilizatorilor afectează în mod fundamental atât persoanele despre care sunt colectate aceste date, cât și persoanele din sistemul în care vor fi implementați algoritmii de inteligență artificială.

Prin urmare, a treia provocare se referă la o înțelegere largă a vieții private și la acordarea unor drepturi precum dreptul de a rămâne singur, dreptul de a limita accesul la sine, dreptul la secretul vieții personale sau al afacerii, dreptul de a controla personalul. informații, adică dreptul de a-și proteja personalitatea, individualitatea și demnitatea. Toate acestea trebuie să fie scrise în algoritmi, altfel confidențialitatea pur și simplu nu va exista, iar algoritmii AI pot fi utilizați în scheme frauduloase, precum și în infracțiuni.

Citeste si: 7 cele mai interesante moduri de a folosi ChatGPT

A patra lege: Structura proiectului

Inteligența artificială poate fi extrem de simplă și cu un singur scop, dar în cazul modelelor mai mari, cu o natură largă și multitasking, problema nu este doar confidențialitatea datelor, ci și structura de design.

De exemplu, GPT-4, cel mai recent model de inteligență artificială al OpenAI, în ciuda dimensiunii și impactului său asupra lumii AI (și nu numai), nu are documentație complet publică. Adică nu înțelegem care sunt obiectivele finale pentru dezvoltatori, ce vor să obțină în rezultatul final. Prin urmare, nu putem evalua pe deplin riscurile asociate cu utilizarea acestui model AI. GPT-3, pe de altă parte, instruit pe date de pe forumul 4chan, este un model cu care cu siguranță nu vrei să interacționezi. Forumul 4chan este unul dintre cele mai interesante fenomene de pe Internet. Acesta este un exemplu de anarhie absolută, totală, care în practică nu este limitată de niciun cadru. Aici au fost create grupuri de hacking precum Anonymous sau LulzSec. Este sursa multor dintre cele mai populare meme, un loc pentru a discuta subiecte controversate și a publica opinii și mai controversate. Deși tabloul de imagini în limba engleză notează că „până acum este legal”, acest lucru este oarecum discutabil, având în vedere că 4chan interacționează ocazional cu mass-media, inclusiv cu conținut rasist, nazist și sexist.

AI Postulat

- Publicitate -

Echipa profesorului Garibay dorește ca fiecare model de inteligență artificială să funcționeze într-un cadru clar definit. Nu numai din cauza bunăstării persoanei cu care AI interacționează, ci și datorită capacității de a evalua riscurile asociate cu utilizarea modelului. Structura oricărui proiect ar trebui să includă respectul pentru nevoile, valorile și dorințele diferitelor grupuri culturale și părți interesate. Procesul de creare, instruire și reglare fină a AI ar trebui să se concentreze pe bunăstarea umană, iar produsul final - modelul AI - ar trebui să se concentreze pe îmbunătățirea și îmbunătățirea productivității comunității umane în sine. Modelele în care riscurile nu pot fi identificate ar trebui să aibă acces limitat sau controlat. Ele nu ar trebui să fie o amenințare pentru umanitate, ci, dimpotrivă, să contribuie la dezvoltarea omului și a societății în ansamblu.

Citeste si: Twitter în mâinile lui Elon Musk - o amenințare sau „îmbunătățire”?

A cincea lege: guvernare și supraveghere independentă

Algoritmii de inteligență artificială au schimbat literalmente lumea în doar un an. Bard by Google și Bing au premiera de Microsoft a afectat semnificativ acțiunile ambilor giganți la bursă. Apropo, au contribuit la creșterea acțiunilor acestor companii chiar și pe fondul acțiunilor Apple. ChatGPT a început să fie utilizat în mod activ de către elevii școlii, ei comunică cu el, îl examinează și pun întrebări. Cel mai important lucru este că are capacitatea de a auto-învăța, de a-și corecta greșelile. Inteligența artificială începe chiar să funcționeze în guvernele unor țări. Este cazul premierului României, Nicolae Chuca a angajat un virtual un asistent care îl va informa despre nevoile societăţii. Adică, inteligența artificială joacă un rol din ce în ce mai important în viața noastră.

AI

Având în vedere interdependența din ce în ce mai mare dintre inteligența artificială, oameni și mediu, oamenii de știință consideră că este necesar să se creeze organe de conducere și o supraveghere independentă a dezvoltării acesteia. Aceste organisme vor controla întregul ciclu de viață al inteligenței artificiale: de la idee până la dezvoltare și implementare. Autoritățile vor defini în mod corespunzător diferite modele de IA și vor lua în considerare cazuri legate de inteligența artificială și subiecte ale vieții sociale. Adică, inteligența artificială poate deveni subiect de dosare în instanță, precum și de procese. Deși, desigur, nu el personal, ci dezvoltatorii săi.

Citeste si: Totul despre Neuralink: Începutul nebuniei Cyberpunk?

A șasea lege: interacțiunea omului și inteligența artificială

În programele de inteligență artificială, fiecare poate găsi ceva pentru sine: genera text, detectează conținut în imagini, răspunde la întrebări, generează imagini, recunoaște oameni în fotografii, analizează date. Aceste utilizări multiple nu reprezintă doar o preocupare pentru persoanele care încearcă să adapteze inteligența artificială la standardele legale și etice. Mulți se tem de a fi îndepărtați de pe piața muncii de modelele AI. Pentru că algoritmii de inteligență artificială vor putea face același lucru mai rapid, mai ieftin și poate chiar mai bine decât o persoană. În același timp, există oameni care se bazează pe AI în munca lor, adică inteligența artificială este deja un asistent indispensabil pentru ei astăzi.

AI

Dar din studiile la care se referă oamenii de știință, este clar că înlocuirea oamenilor cu forță de muncă artificială ieftină este încă destul de departe. În ciuda acestui fapt, ei insistă deja asupra necesității de a stabili o ierarhie strictă a interacțiunii dintre oameni și inteligența artificială. În opinia lor, oamenii ar trebui plasați deasupra inteligenței artificiale. Inteligența artificială trebuie creată cu respect pentru abilitățile cognitive ale unei persoane, ținând cont de emoțiile sale, interacțiunile sociale, ideile, planificarea și interacțiunea cu obiectele. Adică, în toate situațiile, persoana este cea care trebuie să stea deasupra inteligenței artificiale, să controleze comportamentul și conținutul creat de model și să fie responsabilă pentru aceasta. Cu cuvinte simple, chiar și cea mai avansată IA trebuie să se supună unei persoane și să nu depășească ceea ce este permis, pentru a nu-i face rău creatorului ei.

Citeste si: Cum folosește și adaptează Ucraina Starlink în timpul războiului

Visnovki

Da, cineva va spune că oamenii de știință nu au indicat nimic important și nou în raportul lor. Toată lumea vorbește despre asta de multă vreme. Dar deja acum este necesar să punem AI într-un anumit cadru de legi. A ajunge la GPT-4 este ca și cum ai atinge orbește un cuțit. Ei ne ascund informații cheie. Toate evoluțiile din inteligența artificială, și în special proiectul ChatGPT de la Open AI, îmi amintesc adesea de creșterea unui copil mic. Uneori se pare că acesta este un copil de origine extraterestră. Da, un extraterestru, dar tot este un copil care învață, greșește, uneori se comportă nepotrivit, este iritabil, se ceartă cu părinții. Deși crește și se dezvoltă foarte repede.

AI

Este posibil ca omenirea să nu țină pasul cu dezvoltarea sa și lucrurile pot scăpa de sub control. Prin urmare, omenirea trebuie deja să înțeleagă de ce dezvoltăm toate acestea, să cunoască scopurile ultime, să fim „părinți responsabili”, pentru că altfel „copilul” își poate distruge pur și simplu „părinții”.

Citeste si: 

Yuri Svitlyk
Yuri Svitlyk
Fiu al Munților Carpați, geniu nerecunoscut al matematicii, „avocat”Microsoft, altruist practic, stânga-dreapta
- Publicitate -
Inscrie-te
Notifică despre
oaspete

0 Comentarii
Recenzii încorporate
Vezi toate comentariile