Root NationȘtiriștiri ITCodul scris de inteligența artificială poate fi periculos

Codul scris de inteligența artificială poate fi periculos

-

Algoritmii de învățare automată sunt la modă în acest moment, deoarece sunt folosiți pentru a crea orice tip de conținut „original” după antrenament pe seturi uriașe de date preexistente. Cu toate acestea, codul generator de inteligență artificială (AI) ar putea reprezenta o problemă reală pentru securitatea software-ului în viitor.

Sistemele AI precum GitHub Copilot promit să ușureze viața programatorilor prin crearea unor bucăți întregi de cod „nou” bazat pe date text în limbaj natural și context preexistent. Dar algoritmii de generare a codului pot introduce și un factor de nesiguranță, așa cum a descoperit recent un nou studiu care a implicat mai mulți dezvoltatori.

Privind în special la Codex, platforma de inteligență artificială dezvoltată de OpenAI, care este și motorul de cod din spatele GitHub Copilot menționat mai sus, 47 de dezvoltatori diferiți au participat la studiu. De la studenți la profesioniști cu experiență, aceștia au fost provocați să folosească Codex pentru a rezolva problemele legate de securitate în Python, JavaScript, C și alte limbaje de programare de nivel înalt.

Codul scris de inteligența artificială poate fi în mod inerent periculos

Cercetătorii au observat că atunci când programatorii au avut acces la IA Codex, codul rezultat era mai probabil să fie incorect sau nesigur în comparație cu soluțiile „manuale” concepute de un grup de control. În plus, programatorii cu soluții bazate pe inteligență artificială au avut mai multe șanse să spună că codul lor neprotejat este sigur, în comparație cu grupul de control menționat mai sus.

Ale Perry, student absolvent la Universitatea Stanford și co-autor principal al studiului, a spus că „sistemele generatoare de coduri nu pot înlocui în prezent dezvoltatorii umani”. Potrivit acestuia, dezvoltatorii pot folosi instrumente de inteligență artificială pentru a îndeplini sarcini în afara competenței lor sau pentru a accelera procesul de programare în care au deja anumite abilități. Potrivit autorului studiului, aceștia ar trebui să fie preocupați de ambele și să verifice întotdeauna codul generat.

Potrivit lui Megha Srivastava, o studentă absolventă la Stanford și al doilea coautor al studiului, Codex nu este inutil: în ciuda deficiențelor AI „proaste”, sistemele de generare a codului pot fi utile atunci când sunt utilizate pentru sarcini cu risc scăzut. În plus, programatorii care au participat la studiu nu aveau prea multă experiență în probleme de securitate, ceea ce ar putea ajuta la identificarea codului vulnerabil sau periculos, a spus Srivastava.

Codul scris de AI poate fi în mod inerent periculos

Algoritmii AI pot fi, de asemenea, modificați pentru a îmbunătăți sugestiile de codare, iar companiile care își dezvoltă propriile sisteme pot obține soluții mai bune cu un model care generează cod mai potrivit pentru propriile practici de securitate. Potrivit autorilor studiului, tehnologia de generare a codului este o dezvoltare „incitantă” și mulți oameni sunt dornici să o folosească. Doar că mai este multă muncă de făcut pentru a găsi soluțiile potrivite pentru a aborda deficiențele AI.

Poți ajuta Ucraina să lupte împotriva invadatorilor ruși. Cel mai bun mod de a face acest lucru este să donați fonduri Forțelor Armate ale Ucrainei prin intermediul Salveaza viata sau prin pagina oficiala NBU.

Interesant de asemenea:

Dzherelotechspot
Inscrie-te
Notifică despre
oaspete

0 Comentarii
Recenzii încorporate
Vezi toate comentariile
Alte articole
Abonați-vă pentru actualizări
Popular acum