Categorii: știri IT

Mii de oameni au primit ajutor terapeutic de la AI fără acordul lor

Vineri, co-fondatorul Koko Rob Morris a anunțat la Twitter, că compania sa a efectuat un experiment pentru a oferi sfaturi de sănătate mintală scrise prin inteligență artificială pentru 4 de persoane fără notificare prealabilă, relatează The Verge. Criticii au considerat experimentul profund neetic, deoarece Koko nu a obținut consimțământul informat de la persoanele care au cerut sfatul. Koko este o platformă non-profit de sănătate mintală care conectează adolescenții și adulții care au nevoie de îngrijiri de sănătate mintală cu voluntari prin aplicații de mesagerie precum Telegram și Discord.

Pe Discord, utilizatorii se conectează la serverul Koko Cares și trimit mesaje directe botului Koko, care pune o serie de întrebări cu variante multiple (de exemplu, „Care este cel mai întunecat gând pe care îl ai despre asta?”). Apoi, împărtășește anonim preocuparea persoanei, înregistrată ca câteva propoziții de text, cu altcineva de pe server, care poate răspunde anonim cu un mesaj scurt.

Într-un experiment de inteligență artificială (AI) care a implicat aproximativ 30 de mesaje, a spus Morris, voluntarii care îi ajută pe alții au avut opțiunea de a folosi un răspuns generat automat de modelul de limbaj mare GPT-3 al OpenAI în loc să îl scrie în mod independent (GPT-3 este tehnologia din spatele). recent popularul chatbot ChatGPT). În tweetul său, Morris notează că oamenii au lăudat răspunsurile generate de AI până au aflat că au fost scrise de AI, sugerând o lipsă esențială a consimțământului informat în cel puțin o fază a experimentului:

„Mesajele compuse de AI (și controlate de oameni) au fost evaluate semnificativ mai mult decât cele scrise de oameni înșiși. Timpul de răspuns redus cu 50% la mai puțin de un minut. Și totuși... am eliminat această funcție de pe platforma noastră destul de repede. De ce? Odată ce oamenii au aflat că mesajele au fost generate automat, acesta a încetat să funcționeze. Simpatia simulată pare ciudată, goală.”

În introducerea în server, administratorii scriu: „Koko te pune în legătură cu oameni reali care te înțeleg cu adevărat. Nu terapeuți, nu consilieri, doar oameni ca tine.” La scurt timp după ce Morris a postat mesajul, a primit multe răspunsuri criticând experimentul ca fiind lipsit de etică, invocând îngrijorări legate de lipsa consimțământului informat și punând la îndoială dacă experimentul a fost aprobat de Institutional Review Board (IRB). În Statele Unite, este ilegal să se efectueze cercetări pe subiecți umani fără consimțământul informat efectiv din punct de vedere legal, cu excepția cazului în care IRB stabilește că consimțământul poate fi renunțat.

Într-un tweet ca răspuns, Morris a spus că experimentul a fost „exceptat” de cerințele privind consimțământul informat, deoarece nu avea de gând să publice rezultatele, declanșând o paradă de indignare.

Ideea de a folosi AI ca terapeut este departe de a fi nouă, dar ceea ce face experimentul lui Koko diferit de abordările tipice ale terapiei AI este că pacienții tind să știe că nu vorbesc cu o persoană vie. În cazul lui Koko, platforma a implicat o abordare hibridă în care un intermediar uman ar putea revizui un mesaj înainte de a-l trimite, în loc de un format de chat direct. Cu toate acestea, fără consimțământul informat, criticii spun că Koko a încălcat regulile etice menite să protejeze persoanele vulnerabile de practicile de cercetare dăunătoare sau crude.

Luni, Morris a postat o postare care răspunde la controversă și explică călătoria lui Koko către GPT-3 și AI în general: „Primesc critici, preocupări și întrebări despre această muncă cu empatie și deschidere. Ne angajăm să ne asigurăm că orice utilizare a AI este sensibilă, cu o preocupare profundă pentru confidențialitate, transparență și diminuarea riscurilor. Consiliul nostru consultativ clinic se întrunește pentru a discuta liniile directoare pentru lucrările viitoare, inclusiv aprobarea IRB.”

Poți ajuta Ucraina să lupte împotriva invadatorilor ruși. Cel mai bun mod de a face acest lucru este să donați fonduri Forțelor Armate ale Ucrainei prin intermediul Salveaza viata sau prin pagina oficiala NBU.

Citeste si:

Distribuie
Julia Alexandrova

Coffeeman. Fotograf. Scriu despre știință și spațiu. Cred că e prea devreme pentru noi să întâlnim extratereștri. Urmaresc dezvoltarea roboticii, pentru orice eventualitate...

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate*