Root NationArticoleTehnologiiCe sunt rețelele neuronale și cum funcționează?

Ce sunt rețelele neuronale și cum funcționează?

-

Astăzi vom încerca să ne dăm seama ce sunt rețelele neuronale, cum funcționează și care este rolul lor în crearea inteligenței artificiale.

Rețele neuronale. Auzim această frază aproape peste tot. Se ajunge în punctul în care veți găsi rețele neuronale chiar și în frigidere (asta nu este o glumă). Rețelele neuronale sunt utilizate pe scară largă de algoritmii de învățare automată, care astăzi pot fi găsite nu numai în computere și smartphone-uri, ci și în multe alte dispozitive electronice, de exemplu, în aparatele de uz casnic. Și te-ai întrebat vreodată ce sunt aceste rețele neuronale?

Nu vă faceți griji, aceasta nu va fi o prelegere academică. Există multe publicații, inclusiv în limba ucraineană, care explică foarte profesional și fiabil această problemă în domeniul științelor exacte. Astfel de publicații au mai bine de o duzină de ani. Cum este posibil ca aceste publicații vechi să fie încă relevante? Faptul este că fundamentele rețelelor neuronale nu s-au schimbat, iar conceptul în sine - un model matematic al unui neuron artificial - a fost creat în timpul celui de-al Doilea Război Mondial.

Ce sunt rețelele neuronale și cum funcționează?

La fel și cu Internetul, Internetul de astăzi este incomparabil mai avansat decât atunci când a fost trimis primul e-mail. Bazele internetului, protocoalele fundamentale, au existat încă de la începutul creării sale. Fiecare concept complex este construit pe baza unor structuri vechi. La fel este și cu creierul nostru, cel mai tânăr cortex cerebral nu poate funcționa fără cel mai vechi element evolutiv: trunchiul cerebral, care se află în capul nostru de vremuri mult mai vechi decât existența speciei noastre pe această planetă.

Te-am derutat un pic? Deci să înțelegem mai detaliat.

Interesant de asemenea: ChatGPT: instrucțiuni simple de utilizare

Ce sunt rețelele neuronale?

O rețea este o colecție de anumite elemente. Aceasta este cea mai simplă abordare în matematică, fizică sau tehnologie. Dacă o rețea de calculatoare este un set de computere interconectate, atunci o rețea neuronală este în mod evident un set de neuroni.

rețele neuronale

Cu toate acestea, aceste elemente nu sunt nici pe departe comparabile ca complexitate cu celulele nervoase ale creierului și ale sistemului nostru nervos, dar la un anumit nivel de abstractizare, unele caracteristici ale unui neuron artificial și ale unui neuron biologic sunt comune. Dar este necesar să ne amintim că un neuron artificial este un concept mult mai simplu decât omologul său biologic, despre care încă nu știm totul.

- Publicitate -

Citeste si: 7 cele mai interesante utilizări ale ChatGPT

Mai întâi a fost un neuron artificial

Primul model matematic al unui neuron artificial a fost dezvoltat în 1943 (da, nu este o greșeală, în timpul celui de-al Doilea Război Mondial) de doi oameni de știință americani, Warren McCulloch și Walter Pitts. Ei au reușit să facă acest lucru pe baza unei abordări interdisciplinare, combinând cunoștințele de bază despre fiziologia creierului (amintiți-vă vremea când a fost creat acest model), matematică și abordarea IT tânără de atunci (au folosit, printre altele, teoria computabilității a lui Alan Turing ). Modelul de neuron artificial McCulloch-Pitts este un model foarte simplu, are multe intrări, unde informațiile de intrare trec prin greutăți (parametri), ale căror valori determină comportamentul neuronului. Rezultatul rezultat este trimis la o singură ieșire (vezi diagrama neuronului McCulloch-Pitts).

rețele neuronale
Schema unui neuron artificial 1. Neuroni ale căror semnale de ieșire sunt introduse la intrarea unui neuron dat 2. Adunator de semnale de intrare 3. Calculator funcție de transfer 4. Neuroni la intrările cărora se aplică semnalul unui neuron dat 5. ωi — ponderile semnalelor de intrare

O astfel de structură asemănătoare arborelui este asociată cu un neuron biologic, deoarece atunci când ne gândim la desene care înfățișează celulele nervoase biologice, ne vine în minte structura caracteristică arborescentă a dendritelor. Cu toate acestea, nu ar trebui să cedeți iluziei că un neuron artificial este cel puțin oarecum aproape de o celulă nervoasă reală. Acești doi cercetători, autorii primului neuron artificial, au reușit să demonstreze că orice funcție computabilă poate fi calculată folosind o rețea de neuroni interconectați. Totuși, să ne amintim că aceste prime concepte au fost create doar ca idei care au existat doar „pe hârtie” și nu au avut o interpretare reală sub forma echipamentelor de operare.

Citeste si: Despre calculatoarele cuantice în cuvinte simple

De la model la implementări inovatoare

McCulloch și Pitts au dezvoltat un model teoretic, dar crearea primei rețele neuronale reale a trebuit să aștepte mai mult de zece ani. Creatorul său este considerat a fi un alt pionier al cercetării inteligenței artificiale, Frank Rosenblatt, care în 1957 a creat rețeaua Mark I Perceptron, iar tu însuți ai arătat că datorită acestei structuri, mașina a dobândit o abilitate inerentă înainte doar animalelor și oamenilor: poate invata. Cu toate acestea, acum știm că au existat, de fapt, alți oameni de știință care au venit cu ideea că o mașină ar putea învăța, inclusiv înainte de Rosenblatt.

Mark I Perceptron

Mulți cercetători și pionieri ai informaticii în anii 1950 au venit cu ideea cum să facă o mașină să facă ceea ce nu putea face singură. De exemplu, Arthur Samuel a dezvoltat un program care a jucat dame cu un om, Allen Newell și Herbert Simon au creat un program care ar putea demonstra independent teoreme matematice. Chiar înainte de crearea primei rețele neuronale a lui Rosenblatt, alți doi pionieri ai cercetării în domeniul inteligenței artificiale, Marvin Minsky și Dean Edmonds, în 1952, adică chiar înainte de apariția perceptronului lui Rosenblatt, au construit o mașină numită SNARC (Stochastic Neural). Analog Reinforcement Calculator) - întărirea calculatorului analogic neural stochastic, considerat de mulți a fi primul computer de rețea neuronală stochastică. Trebuie remarcat faptul că SNARC nu a avut nimic de-a face cu calculatoarele moderne.

SNARC

Mașina puternică, care folosește peste 3000 de tuburi electronice și un mecanism de pilot automat de rezervă de la un bombardier B-24, a fost capabilă să simuleze funcționarea a 40 de neuroni, ceea ce s-a dovedit a fi suficient pentru a simula matematic căutarea unui șobolan pentru o ieșire dintr-un labirint. . Desigur, nu a existat nici un șobolan, a fost doar un proces de deducție și de găsire a soluției optime. Această mașină a făcut parte din doctoratul lui Marvin Minsky.

reteaua adaline

Un alt proiect interesant în domeniul rețelelor neuronale a fost rețeaua ADALINE, dezvoltată în 1960 de Bernard Withrow. Astfel, se poate pune întrebarea: din moment ce acum mai bine de jumătate de secol cercetătorii cunoșteau fundamentele teoretice ale rețelelor neuronale și chiar au creat primele implementări de lucru ale unor astfel de cadre computaționale, de ce a durat atât de mult timp, până în secolul al XXI-lea, ca să creați soluții reale bazate pe rețele neuronale? Răspunsul este unul singur: putere de calcul insuficientă, dar nu a fost singurul obstacol.

rețele neuronale

Deși în anii 1950 și 1960, mulți pionierii AI au fost fascinați de posibilitățile rețelelor neuronale, iar unii dintre ei au prezis că o mașină echivalentă a creierului uman este la doar zece ani distanță. Este chiar amuzant de citit astăzi, pentru că încă nici măcar nu ne-am apropiat de a crea o mașină echivalentă a creierului uman și suntem încă departe de a rezolva această sarcină. A devenit rapid clar că logica primelor rețele neuronale era atât fascinantă, cât și limitată. Primele implementări ale AI folosind neuroni artificiali și algoritmi de învățare automată au putut rezolva o anumită gamă restrânsă de sarcini.

Cu toate acestea, când a fost vorba de spații mai largi și de rezolvarea a ceva cu adevărat serios, cum ar fi recunoașterea modelelor și imaginilor, traducerea simultană, recunoașterea vorbirii și a scrisului de mână etc., adică lucruri pe care computerele și IA le pot face deja astăzi, s-a dovedit că primele implementări ale rețelelor neuronale au fost pur și simplu incapabile să facă acest lucru. De ce este așa? Răspunsul a fost dat de cercetările lui Marvin Minsky (da, același de la SNARC) și Seymour Papert, care în 1969 au dovedit limitările logicii perceptronilor și au arătat că creșterea capacităților rețelelor neuronale simple numai datorită scalarii nu funcționează. Mai era o barieră, dar foarte importantă – puterea de calcul disponibilă la acea vreme era prea mică pentru ca rețelele neuronale să poată fi utilizate conform intenției.

Interesant de asemenea:

- Publicitate -

Renașterea rețelelor neuronale

În anii 1970 și 1980, rețelele neuronale au fost practic uitate. Abia la sfârșitul secolului trecut puterea de calcul disponibilă a devenit atât de mare încât oamenii au început să se întoarcă la ea și să-și dezvolte capacitățile în acest domeniu. Atunci au apărut noi funcții și algoritmi, capabili să depășească limitările primelor cele mai simple rețele neuronale. Atunci a apărut ideea învățării automate profunde a rețelelor neuronale multistrat. Ce se întâmplă de fapt cu aceste straturi? Astăzi, aproape toate rețelele neuronale utile care operează în mediul nostru sunt multistratificate. Avem un strat de intrare a cărui sarcină este de a primi date de intrare și parametri (greutăți). Numărul acestor parametri variază în funcție de complexitatea problemei de calcul ce urmează a fi rezolvată de rețea.

rețele neuronale

În plus, avem așa-numitele „straturi ascunse” - aici se întâmplă toată „magia” asociată învățării automate profunde. Straturile ascunse sunt responsabile pentru capacitatea acestei rețele neuronale de a învăța și de a efectua calculele necesare. În sfârșit, ultimul element este stratul de ieșire, adică stratul rețelei neuronale care dă rezultatul dorit, în acest caz: scriere de mână recunoscută, față, voce, imagine formată pe baza descrierii textuale, rezultatul analizei tomografice a imaginea de diagnostic și multe altele.

Citeste si: Am testat și am intervievat chatbot-ul lui Bing

Cum învață rețelele neuronale?

După cum știm deja, neuronii individuali din rețelele neuronale procesează informații cu ajutorul parametrilor (greutăți), cărora li se atribuie valori și conexiuni individuale. Aceste ponderi se modifică în timpul procesului de învățare, ceea ce vă permite să ajustați structura acestei rețele în așa fel încât să genereze rezultatul dorit. Cum învață mai exact rețeaua? Este evident, trebuie antrenat constant. Nu fi surprins de această zicală. Învățăm și noi, iar acest proces nu este haotic, ci ordonat, să spunem. Îi spunem educație. În orice caz, rețelele neuronale pot fi, de asemenea, antrenate, iar acest lucru se face de obicei folosind un set de intrări selectat corespunzător, care pregătește cumva rețeaua pentru sarcinile pe care le va îndeplini în viitor. Și toate acestea se repetă pas cu pas, uneori procesul de învățare seamănă într-o oarecare măsură cu procesul de formare în sine.

De exemplu, dacă sarcina acestei rețele neuronale este să recunoască fețele, aceasta este pre-antrenată pe un număr mare de imagini care conțin fețe. În procesul de învățare, greutățile și parametrii straturilor ascunse se schimbă. Experții folosesc aici sintagma „minimizarea funcției de cost”. O funcție de cost este o cantitate care ne spune cât de mult greșește o anumită rețea neuronală. Cu cât putem minimiza mai mult funcția de cost ca urmare a antrenamentului, cu atât această rețea neuronală va funcționa mai bine în lumea reală. Cea mai importantă caracteristică care distinge orice rețea neuronală de o sarcină programată folosind un algoritm clasic este că, în cazul algoritmilor clasici, programatorul trebuie să proiecteze pas cu pas ce acțiuni va efectua programul. În cazul rețelelor neuronale, rețeaua în sine este capabilă să învețe să îndeplinească sarcinile corect pe cont propriu. Și nimeni nu știe exact cum își realizează calculele o rețea neuronală complexă.

rețele neuronale

Astăzi, rețelele neuronale sunt utilizate pe scară largă și, poate în mod surprinzător, foarte des, fără a înțelege cum funcționează de fapt procesul de calcul într-o anumită rețea. Nu este nevoie de asta. Programatorii folosesc rețele neuronale gata făcute, învățate de mașină, care sunt pregătite pentru date de intrare de un anumit tip, le procesează într-un mod cunoscut doar de ei și produc rezultatul dorit. Un programator nu trebuie să știe cum funcționează procesul de inferență în interiorul unei rețele neuronale. Adică, o persoană rămâne departe de un volum mare de calcule, o metodă de obținere a informațiilor și procesarea acesteia de către rețelele neuronale. De unde anumite temeri ale omenirii cu privire la modelele de inteligență artificială. Pur și simplu ne temem că într-o zi rețeaua neuronală își va stabili o anumită sarcină și, în mod independent, fără ajutorul unei persoane, va găsi modalități de a o rezolva. Acest lucru îngrijorează omenirea, provoacă teamă și neîncredere în utilizarea algoritmilor de învățare automată.

chat gpt

Această abordare utilitară este comună astăzi. La noi e la fel: știm să antrenăm pe cineva într-o anumită activitate și știm că procesul de instruire va fi eficient dacă este făcut corect. O persoană va dobândi abilitățile dorite. Dar înțelegem exact cum are loc procesul de deducție în creierul lui, care a provocat acest efect? Habar n-avem.

Sarcina oamenilor de știință este să studieze aceste probleme cât mai mult posibil, astfel încât să ne servească și să ne ajute acolo unde este necesar și, cel mai important, să nu devină o amenințare. Ca oameni, ne este frică de ceea ce nu știm.

Interesant de asemenea: 

Yuri Svitlyk
Yuri Svitlyk
Fiu al Munților Carpați, geniu nerecunoscut al matematicii, „avocat”Microsoft, altruist practic, stânga-dreapta
- Publicitate -
Inscrie-te
Notifică despre
oaspete

0 Comentarii
Recenzii încorporate
Vezi toate comentariile