Sistemele de inteligență artificială (AI) sunt deja folosite pentru a crea grafică, chatbot și chiar pentru a controla casele inteligente. Companie Microsoft i-a încredințat AI una dintre cele mai importante sfere ale vieții moderne – protecția împotriva amenințărilor cibernetice. Instrumentul Security Copilot vă permite să recunoașteți un atac cibernetic chiar și atunci când nu există semne evidente și ajută la eliminarea acestuia.
În situațiile în care securitatea computerului dvs. este compromisă dintr-un anumit motiv, Security Copilot vă va ajuta să determinați ce s-a întâmplat, ce să faceți și cum să preveniți incidente similare să se întâmple altora. Compania a introdus o nouă soluție bazată pe modelul GPT-4 - Security Copilot ajută clienții corporativi să facă față amenințărilor.
Până acum, instrumentul este disponibil doar clienților corporativi. Același model de limbaj mare care alimentează aplicații precum Bing Chat se află în spatele Security Copilot. Totuși, în acest caz vorbim despre o opțiune special instruită pe materialele și terminologia folosită de profesioniștii IT. În plus, Microsoft a integrat deja Copilot cu celelalte instrumente de securitate ale sale. Compania promite că în timp va putea folosi soluții software de la terți.
În timp ce majoritatea aplicațiilor personalizate bazate pe GPT-4 au fost instruite pe seturi de date oarecum învechite, Security Copilot obține informații noi în timp real, studiind literalmente trilioane de semnale de amenințare care Microsoft primește zilnic. Acesta este avantajul modelului - Security Copilot poate recunoaște semnalele ascunse chiar înainte ca faptul unui atac să devină evident. Datorită acestui lucru, instrumentul poate fi utilizat pentru a recunoaște și a elimina în timp util amenințările.
În același timp, a devenit clar în urmă cu ceva timp că AI precum ChatGPT, Bing Chat sau Google Bard pot avea „halucinații” în timpul cărora faptele complet nesigure sunt folosite ca bază pentru „raționament”. În domeniul securității, acesta poate deveni un fenomen foarte periculos. ÎN Microsoft au confirmat deja că Security Copilot „nu face întotdeauna lucrurile corect”. Din fericire, în cazul produsului Microsoft este prevăzut un mecanism de feedback al utilizatorului pentru a oferi răspunsuri din ce în ce mai relevante.
Inca Microsoft nu a raportat ce s-ar putea întâmpla atunci când AI defensiv se ciocnește de AI rău intenționat, cum ar fi unul conceput pentru a ataca utilizatorii și companiile. În orice caz, compania a spus că clienții întreprinderilor pot testa deja Security Copilot pe un segment mic de utilizatori. Dacă experimentul are succes, probabil că va putea ajuta utilizatorii obișnuiți în viitor.
Interesant de asemenea:
- Microsoft Store în Windows 11 vă va permite să instalați aplicații prin rezultatele căutării
- Bing Chat de Microsoft începe să integreze publicitatea în răspunsuri