Meniu Shop

MICROSOFT ȘI OPENAI RECUNOSC CĂ CHATGPT ESTE FOLOSIT DE HACKERI

Unele grupurile finanțate de guvern folosesc și ele marile modele lingvistice pentru a-și perfecționa metodele - nu în America, "bineînțeles".
DemonDani
DemonDani
Microsoft și OpenAI recunosc că ChatGPT este folosit de hackeri

Utilizarea inteligenței artificiale este în creștere, nu doar úntotdeauna în scopuri bune, ci și pentru abuzuri. Acest lucru este un fapt de multă vreme, iar acum Microsoft a vorbit deschis despre faptul că știe că dezvoltările sale cu OpenAI sunt folosite de hackeri.

Infractorii cibernetici folosesc ChatGPT și Copilot pentru a-și face atacurile mai sofisticate.  Au apărut noi tipuri de abuzuri, în timp ce metodele ridicate la un nivel superior de către persoanele neautorizate.

Concret, Microsoft a subliniat că unele echipe de hackeri sponsorizați de stat au apelat și la modele lingvistice de mari dimensiuni pentru a efectua atacuri mai eficiente la nivel internațional. Mai specific, gigantul software din Redmond a vorbit despre grupuri care atacă Occidentul. A precizat că OpenAI a observat deja abuzuri recente în Rusia, Coreea de Nord, Iran și China. Nu se menționează nici un semn de astfel de abuzuri în SUA.

Microsoft și OpenAI consideră că hackerii străini se află ca majoritate primară în utilizarea inteligenței artificiale. Trebuie remarcat faptul că dezvoltatorii încearcă deja să limiteze modelele lingvistice de mari dimensiuni în mai multe moduri pentru a face imposibilă operarea infractorilor cibernetici. Cu toate acestea, nu se încred într-un fals sentiment de securitate, știind foarte bine că hackerii lucrează în mod constant pentru a ocoli liniile de securitate.

"Grupurile de infractori cibernetici, actorii la nivel de stat național și alți agresori, cercetează și testează diverse tehnologii de inteligență artificială pe măsură ce acestea apar. Încearcă să evalueze valoarea potențială a acestora pentru activitățile lor și controalele de securitate pe care trebuie să le ocolească", a declarat Microsoft într-o postare recentă pe blog.

Deschide galerie

Exemple destul de specifice au fost dezvăluite acum de Microsoft, ceea ce este puțin surprinzător. De exemplu, se știe că grupul Strontium, legat de armata rusă, a folosit LLM-uri pentru a încerca să înțeleagă modul în care funcționează legăturile de comunicații prin satelit și cum pot fi blocate. După cum se știe, forțele ucrainene au folosit Starlink pentru a comunica nestingherit. Strontium a interogat AI pentru a înțelege tehnologiile radar și pentru a dezvolta tehnici de atac specifice.

Grupul nord-coreean de hackeri Thallium a folosit modele lingvistice de mari dimensiuni pentru a aduna și analiza informații despre vulnerabilități publice. Aceștia au folosit ChatGPT și alte servicii pentru sarcini de programare de bază pentru a efectua atacuri mai eficiente.

În Iran, membrii grupului Curium au pus la lucru inteligența artificială generativă pentru a crea e-mailuri de phishing mai bune. Acest lucru le-a permis să extragă mai eficient informații de la țintele lor. Dar ei au încercat să folosească LLM și pentru a genera coduri, care ar putea fi folosite într-un atac pentru a evita orice detectare de către un antivirus. Hackeri chinezi au preferat chiar să externalizeze munca de traducere simplă către inteligența artificială, care este deja mai bună decât majoritatea programelor de traducere.

Microsoft și OpenAI lucrează din greu pentru a-i filtra pe cei care folosesc inteligența artificială în scopuri greșite, dar acesta este de fapt doar vârful icebergului. Există organizații care sprijină direct activitățile infractorilor cibernetici și este greu de imaginat ce ar putea aduce viitorul. De aceea, este important ca toată lumea să fie foarte atentă, iar Microsoft încearcă să le îngreuneze treba.

Îţi recomand

    Teste

      Articole similare

      Înapoi la început