Din nefericire, potențialul inteligenței artificiale și al modelelor lingvistice de mari dimensiuni poate fi utilizat în scopuri diferite de cele cu sens pozitiv; dacă acestea cad în mâini greșite, pot fi folosite pentru a dezvolta software specializat de phishing sau pentru a dezvolta forme mai sofisticate de atac, deoarece pot fi utilizate pentru a identifica mai ușor vulnerabilitățile potențial exploatabile. Conform unui raport recent OpenAI din Octombrie 2024, se pare că în ultima perioadă au avut loc peste 20 atacuri cibernetice în care infractorii cibernetici au folosit ChatGPT pentru a-și atinge mai eficient obiectivele.
Cisco Talos a confirmat deja că s-au efectuat deja două atacuri cibernetice folosind ChatGPT. Unul dintre acestea a fost lansat de o echipă chineză împotriva infrastructurii guvernamentale din diverse țări asiatice. Acest atac a fost un așa-numit Spear Phishing, în care au fost vizate anumite organizații sau persoane pentru a obține date valoroase. Execuția a fost sofisticată: a fost primit un fișier ZIP care conținea un fișier care cu cod malițios, care aștepta doar să fie deschis. Odată ce fișierul a fost descărcat și deschis, a fost pus în mișcare un lanț de infectare pentru a obține datele țintă. Atacul, denumit "SweetSpecter", a fost creat cu ajutorul ChatGPT, potrivit experților OpenAI, infractorii cibernetici folosind mai multe conturi de utilizator pentru a crea scripturile necesare, și ChatGPT pentru a descoperi vulnerabilitățile care ar putea fi utilizate pentru lansarea atacului.
Al doilea atac cibernetic a fost efectuat de o echipă iraniană, "CyberAv3ngers", care a folosit ChatGPT pentru a găsi vulnerabilități, și a folosit acest model lingvistic de mari dimensiuni pentru a fura datele de identificare ale utilizatorilor de pe computerele bazate pe macOS. Un alt atac cibernetic a fost efectuat de o altă echipă iraniană, cunoscută sub numele de "Storm-0817", care a vizat dispozitivele bazate pe Android, dezvoltând pentru acestea programe malware folosind ChatGPT. Acest malware a furat apoi lista de contacte, istoricul apelurilor, istoricul navigării, a obținut locația exactă a dispozitivului, și a accesat diverse fișiere stocate pe dispozitiv.
Aceste atacuri au utilizat aceleași metode încercate și testate pe care infractorii cibernetici le-au folosit pentru a crea programe malware și a planifica atacuri cibernetice, însă ChatGPT a contribuit la simplificarea, accelerarea și eficientizarea creării de coduri malițioase și la facilitarea detectării vulnerabilităților. Desigur, acest lucru presupune ca infractorul cibernetic în cauză să cunoască ChatGPT foarte bine. În timp ce cercetătorii în domeniul securității încearcă să contribuie la prevenirea utilizării ChatGPT în scopuri similare, infractorii cibernetici caută breșe, cel puțin pentru moment.
Pentru a asigura o utilizare mai sigură al AI, este esențial ca actorii din industrie să instituie norme și constrângeri care să împiedice utilizarea modelelor lingvistice mari în astfel de scopuri - sau cel puțin să îngreuneze acest lucru pentru infractorii cibernetici.