Meniu Shop

SE PARE CĂ CEL MAI PERICULOS MODEL DE AI DIN LUME A CĂZUT ÎN MÂINI GREȘITE

Mythos, dezvoltat de Anthropic, a fost accesibil și celor care nu aveau drept de acces.
DemonDani
DemonDani
Se pare că cel mai periculos model de AI din lume a căzut în mâini greșite

Anthropic a anunțat lansarea proiectului Glasswing la începutul lunii Aprilie, o inițiativă de securitate bazată pe Claude Mythos. Compania a implicat numai parteneri de încredere, crema industriei tehnologice, precum OpenAI, Nvidia și Amazon. Cu toate acestea, a reieșit recent că modelul secret și bine păzit a fost accesibil pentru părți neautorizate.

O persoană care a dorit să rămână anonim a contactat Bloomberg spunând că modelul a fost accesat de "un mic grup de utilizatori neautorizați", pe care Anthropic admite că ar putea fi atât de periculos încât nu intenționează să îl ofere deschis.

Aceasta este o acuzație extrem de gravă, dar persoana a oferit dovezi suficiente ca să demonstreze că o poate accesa din exterior, prin mai multe capturi de ecran. Informatorul Bloomberg s-a referit la sine ca fiind un subcontractant al Anthropic, și a declarat ziarului că persoanele în cauză fac parte dintr-un grup Discord.

Deschide galerie

"Membrii au obținut acces la modelul Mythos printr-o combinație de metode, folosind privilegiile lor de acces de subcontractant și instrumente simple de cercetare online", se arată în raport. Accesul a fost obținut pe 7 Aprilie, chiar în ziua în care compania a anunțat lansarea proiectului.

Se spune că acesta este un grup este una care colectează informații despre modelele în curs de dezvoltare înainte de publicare. Se raportează că modelul Claude Mythos a fost utilizat în mod regulat de la descoperirea accesului neautorizat. În plus, se presupune că și alte modele au fost compromise la Anthropic, alte variante Claude.

Claude Mythos este disponibil în prezent doar într-o versiune preliminară, motiv pentru care compania a încercat să limiteze numărul celor implicați oficial. Este un model de uz general care se comportă mult mai bine decât soluțiile "de consum" disponibile în prezent. Scopul său principal este să găsească vulnerabilități și să propună soluții pentru ele. Anthropic a demonstrat partenerilor eficiența acestuia prin descoperirea unor vulnerabilități care au fost ascunse timp de decenii în sisteme implementate pe scară largă.

Deschide galerie

Bloomberg a contactat Anthropic, dar compania a declarat că nu are cunoștință de compromiterea sistemului, nu a detectat nici un acces neautorizat. "Investigăm un raport conform căruia persoane necunoscute au accesat premodelul Claude Mythos prin intermediul sistemelor unuia dintre furnizorii noștri terți" - a adăugat compania.

Este un motiv de îngrijorare atunci când cele mai mari companii de tehnologie din lume, aflate în fruntea dezvoltării inteligenței artificiale, sunt compromiși la acest nivel.

Trebuie văzut că cu modelul Claude Mythos, nu numai că hackerii își pot pune propriile interese pe primul loc și pot descoperi vulnerabilități de securitate, dar ar putea exista pericole mult mai grave. Deoarece este un instrument de securitate cibernetică și rulează într-un mediu închis și controlat, este foarte puțin probabil să aibă restricții etice. Ceea ce o face foarte periculoasă.

Abonament la newsletter

Îţi recomand

    Teste

      Articole similare

      Înapoi la început