Meniu Shop

ACORDUL PENTRU UN IA MAI SIGUR E SUSȚINUTĂ DE MULTE ȚĂRI EUROPENE

Acesta este primul acord internațional cu adevărat cuprinzător, dar mai este încă mult de lucru pentru practicieni și autoritățile de reglementare pentru a crea un mediu sigur.
DemonDani
DemonDani
Acordul pentru un IA mai sigur e susținută de multe țări europene

Inteligența artificială continuă să se răspândească într-un ritm brutal, dar companiile din domeniul tehnologiei nu se concentrează cu adevărat pe asigurarea unei securități corecte într-un mediu extrem de competitiv. Mai mult, se poate observa că securitatea a trecut pe plan secundar pentru companii. Din acest motiv, statele încearcă să exercite mai multă presiune, iar acest lucru este ajutat de diferitele acorduri.

Ca răspuns la actualul acord, politicienii americani au declarat că acest acord este primul considerat internațional în domeniul inteligenței artificiale, cu orientări detaliate. În total, 18 țări au semnat, deci nu este un document care să fie acceptat în mod universal, dar este deja considerat un succes major.

Acordul ar trebui să permită diferitelor țări să orienteze inteligența artificială într-o direcție mai sigură. Scopul este de a proteja noua tehnologie de actori dăunători care ar putea utiliza în mod abuziv instrumentele de inteligență artificială generativă în diverse moduri. În plus, este foarte important ca prin intermediul documentelor, statele să poată face presiuni asupra actorilor din sectorul tehnologic. Cel mai important lucru ar fi să reușim să forțăm companiile de tehnologie să creeze sisteme mai sigure.

Deschide galerie

În afară de SUA, printre cele 18 țări care au semnat documentul de 20 de pagini se numără Marea Britanie, Australia, Republica Cehă, Nigeria, Singapore, Estonia, Italia, Germania și Polonia. Este o imagine de ansamblu mixtă, dar există zone din întreaga lume în care crearea unei IA mai sigure este considerată o prioritate ridicată.

"Secure by design" este linia directoare conform căreia viitoarele sisteme de inteligență artificială ar trebui să fie securizate prin proiectare.

Ideea este că IA ar trebui să fie concepută astfel încât să protejeze clienții și publicul larg încă de la început, atât în ceea ce privește proiectarea inițială, cât și în ceea ce privește dezvoltarea sa. Prevenirea utilizării abuzive ar trebui să fie unul dintre cele mai importante aspecte. Toate acestea sună bine, dar trebuie să se țină cont de faptul că încă nu vorbim de reguli obligatorii care să poată fi aplicate prin lege. Documentul stabilește în principal recomandări și orientări.

Pe această cale, țările pot detecta și supraveghea mai ușor abuzurile, pot depista fraudele comise cu ajutorul inteligenței artificiale generative și pot preveni manipularea datelor de către software.

Jen Easterly, șefa US Cybersecurity, a declarat că speră că acesta este doar începutul și că multe alte companii se vor alătura rândurilor susținătorilor. Țările trebuie să recunoască faptul că securitatea trebuie să fie pe primul plan atunci când vine vorba de sistemele de inteligență artificială. El a spus că vede din ce în ce mai multe companii care încearcă să plaseze securitatea pe primul plan, alături de caracteristicile interesante, expansiunea rapidă și limitarea costurilor.

UE a luat deja măsuri drastice în ceea ce privește modelele de inteligență artificială generativă, motiv pentru care, de exemplu chatbotul Claude nu se află încă în regiunea noastră, dar și Bardul a fost amânat cu mai mult de o lună. Acordurile de acest tip oferă îndrumări cu privire la modul în care trebuie protejate tehnologiile de inteligență artificială de hackeri, de exemplu, sau la modul în care trebuie să se înăsprească implementarea și acordarea de licențe.

Îţi recomand

    Teste

      Articole similare

      Înapoi la început