REGULAMENTUL (UE) 2024/1689 AL PARLAMENTULUI EUROPEAN ȘI AL CONSILIULUI din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială și de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 167/2013, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 și (UE) 2019/2144 și a Directivelor 2014/90/UE, (UE) 2016/797 și (UE) 2020/1828 (Regulamentul privind inteligența artificială) a fost publicat în Jurnalul Oficial al UE la 12 iulie 2024. Aceasta înseamnă că Actul AI a intrat acum în vigoare la 1 august 2024, la 20 de zile de la publicare. Actul AI va avea implicații pentru întreprinderile din întreaga lume, nu doar în UE. Majoritatea obligațiilor din Legea AI se aplică începând cu 2 august 2026, dar diferite obligații intră în joc în diferite etape. Acest rezumat explică ce obligații se aplică atunci când și sugerează câțiva pași practici.
1. Ce și cine intră în domeniul de aplicare al Regulamentului AI?
Obligațiile din Regulamentul AI se aplică furnizorilor (cum ar fi dezvoltatorii), implementatorilor (utilizatorilor), importatorilor, distribuitorilor și producătorilor de produse de „sisteme AI” și furnizorilor de „modele AI de uz general”. Cele mai oneroase obligații sunt suportate de furnizori.
Ce contează drept „sistem AI”?
„înseamnă un sistem bazat pe o mașină care este conceput să funcționeze cu diferite niveluri de autonomie și care poate prezenta adaptabilitate după implementare, și care, urmărind obiective explicite sau implicite, deduce, din datele de intrare pe care le primește, modul de generare a unor rezultate precum previziuni, conținut, recomandări sau decizii care pot influența mediile fizice sau virtuale”.
Definiția este largă, dar se concentrează pe autonomie și capacitățile de inferență pentru a distinge AI de software-ul convențional care funcționează prin referire la reguli predeterminate. Ne putem aștepta la orientări din partea Comisiei cu privire la aplicarea acestei definiții până la 2 februarie 2026.
În mod similar cu GDPR, Actul AI se aplică entităților stabilite în afara UE, precum și celor din UE, dacă pun sisteme AI pe piață sau în funcțiune în UE sau rezultatul sistemului AI este folosit în UE.
Obligațiile din Legea AI variază în funcție de modul în care este clasificat riscul:
risc prohibitiv – sisteme AI care prezintă un risc inacceptabil și, prin urmare, sunt interzise în conformitate cu Legea AI.
risc ridicat – sisteme AI care creează un risc ridicat pentru sănătatea și siguranța sau drepturile fundamentale ale persoanelor și, prin urmare, sunt supuse unora dintre cele mai oneroase obligații.
risc limitat – sisteme AI care prezintă un risc de transparență.
Există seturi separate de obligații pentru modelele și sistemele AI de uz general („GPAI” general-purpose AI) – sisteme precum ChatGPT, instruite pe cantități mari de date care au o gamă largă de utilizări și sunt adesea integrate în alte sisteme din aval și aplicații. Cele două regimuri nu se exclud reciproc: un model GPAI poate deveni parte a unui sistem cu risc ridicat, supus obligațiilor cu risc ridicat, pe lângă obligațiile GPAI. Există două niveluri de obligații pentru GPAI: un set de obligații care se aplică tuturor modelelor GPAI și un set suplimentar de obligații care se aplică unui subset de modele GPAI cu „risc sistemic”.
Modelele cu risc sistemic sunt cele care au capacități de impact ridicat (care sunt presupuse dacă puterea de calcul depășește un prag desemnat) sau sunt desemnate ca atare de către Comisie.
Risc sistemic înseamnă un risc specific capabilităților cu impact ridicat ale modelelor de IA de uz general, având un impact semnificativ asupra pieței Uniunii ca urmare a amplorii acestora sau a efectelor negative reale sau previzibile în mod rezonabil asupra sănătății publice, siguranței, securității publice, drepturilor fundamentale sau asupra societății în ansamblu, care poate fi propagat la scară largă de-a lungul lanțului valoric
Multe sisteme AI nu vor intra în niciuna dintre aceste categorii și sunt considerate cu risc scăzut. Organizațiile care dezvoltă și utilizează astfel de sisteme sunt încurajate să adere la codurile voluntare și vor fi supuse unei obligații de „alfabetizare (literacy) IA” (în esență, să-și informeze și să-și instruiască personalul/lanțul de aprovizionare care se implică în IA cu privire la riscurile și impactul AI, în funcție de contextul relevant), dar majoritatea regulilor din Regulamentul AI nu se va aplica altfel unor astfel de sisteme. Implementarea politicilor de „Utilizare responsabilă” a AI va juca un rol important în a ajuta la îndeplinirea cerinței de „alfabetizare IA”.
Alte excluderi din domeniul de aplicare al Actului AI
Anumite sisteme AI nu cad sub incidența regulamentului. De exemplu, sistemele de inteligență artificială utilizate exclusiv pentru cercetare și dezvoltare științifică sau pentru uz personal sau pentru cercetare și testare înainte de introducerea pe piață a unui sistem sau cele lansate sub licențe open source (cu excepția cazului în care sunt clasificate ca interzise sau înalt risc).
Comentarii