Cea mai mare parte a Regulamentului AI se va aplica începând cu 2 august 2026. De la această dată încep să se aplice obligațiile privind sistemele cu risc ridicat.
Sistemele cu risc ridicat se împart în 2 categorii:
1. orice sistem AI care este o componentă de siguranță a sau este el însuși un produs care face obiectul reglementărilor UE privind siguranța produselor și care trebuie să fie supus unei evaluări a conformității de către terți în conformitate cu legislația respectivă. Lista completă a legislației este prezentată în Anexa I la Legea AI, care acoperă echipamente medicale, jucării, radiouri, etc.; sau
2. orice sistem AI care este desemnat în mod special în anexa III. Anexa III stabilește domenii precum:
anumite cazuri de utilizare a biometriei,
infrastructura critică,
acces la formare educațională și profesională,
anumite contexte de angajare de ex. sisteme utilizate într-un proces de recrutare sau selecție, sau pentru a lua decizii în timpul relațiilor de lucru, inclusiv monitorizarea performanței, alocarea muncii, promovarea sau rezilierea,
verificarea creditului și evaluarea riscurilor de asigurări de viață și de sănătate și a prețurilor,
diverse aplicații din sectorul public, cum ar fi evaluarea eligibilității pentru beneficii, controlul la frontieră și azil, aplicarea legii și administrarea justiției și alegeri.
Chiar dacă un sistem se încadrează în domeniile din anexa III, este posibil să se demonstreze că sistemul nu prezintă, de fapt, un risc ridicat prin referire la anumite criterii, de exemplu, dacă utilizarea se limitează la îndeplinirea unei sarcini procedurale restrânse sau implică îmbunătățirea rezultatelor activităților îndeplinite anterior de un om.
Data de punere în aplicare din 2 august 2026 nu se aplică tuturor sistemelor cu risc ridicat:
Sistemele cu risc ridicat preexistente datei de 2 august 2026 destinate utilizării de către autoritățile publice vor avea termen până la 2 august 2030 să se conformeze.
Sistemele cu risc ridicat preexistente datei de 2 august 2026 utilizate de persoane private nu sunt ținute de obligații de conformare, sub condiția să nu fie în mod substanțial modificate ulterior.
Sistemele de AI cu risc ridicat în temeiul Anexei I la Actul AI (produse supuse legislației privind siguranța produselor) care sunt introduse pe piață la 2 august 2026 sau după aceasta vor avea termen până la 2 august 2027 să se conformeze.
Furnizorii de sisteme AI cu risc ridicat vor fi supuși unei game de obligații, inclusiv:
evaluări de conformitate,
înregistrarea sistemului într-o nouă bază de date AI a UE,
punerea în aplicare a unor reguli detaliate în domenii precum supravegherea umană, calitatea datelor și guvernanța, transparența, acuratețea și securitatea cibernetică,
sistem de monitorizare post-comercializare și raportare a incidentelor.
O organizație poate fi, de asemenea, considerată un furnizor dacă își pune marca comercială pe un sistem cu risc ridicat, care se află pe piață, sau modifică substanțial scopul unui sistem AI (inclusiv un sistem AI de uz general), astfel încât devine cu risc ridicat.
Utilizatorii sistemelor AI cu risc ridicat vor avea și ei obligații, mai puține, dar totuși considerabile, de exemplu:
utilizarea măsurilor tehnice și organizatorice pentru a respecta instrucțiunile unui furnizor de utilizare a sistemului,
atribuirea supravegherii umane personalului competent și instruit,
furnizarea datelor de intrare relevante și reprezentative pentru scopul propus al sistemului AI,
monitorizarea funcționării sistemului, păstrarea jurnalelor de funcționare a acestuia și raportarea riscurilor și incidentelor,
informarea reprezentanților angajaților atunci când se utilizează sisteme cu risc ridicat la locul de muncă.
Obligațiile referitoare la sistemele AI clasificate drept risc de transparență se vor aplica și de la 2 august 2026.
Furnizorii de sisteme AI destinate să interacționeze direct cu oamenii sau care generează conținut sintetic audio, imagine, video sau text vor fi supuși obligațiilor de transparență. Utilizatorii sistemelor de recunoaștere a emoțiilor sau de clasificare biometrică vor fi, de asemenea, supuși obligațiilor de transparență. Dezvăluirea către utilizatorii finali a faptului că conținutul a fost generat sau manipulat de AI și că aceștia interacționează cu un sistem AI va fi cheia conformității.
Comentarii