AI Act a intrat în vigoare în august 2024, iar majoritatea dispozițiilor sale sunt aplicabile abia din august 2026. Scopul său declarat? Reducerea pericolelor aduse de sisteme de IA asupra drepturilor fundamentale ale cetățenilor europeni, și, adiacent și implicit, reducerea fricii privind aceste dintâi tehnologii și crearea de predictibilitate când vine vorba de dezvoltarea sistemelor de inteligență artificială.
Am scris, pe site-ul ApTI, un articol care trece în revistă ce ne oferă prima lege a UE pentru Inteligența Artificială.
De la intrarea regulamentului în vigoare ne așteaptă un proces îndelungat de oficializare al acestuia privind tehnologii specifice - dar și generale - care pot impacta negativ drepturile noastre fundamentale. Regulamentul are în vedere mai degrabă orientarea către produs (sistemele de inteligență artificială), decât orientarea spre drepturile fundamentale. Acest lucru a fost subliniat în repetate rânduri de analiști și observatori ai regulamentului.
Am trecut, în articolul nostru, prin exemple concrete ale tehnologiilor care vor fi reglementate de AI Act. Un aspect important este faptul că cercetarea și dezvoltarea științifică care folosește, creează și dezvoltă sisteme IA nu este inclusă în aspectele reglementate de AI ACT. În schimb, regulamentul se aplică tehnologiilor IA dezvoltate în cadrul cercetării științifice doar atunci când intră pe piața europeană.
Articolul analizează și clasificarea sistemelor de IA în baza riscului. Simona Tiribelli, cercetătoare care se ocupă de cum influențează sistemele de inteligență artificială procesele noastre decizionale morale, argumentează că fiecare sistem IA crează o „arhitectură decizională” care poate determina, în parte, deciziile pe care le ia o persoană fizică. Acest fapt e în contradicție cu modul în care e modelat riscul în AI Act, unde influența asupra gândirii și comportamentului este unul din factorii care determină zona de risc.
Totuși, este important de menționat că AI ACT nu este o insulă de reglementare, ci trebuie aplicat în concordanță cu obligațiile din alte regulamente privind spațiul digital - DSA și DMA.
Rețeaua EDRi a declarat, de asemenea, cadrul de clasificare a riscurilor ca fiind, de fapt, un sistem de „autoreglementare” deficitar. Conform analizei de la EDRi de mai sus, AI ACT nu reușește în a atinge ce-și propune, anume a deveni un regulament orientat, în mod principal și sistematic, spre protecția drepturilor fundamentale. În schimb, acest regulament este mai mult orientat spre piața comercială de inteligență artificială din Europa.
Am scris, pe site-ul ApTI, un articol care trece în revistă ce ne oferă prima lege a UE pentru Inteligența Artificială.
De la intrarea regulamentului în vigoare ne așteaptă un proces îndelungat de oficializare al acestuia privind tehnologii specifice - dar și generale - care pot impacta negativ drepturile noastre fundamentale. Regulamentul are în vedere mai degrabă orientarea către produs (sistemele de inteligență artificială), decât orientarea spre drepturile fundamentale. Acest lucru a fost subliniat în repetate rânduri de analiști și observatori ai regulamentului.
Am trecut, în articolul nostru, prin exemple concrete ale tehnologiilor care vor fi reglementate de AI Act. Un aspect important este faptul că cercetarea și dezvoltarea științifică care folosește, creează și dezvoltă sisteme IA nu este inclusă în aspectele reglementate de AI ACT. În schimb, regulamentul se aplică tehnologiilor IA dezvoltate în cadrul cercetării științifice doar atunci când intră pe piața europeană.
Articolul analizează și clasificarea sistemelor de IA în baza riscului. Simona Tiribelli, cercetătoare care se ocupă de cum influențează sistemele de inteligență artificială procesele noastre decizionale morale, argumentează că fiecare sistem IA crează o „arhitectură decizională” care poate determina, în parte, deciziile pe care le ia o persoană fizică. Acest fapt e în contradicție cu modul în care e modelat riscul în AI Act, unde influența asupra gândirii și comportamentului este unul din factorii care determină zona de risc.
Totuși, este important de menționat că AI ACT nu este o insulă de reglementare, ci trebuie aplicat în concordanță cu obligațiile din alte regulamente privind spațiul digital - DSA și DMA.
Rețeaua EDRi a declarat, de asemenea, cadrul de clasificare a riscurilor ca fiind, de fapt, un sistem de „autoreglementare” deficitar. Conform analizei de la EDRi de mai sus, AI ACT nu reușește în a atinge ce-și propune, anume a deveni un regulament orientat, în mod principal și sistematic, spre protecția drepturilor fundamentale. În schimb, acest regulament este mai mult orientat spre piața comercială de inteligență artificială din Europa.