Razvoj i primjena umjetne inteligencije donose značajne društvene i gospodarske koristi, ali istodobno otvaraju ozbiljna pitanja vezana uz zaštitu temeljnih ljudskih prava. Kao odgovor na te izazove, Europska unija donijela je Akt o umjetnoj inteligenciji (Uredba (EU) 2024/1689 o utvrđivanju usklađenih pravila o umjetnoj inteligenciji), prvi sveobuhvatni regulatorni okvir umjetne inteligencije na globalnoj razini. Posebna regulatorna pažnja posvećena je visokorizičnim sustavima umjetne inteligencije, s obzirom na njihov potencijalni negativan učinak na osobna i temeljna prava pojedinaca.
Prema članku 6. i Prilogu III. Akta o umjetnoj inteligenciji, visokorizični sustavi su oni koji se koriste u područjima kao što su zapošljavanje, obrazovanje, kreditna sposobnost, biometrijska identifikacija, zdravstvena zaštita, socijalne usluge, pravosuđe i provedba zakona. Ovi sustavi mogu imati izravan utjecaj na prava privatnosti i zaštite osobnih podataka, jednakosti i nediskriminacije, pravičnog postupanja i pravnog lijeka te na ljudsko dostojanstvo
Zbog potencijalno ozbiljnih posljedica pogrešnih, netočnih ili pristranih odluka koje mogu imati značajan učinak na temeljna prava pojedinaca, zakonodavac Europske unije u Odjeljku 2. Glave III. Akta o umjetnoj inteligenciji uspostavlja strogi regulatorni režim za visokorizične sustave umjetne inteligencije. Tim se odredbama nastoji osigurati da se takvi sustavi razvijaju, stavljaju na tržište i koriste uz najvišu razinu odgovornosti, transparentnosti i pravne sigurnosti, u skladu s Poveljom Europske unije o temeljnim pravima.
Središnji element tog režima čini obveza uspostave kontinuiranog sustava upravljanja rizicima, propisana člankom 9. Akta o umjetnoj inteligenciji, koja mora obuhvatiti cijeli životni ciklus sustava umjetne inteligencije. Organizacije su dužne identificirati poznate i predvidive rizike povezane s uporabom sustava, osobito one koji mogu dovesti do povrede temeljnih prava, procijeniti njihovu ozbiljnost i vjerojatnost te predvidjeti i primijeniti odgovarajuće mjere ublažavanja.
Posebna pažnja posvećena je kvaliteti podataka koji se koriste za treniranje, validaciju i testiranje visoko rizičnih sustava umjetne inteligencije. Članak 10. Akta o umjetnoj inteligenciji izričito zahtijeva da skupovi podataka budu relevantni, reprezentativni i, u najvećoj mogućoj mjeri, oslobođeni pristranosti koje bi mogle dovesti do diskriminatornih ishoda. Ova odredba ima izravnu funkciju zaštite prava na jednakost i zabranu diskriminacije, osobito kada se uzmu u obzir algoritamske odluke koje mogu nepovoljno utjecati na pojedince na temelju spola, etničkog podrijetla, dobi, invaliditeta i sl.
Uz upravljanje rizicima i kvalitetu podataka, naglašava se i potreba za transparentnošću i objašnjivošću visokorizičnih sustava umjetne inteligencije. Prema članku 13. Akta o umjetnoj inteligenciji, takvi sustavi moraju biti dizajnirani i dokumentirani na način koji omogućuje korisnicima razumijevanje njihovog funkcioniranja i pravilno tumačenje rezultata koje proizvode. Nadalje, pojedinci na koje se odluke ili preporuke sustava odnose moraju biti informirani o činjenici da se koristi umjetna inteligencija te, u mjeri u kojoj je to primjereno, o osnovnoj logici i kriterijima koji utječu na donošenje odluka.
U cjelini gledano, odredbe Odjeljka 2. Akta o umjetnoj inteligenciji uspostavljaju normativni okvir u kojem se visokorizični sustavi umjetne inteligencije tretiraju kao potencijalni izvori ozbiljnih rizika za temeljna prava. Upravo kroz obveze upravljanja rizicima, osiguravanja kvalitete podataka i postizanja odgovarajuće razine transparentnosti, Akt o umjetnoj inteligenciji nastoji uravnotežiti inovacije u području umjetne inteligencije s imperativom zaštite osobnih i temeljnih prava pojedinaca.
FRIA
U cilju dodatnog jačanja zaštite temeljnih prava u kontekstu primjene visokorizičnih sustava umjetne inteligencije, Akt o umjetnoj inteligenciji uvodi obvezu provođenja procjene učinka na temeljna prava (Fundamental Rights Impact Assessment – FRIA). Ova obveza, propisana člankom 27. Akta, predstavlja preventivni mehanizam kojim se osigurava da uporaba umjetne inteligencije ne dovede do nerazmjernog ili neopravdanog zadiranja u prava zajamčena Poveljom Europske unije o temeljnim pravima.
FRIA test se provodi prije stavljanja visokorizičnog sustava u uporabu, osobito kada ga koriste tijela javne vlasti ili drugi subjekti čije odluke mogu imati pravni učinak na pojedince. Njegova je svrha sustavno sagledati način na koji konkretna primjena sustava umjetne inteligencije može utjecati na temeljna prava različitih skupina osoba.
U skladu s člankom 27. stavkom 1. Akta o umjetnoj inteligenciji, procjena učinka na temeljna prava mora započeti jasnim i preciznim opisom sustava umjetne inteligencije, njegove svrhe i funkcionalnosti, kao i uloge koju ima u procesu donošenja odluka. Posebna se pažnja pritom posvećuje identifikaciji kategorija osoba koje bi mogle biti pogođene primjenom sustava, uključujući ranjive i marginalizirane skupine.
Sljedeći ključni element FRIA testa odnosi se na identifikaciju i analizu temeljnih prava koja bi mogla biti ugrožena uporabom sustava, kako je predviđeno člankom 27. stavkom 1. točkom b. Akta. U tom se kontekstu razmatraju, među ostalim, pravo na jednakost i zabranu diskriminacije, pravo na zaštitu privatnosti i osobnih podataka, pravo na ljudsko dostojanstvo te pravo na djelotvoran pravni lijek.
Nadalje, FRIA test zahtijeva procjenu vjerojatnosti i ozbiljnosti mogućih povreda temeljnih prava, sukladno članku 27. stavku 1. točki c. Akta. Procjena rizika mora biti realistična, a ne utemeljena na apstraktnim pretpostavkama o neutralnosti tehnologije.
Na temelju identificiranih rizika, korisnici sustava dužni su predvidjeti i dokumentirati odgovarajuće mjere za njihovo ublažavanje, kako to zahtijeva članak 27. stavak 1. točka d. Akta. Te mjere mogu uključivati tehnička rješenja, organizacijske postupke i pravne mehanizme, poput jačanja ljudskog nadzora, povećanja transparentnosti ili uspostave učinkovitih mehanizama za podnošenje pritužbi i ostvarivanje pravnih sredstava.
FRIA test ne predstavlja izoliranu administrativnu obvezu, već sastavni dio šireg sustava odgovorne i zakonite primjene umjetne inteligencije. Njegova je funkcija osigurati da se odluka o uporabi visokorizičnog sustava ne temelji isključivo na procjeni njegove učinkovitosti ili ekonomske opravdanosti, već na uravnoteženom razmatranju tehnoloških koristi i zaštite temeljnih prava.
FRIA i DPIA
FRIA test ne zamjenjuje procjenu učinka na zaštitu podataka (DPIA) prema GDPR-u, već je nadopunjuje. Dok je DPIA fokusirana na obradu osobnih podataka, FRIA ima širi pristup, jer obuhvaća i pitanja diskriminacije, automatiziranog odlučivanja, pristupa javnim uslugama i društvenih posljedica primjene sustava umjetne inteligencije. U praksi se preporučuje integrirani pristup kojim se DPIA i FRIA provode paralelno ili objedinjeno, čime se povećava učinkovitost i regulatorna usklađenost, a što je i sukladno s komplementarnim odnosom ta dva regulatorna okvira kako i Akt propisuje (članak 2. stavak 7. Akta o umjetnoj inteligenciji).
U konačnici, normativni odnos između DPIA-e prema GDPR-u i FRIA testa prema Aktu o umjetnoj inteligenciji odražava jasno regulatorno opredjeljenje Europske unije prema sveobuhvatnoj zaštiti temeljnih prava u digitalnom dobu. Dok DPIA ostaje ključni instrument za procjenu rizika povezanih s obradom osobnih podataka, FRIA proširuje taj okvir na širi spektar učinaka koje primjena umjetne inteligencije može imati na pravni i društveni položaj pojedinca. Time se uspostavlja pristup u kojem tehnološke inovacije ostaju dopuštene, ali pod uvjetom da su podvrgnute sustavnoj i dokumentiranoj procjeni njihova utjecaja na temeljna prava.
Ana Paštrović mag. iur.