Predložene desete izmjene i dopune Kaznenog zakona Republike Hrvatske ("Narodne novine" br. 125/11., 144/12., 56/15., 61/15., 101/17., 118/18., 126/19., 84/21., 114/22., 114/23., 36/24. – dalje u tekstu: KZ) donose nekoliko važnih novina: usklađivanje sa standardima OECD-a u borbi protiv međunarodne korupcije, transpoziciju nove europske Direktive o trgovanju ljudima1 te po prvi put normativno uređenje umjetne inteligencije u kontekstu kaznenog prava.
U ovom se članku analizira novi pravni okvir postavljen Prijedlogom zakona o izmjenama i dopunama Kaznenog zakona (dalje u tekstu: Prijedlog)2, putem uvođenja definicije „sustava umjetne inteligencije“ i normiranja kaznenog djela dovođenja u opasnost života i imovine uporabom sustava umjetne inteligencije.
Izazovi umjetne inteligencije za klasične institute kaznenog prava
Ubrzani razvoj umjetne inteligencije, osobito u domeni tzv. generativne umjetne inteligencije, autonomnih sustava i automatizacije odluka, potaknuo je potrebu redefiniranja pravnih okvira na nacionalnoj i međunarodnoj razini. Prvi opsežni europski regulatorni korak ostvaren je donošenjem Akta o umjetnoj inteligenciji3, kojom su uspostavljena usklađena pravila na razini Unije. Hrvatski zakonodavac predlaže preuzimanje definicije sustava umjetne inteligencije iz navedenog Akta te uvođenje novog kaznenog djela povezanog s njegovom zlouporabom.
Definicija sustava umjetne inteligencije
U članku 87. KZ-a, koji sadrži opće definicije, predlaže se dodavanje novog stavka 33., kojim se po prvi put zakonski definira sustav umjetne inteligencije u kontekstu kaznenog prava. Predložena formulacija glasi:
“Sustav umjetne inteligencije je strojni sustav različitih razina samostalnosti koji može pokazati prilagodljivost te koji za izričito ili neizričito izražene ciljeve iz ulaznih vrijednosti koje je primio zaključuje kako stvoriti izlazne vrijednosti kao što su predviđanja, sadržaj, preporuke ili odluke koje mogu utjecati ili utječu na stvarna ili prividna okruženja.”
Ova definicija predložena je po uzoru na definiciju iz članka 3. stavka 1. Akta o umjetnoj inteligenciji, čime se nastoji postići terminološka i pravna usklađenost s europskim pravom.
Pojam obuhvaća i autonomiju i prilagodljivost sustava, što otvara vrata primjeni na široki spektar tehnologija — od prediktivnih algoritama do naprednih autonomnih sustava.
Novo kazneno djelo: dovođenje u opasnost života i imovine sustavom umjetne inteligencije
Nakon što je definirao pojam „sustav umjetne inteligencije“, zakonodavac pokušava odgovoriti na izazove koje takvi sustavi predstavljaju za tradicionalne kategorije poput krivnje, radnje i uzročnosti, tako da jasnije određuje odgovornost ljudi koji sudjeluju u njihovom razvoju i korištenju.
U Glavi XXI. Kaznenog zakona, koja uređuje kaznena djela protiv opće sigurnosti, predlaže se dodavanje novog članka 215.a. Njime se normira novo općeopasno kazneno djelo, usmjereno na sprječavanje zlouporabe ili nesavjesne uporabe sustava umjetne inteligencije.
Prema Prijedlogu, kaznena odgovornost nastaje kada osoba u razvoju, testiranju, provjeri, nadzoru, upravljanju, uporabi sustava umjetne inteligencije ili na drugi način izazove opasnost za život ili tijelo ljudi ili za imovinu većeg opsega, a time nije počinjeno teže kazneno djelo.
Ovakav pristup reflektira nastojanje suvremene pravne teorije da uvede normativne mehanizme koji obuhvaćaju situacije ugrožavanja pravnih dobara čak i u odsutnosti izravne štetne posljedice (Tomljanović: 2025)4.
Riječ o kaznenom djelu konkretnog ugrožavanja, pri čemu radnja mora izazvati stvarnu i konkretnu opasnost za život, tijelo ljudi ili imovinu većeg opsega. Opasnost se mora odnositi na mogućnost nastanka štetne posljedice, a djelo se može počiniti i činjenjem i nečinjenjem, kroz aktivnosti poput razvoja, testiranja ili upravljanja sustavima umjetne inteligencije. U pogledu radnje počinjenja kaznenog djela predložena je i dodatna klauzula „ili na drugi način“ kako bi se pokrile moguće radnje koje mogu dovesti do ugroze.
Kazneno djelo je u osnovnom obliku propisano i za namjeru i za nehaj, a predviđeni su i teži oblici – kada iz nehaja dođe do ozbiljnijih posljedica poput smrti, teške ozljede ili velike imovinske štete, neovisno o početnoj namjeri ili nehaju počinitelja.
Kazne
Predložena visina kazne za kazneno djelo dovođenja u opasnost sustavom umjetne inteligencije diferencira se s obzirom na oblik krivnje i nastalu posljedicu. Za temeljni oblik počinjen namjerno, bez nastupanja teže posljedice, predložena je kazna zatvora od šest mjeseci do pet godina, dok se za nehajni oblik predlaže kazna do tri godine zatvora.
Kod kvalificiranih oblika kaznenog djela, kada je djelo počinjeno s namjerom, a posljedica (teška tjelesna ozljeda neke osobe ili imovinska šteta velikih razmjera) je nastupila iz nehaja, predložena je kazna od jedne do deset godina, odnosno od tri do petnaest godina u slučaju kada je riječ o posljedici u vidu smrti jedne ili više osoba.
Za slučaj u kojem su i osnovna radnja i posljedica rezultat nehaja, predložena kazna je blaža: ako je posljedica teška tjelesna ozljeda neke osobe ili imovinska šteta velikih razmjera, predlaže se kazna zatvora od šest mjeseci do pet godina, a od jedne do osam godina zatvora ako je počinjenjem kaznenog djela nastupila smrtna posljedica.
Odgovornost pravnih osoba
Kaznena odgovornost pravnih osoba predviđena je kroz članak 5. stavak 2. Zakona o odgovornosti pravnih osoba za kaznena djela ("Narodne novine" br. 151/03., 110/07., 45/11., 143/12., 114/22., 114/23.), koji dopušta kažnjavanje pravne osobe i kad konkretna odgovorna osoba nije utvrđena (primjerice zbog nejasnoća u hijerarhijskoj strukturi).
Ova odredba je posebno važna u kontekstu primjene sustava umjetne inteligencije unutar složenih korporativnih struktura, gdje je često teško točno identificirati pojedinca odgovornog za konkretno ponašanje.
Pravni izazovi postavljenog normativnog okvira
Zakonodavac je pokušao izbjeći kazuistički pristup dodavanjem klauzule “ili na drugi način”, čime se osigurava fleksibilnost. Međutim, široka formulacija može otvoriti pitanje pravne sigurnosti i predvidljivosti kaznenog prava.
Nadalje, sudovima i državnim odvjetništvima nameće se potreba za tehničkim vještačenjem kako bi se utvrdilo je li konkretni sustav doista umjetna inteligencija u smislu zakona te postoji li uzročno-posljedična veza između njegove primjene i nastanka konkretne opasnosti.
Zaključak
Uvođenje definicije sustava umjetne inteligencije i normiranje kaznene odgovornosti za štetne posljedice njezine uporabe predstavljaju važan korak u pravcu modernizacije hrvatskog kaznenog zakonodavstva. Predloženi članak 215.a KZ-a predstavlja pionirski pokušaj suočavanja s rizicima koje prisutstvo sustava umjetne inteligencije u svakodnevnom životu građana donosi u području sigurnosti ljudi i imovine.
Međutim, za očekivati je da će uspješna provedba ovih odredbi u praksi zahtijevati stručnu edukaciju pravosudnih dužnosnika, razvoj forenzičnih kapaciteta za razumijevanje tehničkih aspekata sustava umjetne inteligencije, kao i pažljivo praćenje prakse kako bi se spriječila pravna neizvjesnost i neuravnotežena penalizacija.
Tihana Čikeš, dipl. iur.
______________________________________________________________
^ 1 Direktiva (EU) 2024/1712 Europskog parlamenta i Vijeća od 13. lipnja 2024. o izmjeni Direktive 2011/36/EU o sprečavanju i suzbijanju trgovanja ljudima i zaštiti njegovih žrtava (SL L, 2024/1712, 24. 6. 2024.)
^ 2 Prijedlog zakona o izmjenama i dopunama Kaznenog zakona KLASA: 022-02/25-01/78, URBROJ: 65-25-2, od 11. rujna 2025.
^ 3 Uredba (EU) 2024/1689 Europskog parlamenta i Vijeća od 13. lipnja 2024. o utvrđivanju usklađenih pravila o umjetnoj inteligenciji i o izmjeni uredaba (EZ) br. 300/2008, (EU) br. 167/2013, (EU) br. 168/2013, (EU) 2018/858, (EU) 2018/1139 i (EU) 2019/2144 te direktiva 2014/90/EU, (EU) 2016/797 i (EU) 2020/1828
^ 4 Tomljanović T., Kaznenopravni izazovi umjetne inteligencije i autonomnih sustava, IUS-INFO, rujan 2025. (https://www.iusinfo.hr/strucni-clanci/kaznenopravni-izazovi-umjetne-inteligencije-i-autonomnih-sustava)