Uvod
Europska unija donijela je prvi sveobuhvatni pravni okvir za umjetnu inteligenciju — Akt o umjetnoj inteligenciji. Ovaj regulativni paket postavlja temelje za pouzdanu, odgovornu i antropocentričnu uporabu AI-a, usmjeravajući razvoj i uporabu umjetne inteligencije prema sigurnosti, poštivanju temeljnih prava i poticanju inovacija. U ovom članku objasnit ćemo zašto su pravila o umjetnoj inteligenciji potrebna, kako funkcionira risk-based pristup, što to znači za dobavljače visokorizičnih AI sustava, kakva su rješenja za pouzdanu upotrebu velikih modela umjetne inteligencije (GPAI), te koji su instrumenti podrške usklađivanju i kako izgleda vremenski okvir primjene. Na kraju donosimo pregled ključnih termina i praktičnih implikacija za industriju, javne službe i građane.
Zašto su nam potrebna pravila o umjetnoj inteligenciji?
Činjenica da umjetna inteligencija brzo prožima mnoge aspekte života donosi istovremeno velike mogućnosti i određene rizike. AI sustavi mogu značajno doprinijeti rješavanju društvenih izazova, poboljšanju učinkovitosti i otvoriti nove mogućnosti za inovacije. No, mnogi AI sustavi ostavljaju niz pitanja bez jasnih razloga zašto su donesene određene odluke ili predviđene mjere. To otežava procjenu pravde, transparentnosti i mogućih nepravdi, primjerice u zapošljavanju ili pristupu javnim naknadama. Upravo zato Akt postavlja jasna pravila koja se temelje na riziku: cilj je osigurati da Europljani mogu vjerovati onome što umjetna inteligencija nudi, uz istovremeno zaštitu temeljenih vrijednosti.
Pristup temeljen na riziku
Akt o umjetnoj inteligenciji uvodi četiri razine rizika za UI sustave, a svaka razina nosi specifične obveze i zahtjeve.
1) Neprihvatljiv rizik (zabranjene prakse)
Najstrože su regulirane ili zabranjene convenience prakse. To znači da se ne mogu koristiti AI sustavi koji ozbiljno ugrožavaju sigurnost, sredstava za život ili temeljna prava ljudi. Među zabranjenim praksama nalazi se osam konkretnih primjera, uključujući:
- štetna manipulacija ili obmana koja se temelji na AI-u;
- štetno iskorištavanje ranjivosti uzrokovanih AI-jem;
- socijalno bodovanje koje pravi sustavi ocjenjivanja ljudi na temelju njihove klase;
- procjena ili predviđanje rizika od pojedinačnog kaznenog djela bez jasnog cilja;
- ciljano struganje internetskih ili CCTV materijala radi izgradnje ili proširenja baza podataka za prepoznavanje lica;
- prepoznavanje emocija na radnim mjestima ili u obrazovnim ustanovama;
- biometrijska kategorijalizacija radi iznalaženja zaštićenih značajki;
- daljinska biometrijska identifikacija u stvarnom vremenu za potrebe kaznenog progona na javnim mjestima.
Ove zabrane naglašavaju da postojeći regulatori neće dopustiti tehnologije koje ugrožavaju slobode i dostojanstvo pojedinaca.
2) Visokorizični UI sustavi
Visokorizični slučajevi uporabe imaju značajan potencijal rizika za zdravlje, sigurnost ili temeljna prava. Primjeri uključuju:
- sigurnosne komponente AI u ključnim infrastruktura (npr. promet), gdje neuspjeh može ugroziti živote;
- AI rješenja u obrazovanju koja određuju pristup učenju ili profesionalnoj karijeri (npr. bodovanje ispita);
- sigurnosne komponente proizvoda koje koriste AI (npr. robotizirana kirurgija);
- alati za zapošljavanje i upravljanje radnicima (npr. softver za razvrstavanje životopisa);
- pristup osnovnim privatnim i javnim uslugama (npr. kreditni bodovi koji ograničavaju pravo na zajam);
- daljinska biometrijska identifikacija, prepoznavanje emocija i biometrijska kategorizacija;
- AI u tijelima kaznenog progona i evaluaciji pouzdanosti dokaza;
- primjene u migracijama, azilu i nadzoru graničnih provjera;
- tehnologije koje se upotrebljavaju u sudstvu ili demokratskim procesima.
Visokorizični sustavi podliježu strogim zahtjevima prije stavljanja na tržište, uključujući:
- procjenu i ublažavanje rizika;
- visoku kvalitetu skupa podataka za obuku i testiranje;
- evidenciju aktivnosti radi sljedivosti rezultata;
- jasnu i relevantnu dokumentaciju o sustavu i njegovoj svrsi;
- jasne informacije korisnicima o namjeni sustava;
- odgovarajuće mjere ljudskog nadzora;
- visoku otpornost, kibersigurnost i točnost.
3) Ograničeni rizik
Ograničeni rizik odnosi se na situacije u kojima treba osigurati transparentnost prema korisnicima. Primjeri uključuju interakcije s chatbotovima ili generiranje sadržaja putem AI-a koji mora biti jasno označen. Dobavljači generativnih AI sustava moraju omogućiti identifikaciju sadržaja koji je generiran umjetnom inteligencijom, a neki sadržaji trebaju biti jasno i vidljivo označeni kako bi se spriječile obmane.
4) Minimalni rizik
Velika većina AI sustava danas spada u kategoriju minimalnog ili gotovo bez rizika. U ovoj kategoriji pravila nisu primjenjiva, no ni ovdje postoji dovoljna fleksibilnost za poticanje inovacija, uz mogućnost sporadičnih informativnih ili transparentnih mjera ako to bude potrebno.
Kako sve to funkcionira u praksi za dobavljače visokorizičnih UI sustava?
Kada se visokorizični UI sustav nađe na tržištu, nadležna tijela provode nadzor tržišta, a subjekti koji uvode sustav moraju osigurati ljudski nadzor i kontinuirano praćenje. Dobavljači su dužni prijaviti ozbiljne incidente i postojeće neispravnosti. Ovakav model nadzora omogućava ne samo sigurnu upotrebu AI-a, nego i brzu identifikaciju i otklanjanje problema.
Rješenje za pouzdanu uporabu velikih modela umjetne inteligencije (GPAI)
Veliki modeli umjetne inteligencije opće namjene (GPAI) mogu obavljati širok raspon zadaća i postaju osnova mnogih sustava u EU. Iako takvi modeli imaju potencijal za visoke performanse, mogu nositi i sustavne rizike ako su snažno razvijeni ili se široko koriste. Zbog toga se uvode posebna pravila za dobavljače GPAI modela: transparentnost i zaštita autorskih prava te procjena i ublažavanje rizika kada su modeli visoko složeni ili aktivno korišteni u kritičnim područjima. Ove su pravne odredbe relevantne od kolovoza 2025. godine. Cilj je osigurati da GPAI sustavi budu dizajnirani, provjereni i nadzirani na način koji štiti osnovne vrijednosti i potiče povjerenje.
Potpora usklađenosti
Kako bi se olakšao prelazak na novi regulatorni okvir, Komisija je uspostavila Pakt o umjetnoj inteligenciji — dobrovoljnu inicijativu koja potiče buduću provedbu, suradnju s dionicima i poziva dobavljače te subjekte koji primjenjuju AI iz Europe i izvan nje da unaprijed ispune ključne obveze iz Akta. Istovremeno Služba za podršku Aktu o umjetnoj inteligenciji pruža informacije i potporu za neometanu i učinkovitu provedbu ovog okvira.
Tri ključna instrumenta potpore usklađenosti su usmjerena na jasniji okvir i olakšano usklađivanje GPAI modela s EU pravilima:
- Smjernice o području primjene obveza za GPAI- modele: pojašnjavaju područje primjene obveza na temelju Akta i pomažu dionicima u vrijednosnom lancu da razumiju tko mora poštovati koje obveze.
- Kodeks dobre prakse za GPAI (The GPAI Code of Good Practice): dobrovoljni alat koji podnose neovisni stručnjaci, nudeći praktične smjernice kako ispuniti obveze iz Akta o umjetnoj inteligenciji u područjima poput transparentnosti, autorskih prava te sigurnosti i zaštite.
- Predložak javnog sažetka sadržaja osposobljavanja za GPAI modele: zahtjeva da pružatelji daju pregled podataka korištenih za obuku modela, uključujući izvore i aspekte obrade podataka kako bi stranke s legitimnim interesima mogle ostvariti svoja prava prema EU pravilima.
Ovi alati su orijentirani na praktičan, jasan i provodiv okvir koji pomaže uskladiti pružatelje GPAI modela s Aktom, uz istodobnu potporu inovacijama i zaštiti temeljnih prava.
Upravljanje i provedba
Europski ured za umjetnu inteligenciju (EU AI Office) i nadležna tijela država članica odgovorni su za implementaciju, nadzor i provedbu Akta. Saznanje i savjetovanje s ključnim dionicima provode Odbor za umjetnu inteligenciju, Znanstveni odbor i Savjetodavni forum. Ova tijela usmjeravaju politiku, nadzor i provedbu, te pružaju savjete o učinkovitom upravljanju ovom složenom, ali ključnom regulativom. S ciljem jasne koordinacije i učinkovitog nadzora, uspostavljeni su mehanizmi za razmjenu informacija, primjenu standarda i kontinuirano praćenje rizika povezanih s AI sustavima.
Vremenski okvir primjene
Akt je stupio na snagu 1. kolovoza 2024. i u potpunosti će biti primijenjen dvije godine kasnije, 2. kolovoza 2026., uz određene ranije obveze i faze:
- Obveze pismenosti i zabrane počele su se primjenjivati 2. veljače 2025. godine.
- Pravila vezana uz modele GPAI-ja započela su se primjenjivati 2. kolovoza 2025.
- Pravila za visokorizične UI sustave integrirane u regulirane proizvode imaju produljeno prijelazno razdoblje do 2. kolovoza 2027.
Ovi rokovi odražavaju potrebu za postupnim prilagodbama industrije i javnih službi, uz omogućavanje dovoljno vremena za prilagodbu sustava, procjenu rizika i uspostavu odgovarajućih mehanizama nadzora.
Brze poveznice i poveznice za dublje razumijevanje
- Jedinstvena informacijsku platforma Akt o umjetnoj inteligenciji
- Pakt o umjetnoj inteligenciji
- Tekst Akta o umjetnoj inteligenciji na službenim jezicima EU-a
- Procjena učinka uredbe
- Studije i izvješća koja podupiru procjenu učinka
- Najčešća pitanja o novim pravilima za umjetnu inteligenciju
- Najnovije vijesti i službena priopćenja Komisije o implementaciji i prilagodbama
Što to znači za tvrtke, javne tijela i građane?
- Za tvrtke koje razvijaju ili koriste visokorizične AI sustave: očekuje se temeljita procjena rizika, visokokvalitetni skupovi podataka, sustavno dokumentiranje svrhe i funkcionalnosti sustava, te jasne informacije korisnicima. Uspostava mehanizama humanog nadzora i mogućnostima praćenja nakon stavljanja na tržište bit će standard u budućem operativnom okruženju.
- Za dobavljače GPAI modela: uzrokovit okvir usklađivanja kroz Smjernice, Kodeks dobre prakse i predložak javnog sažetka nastoji pojednostaviti administrativne zahtjeve i potaknuti inovacije, uz jasnu transparentnost o izvorima podataka i obradi.
- Za građane i korisnike: važan je cilj da se poveća transparentnost i razumijevanje kako i zašto AI donosi odluke te da se očuva temeljna prava i zaštita privatnosti. Transparentnost i mogućnost informiranog izbora postaju važna sastavnica povezanosti između tehnologije i društva.
Zaključak: EU pristup koji promiče sigurnost uz poticanje inovacija
Akt o umjetnoj inteligenciji predstavlja značajan pomak: prvi sveobuhvatni okvir za reguliranje AI-a na globalnoj razini s jasnim fokusom na rizike i njihovo ublažavanje, a sve s ciljem poticanja pouzdane umjetne inteligencije u Europi. Takav pristup omogućava da tvrtke, akademska zajednica i javne institucije investiraju u rješenja koja su sigurnija, pravednija i odgovornija, istovremeno njegujući inovacije i gospodarski rast. U praksi to znači da će se za određene primjene AI-a tražiti dublje razmatranje rizika, dokumentacija i nadzor, dok se za druge, manje rizične sustave, zadržava prostor za razvoj i kreativnost uz minimalne ili nulte rizike. Time EU želi postaviti standard koji kombinira odgovornost, transparentnost i povjerenje, kako bi AI mogao služiti društvu na način koji poštuje vrijednosti i temeljna prava svakog građanina.
SEO Meta Opis
Vodič kroz EU Akt o umjetnoj inteligenciji: rizici i razine, obveze za GPAI modele, nadzor tržišta te praktični savjeti za usklađivanje AI sustava u Europi.
Ključne Riječi
Akt o umjetnoj inteligenciji, GPAI, visokorizični sustavi, nadzor tržišta, procjena rizika, transparentnost, temeljna prava





Ostavi komentar