11 maj 2026

Šta zapravo znači dogovor o pojednostavljenju EU AI Act?

Evropska unija postigla je provizorni dogovor o pojednostavljenju regulative u oblasti veštačke inteligencije. Države članice i Evropski parlament zaključili su dogovor kojim se odlažu ključne obaveze za visokorizične sisteme veštačke inteligencije i pojednostavljuju zahtevi usklađenosti za privredu.

„Pravila o veštačkoj inteligenciji sada činimo primenljivijim u praksi, uklanjamo preklapanja i odlažemo zahteve koji se odnose na visokorizične sisteme. Da bi Evropa postala kontinent veštačke inteligencije, moramo podsticati inovacije, podržati startape i brzorastuće kompanije i olakšati razvoj veštačke inteligencije u Evropi.“

To zvuči dobro. Međutim, istovremeno se, prilično tiho, zaobilazi teže pitanje: ako se sami zahtevi nisu promenili i ako suštinski ništa novo nije uvedeno, šta tačno ubrzava evropsku poziciju u trci sa ostatkom sveta?

Šta je promenjeno, a šta nije

Glavna promena odnosi se na pomeranje rokova. Visokorizični sistemi veštačke inteligencije obuhvaćeni Aneksom III EU Zakona o veštačkoj inteligenciji — oni koji se koriste u zapošljavanju, obrazovanju, kreditnom skoringu i sprovođenju zakona — sada će podleći obavezama usklađenosti od 2. decembra 2027. godine, umesto prvobitnog roka u avgustu 2026. Sistemi veštačke inteligencije ugrađeni u regulisane proizvode iz Aneksa I — medicinska sredstva, mašine, igračke — imaće rok do 2. avgusta 2028. Privremeni dogovor uklanja preklapanja obaveza iz AI Acta za mašine koje su obuhvaćene sektorskim propisima o bezbednosti proizvoda, tako da se zahtevi bezbednosti povezani sa veštačkom inteligencijom kod mašina uređuju kroz Uredbu o mašinama, a ne kroz neposrednu duplu primenu AI Acta.

Vredi precizno razjasniti šta ovo produženje roka menja, jer menja manje nego što se na prvi pogled čini. Ključne obaveze subjekata koji primenjuju visokorizične sisteme veštačke inteligencije, zasnovane na članu 26, ostaju netaknute. Produženje roka daje dodatno vreme pre nego što nacionalni organi za nadzor tržišta budu mogli da ih sprovode. Same obaveze — uputstva pružalaca, ljudski nadzor, prijavljivanje ozbiljnih incidenata i slično — nisu ukinute. One su odložene. Ta razlika je važna, naročito za subjekte koji primenjuju sisteme veštačke inteligencije u osetljivim sektorima, gde reputaciona i odštetna izloženost nastaje mnogo pre nego što regulator izda bilo kakvo obaveštenje.

Nekoliko drugih izmena počeće da proizvodi praktične efekte ranije. Sistemi veštačke inteligencije koji stupaju u interakciju sa korisnicima, generišu sintetički sadržaj ili vrše prepoznavanje emocija moraće da ispune obaveze transparentnosti iz člana 50 od 2. avgusta 2026. godine. Taj datum nije pomeren. On ostaje nepromenjen za opšte obaveze obaveštavanja: identifikovanje četbotova, označavanje dipfejk sadržaja i obaveštavanje o prepoznavanju emocija. Međutim, privremeni dogovor skratio je grejs period za označavanje vodenim žigom kod audio, slikovnog, video i tekstualnog sadržaja generisanog veštačkom inteligencijom sa šest meseci na tri meseca, pa se ta konkretna podobaveza primenjuje od 2. decembra 2026. godine.

Nova rešenja u prošlonedeljnom dogovoru uključuju zabranu AI aplikacija za „nudifikaciju“, odnosno aplikacija sposobnih da generišu intimne slike bez pristanka lica, kao i obavezno označavanje vodenim žigom audio, slikovnog, video i tekstualnog sadržaja generisanog veštačkom inteligencijom, koje će se primenjivati od 2. decembra 2026. godine. Pored toga, olakšice u pogledu usklađenosti, koje su ranije bile dostupne malim i srednjim preduzećima, proširuju se i na male mid-cap kompanije, definisane kao kompanije sa manje od 750 zaposlenih i godišnjim prometom manjim od 150 miliona evra ili godišnjim bilansom stanja manjim od 129 miliona evra. Dogovor ponovo uvodi registraciju u bazi podataka EU za pružaoce koji se pozivaju na izuzeće iz Aneksa III zbog „nepostojanja značajnog rizika“, umesto da se registracija zameni isključivo internom dokumentacijom.

Dogovor je privremen. Potrebno je još formalno usvajanje od strane Parlamenta i Saveta. Ako taj postupak ne bude okončan pre 2. avgusta 2026. godine, primenjivaće se prvobitni, neizmenjeni tekst.

Mehanizam prilagođavanja i njegova praktična ograničenja

Komisija ima ovlašćenje da putem delegiranih akata menja listu visokorizičnih slučajeva upotrebe iz Aneksa III. Posebna obaveza predviđa periodično preispitivanje zabranjenih praksi veštačke inteligencije. Praktični efekat je isti: lista visokorizičnih upotreba nije trajno fiksirana i može se ažurirati na inicijativu Komisije, uz procesna ograničenja opisana u nastavku.

U praksi, prilagođavanje nije brzo. Prema članu 97, delegirani akti podležu konsultacijama sa ekspertima država članica i obaveštavanju Parlamenta i Saveta. Parlament i Savet imaju rok od tri meseca da ulože prigovor, uz mogućnost produženja za dodatna tri meseca. Čak i u ubrzanom postupku, najbolji mogući scenario iznosi tri do četiri meseca. Da li je to dovoljno brzo za tehnologiju čije se granice pomeraju kvartalno, razumno je pitanje. Digitalni omnibus, iz kojeg je proistekao današnji dogovor, predložen je u novembru 2025. godine. Dogovor je usledio nakon teških trijaloga, uključujući neuspešnu rundu 28. aprila 2026. i dodatnu noćnu sesiju koja je dovela do sporazuma u ranim satima 7. maja 2026. godine.

Da li je arhitektura AI Acta — fiksne kategorije, taksativno navedeni slučajevi upotrebe, dokumentacioni postupci usklađenosti i proces standardizacije izgrađen za fizičke proizvode — dobro usklađena sa brzinom razvoja AI aplikacija, strukturno je pitanje kojim se ovaj dogovor ne bavi.

Dve filozofije upravljanja

Poređenje sa Sjedinjenim Američkim Državama nije samo transatlantska zanimljivost. Ono odražava stvarno neslaganje o tome kako regulativa treba da se odnosi prema tehnologiji koju ne može u potpunosti unapred da predvidi.

Sadašnja američka administracija bila je dosledna u svom stavu. Izvršna uredba 14365, doneta u decembru 2025. pod nazivom Obezbeđivanje nacionalnog političkog okvira za veštačku inteligenciju, formuliše pitanje neposredno: inovacije u oblasti veštačke inteligencije ne smeju biti sputane „preopterećujućim i prekomernim“ pravilima, a politika SAD treba da očuva „globalnu dominaciju u oblasti veštačke inteligencije“ kroz „minimalno opterećujući nacionalni okvir“. Američki akcioni plan za veštačku inteligenciju naglašava permisivne uslove za razvoj veštačke inteligencije i pojednostavljenu federalnu poziciju, osmišljenu da spreči da fragmentisana regulativa na nivou saveznih država stvori složenost u pogledu usklađenosti. Ne postoji obavezujući federalni zakon o veštačkoj inteligenciji. To je nameran pristup, a ne zakonodavna praznina.

Ispod tog političkog okvira, NIST okvir za upravljanje rizicima veštačke inteligencije počiva na drugačijoj konceptualnoj osnovi. Dok EU AI Act pita u koju kategoriju sistem spada i šta propisana kontrolna lista zahteva, NIST RMF pita koje rizike sistem stvara u svom stvarnom operativnom kontekstu i kakvo je upravljanje srazmerno tim rizicima. Njegove četiri funkcije — upravljanje, mapiranje, merenje i kontrola — dobrovoljne su, skalabilne i sektorski neutralne. One ne polaze od pretpostavke da se upotrebe veštačke inteligencije mogu unapred taksativno nabrojati.

To nije argument bez slabosti. Dobrovoljni okvir proizvodi dobrovoljnu usklađenost. U sektorima u kojima sistemi veštačke inteligencije utiču na pojedince koji nemaju neposredan odnos sa organizacijom koja sistem primenjuje, dobrovoljno upravljanje i obavezna odgovornost nisu zamenljivi pojmovi. Insistiranje EU na izvršivim pravima i nezavisnom nadzoru odražava lekcije naučene iz decenije iskustva sa GDPR-om: obaveze transparentnosti bez stvarnih mehanizama sprovođenja češće proizvode obaveštenja o privatnosti nego zaštitu privatnosti.

Obe konstatacije mogu istovremeno biti tačne. Jedno istraživanje industrije među tehnološkim malim i srednjim preduzećima u EU i Ujedinjenom Kraljevstvu pokazalo je da šest od deset ispitanika prijavljuje odložen pristup najnaprednijim AI modelima, 58% navodi da je regulativa usporila lansiranje proizvoda, a skoro polovina se suočava sa merljivo višim troškovima. Početni troškovi usklađivanja za jedan visokorizični sistem veštačke inteligencije iz Aneksa I procenjuju se na između 320.000 i 600.000 evra, što su iznosi koji mogu izbrisati 40% profita manje firme. Pitanje za regulatore nije koja je filozofija apstraktno ispravna, već koja kombinacija obaveznih standarda i adaptivnog upravljanja proizvodi sisteme koji su zaista bezbedni, a ne samo uredno dokumentovani.

Argument za sloj zasnovan na kontekstu

AI Act ostaje pretežno kategorijski, ali nije potpuno binaran. Član 6 omogućava ograničeno izuzeće zbog nepostojanja značajnog rizika za pojedine sisteme iz Aneksa III, uz obavezu dokumentovanja i registracije, dok sistemi za profilisanje automatski ostaju visokorizični. Ako sistem spada u kategoriju visokog rizika, na njega se primenjuje celokupan skup obaveza za visokorizične sisteme, bez obzira na to kako se sistem zapravo koristi, ko ga koristi, u kom obimu ili u kom operativnom kontekstu. Velika bolnica koja primenjuje AI dijagnostički alat koji svakodnevno obrađuje podatke hiljada pacijenata i mala klinika koja pilotira asistenta za zakazivanje koji pristupa kliničkim podacima suočavaju se, u načelu, sa istom arhitekturom usklađenosti.

Uloga regulatora je ex post, pokrenuta pritužbama, nadzorom tržišta ili prijavama incidenata. Dokumentacioni sloj — tehnička dokumentacija, sistemi upravljanja kvalitetom, procene uticaja na osnovna prava — procesno je temeljan. Njegova stvarna zaštitna vrednost zavisi od toga da li dokumenti odražavaju operativnu stvarnost.

Okvir koji dopunjuje kategorijsku klasifikaciju rizika osetljivošću na kontekst postavljao bi drugačija pitanja: ne samo da li je sistem visokorizičan prema Aneksu III, već i kako se primenjuje, ko ga primenjuje, na koliko ljudi utiče, kakav ljudski nadzor postoji u praksi i koji mehanizmi povratne informacije postoje kada sistem pogreši. To je bliže načinu na koji funkcioniše procena uticaja na zaštitu podataka prema GDPR-u: kontekstualno i srazmerno, a ne uniformno. EU AI Act već sadrži elemente te logike u regulatornim testnim okruženjima i u prepoznavanju činjenice da različiti subjekti koji primenjuju sisteme imaju različite kapacitete. Ono što mu nedostaje jeste strukturni mehanizam za prevođenje konteksta u srazmernu obavezu.

Ova praznina je posebno relevantna za jurisdikcije koje sada izrađuju sopstvene okvire. Arhitektura upravljanja veštačkom inteligencijom koja obaveze usklađenosti dodeljuje prema stvarnom profilu rizika konkretne primene, a ne prema kategorijskoj oznaci slučaja upotrebe, bila bi zahtevnija za zaista rizične primene i znatno manje zahtevna za većinu primena koje nose ograničen sistemski rizik. Bila bi i trajnija. Regulativa koja se menja pre nego što su njene glavne obaveze uopšte počele da se primenjuju, u najmanju ruku je argument da se sledeći put gradi drugačije.

Praksa za subjekte koji primenjuju sisteme veštačke inteligencije

Za organizacije koje trenutno primenjuju ili planiraju da primenjuju sisteme veštačke inteligencije na tržištu EU, današnji dogovor menja sat, ali ne i pravac.

Obaveza AI pismenosti iz člana 4 već se primenjuje. Rok od 2. avgusta 2026. godine ostaje relevantan za obaveze transparentnosti iz člana 50, dok privremeni dogovor utvrđuje 2. decembar 2026. kao rok za posebne obaveze označavanja sadržaja generisanog veštačkom inteligencijom vodenim žigom.

Za visokorizične sisteme iz Aneksa III, rok iz decembra 2027. ne treba čitati kao dodatne dve godine nečinjenja. Sistemi upravljanja rizicima, tehnička dokumentacija, upravljanje podacima, procene uticaja na osnovna prava kada su primenljive i postupci ljudskog nadzora koji funkcionišu u praksi, a ne samo na papiru, zahtevaju mesece da bi se pravilno izgradili. Organizacije koje sada započnu taj rad imaće vremena da ga urade dobro.

Ta produženja ne treba tretirati kao pauzu u pripremama. Upravljanje rizicima, tehnička dokumentacija, upravljanje podacima, ljudski nadzor, eskalacija incidenata i postupci procene uticaja na osnovna prava zahtevaju vreme da bi se pravilno uspostavili.

Napomena o adaptivnoj regulativi

Izmene EU Akta o veštačkoj inteligenciji izvršene 2025. godine i ponovo danas nisu znak neuspeha. One su znak da regulisanje tehnologije usred njenog uvođenja, bez stabilizovanih tehničkih standarda, na tržištu koje se menja brže od zakonodavnog ciklusa, zahteva kontinuirano prilagođavanje.

Geoffrey Hinton, čiji je temeljni rad na neuronskim mrežama omogućio veliki deo savremene veštačke inteligencije, primetio je da sistemi koji sada ulaze u poslovnu primenu stiču sposobnosti koje nisu bile deo njihovog prvobitnog dizajna — i da se alati za razumevanje, predviđanje i ograničavanje tih sposobnosti još uvek razvijaju. Izazov upravljanja koji iz toga proizlazi nije prvenstveno pitanje dokumentacije. To je pitanje operativnog uvida: razumevanja, u realnom vremenu, šta primenjeni sistem radi, zašto to radi i da li u organizaciji postoji osoba koja ima znanje i ovlašćenje da interveniše ako odgovor postane neprijatan.

Neka istraživanja ukazuju na to da će oko 40% poslovnih aplikacija integrisati AI agente do kraja 2026. godine. Jedno industrijsko istraživanje iz 2026. pokazalo je da 63% organizacija ne može da sprovede ograničenja svrhe za svoje AI agente, 60% ne može da zaustavi agenta koji se ponaša neprimereno, a 55% ne može da izoluje AI sisteme od šire mreže. Dokument o usklađenosti ne zaustavlja autonomnog agenta da deluje izvan svog predviđenog obima.

Regulativa koja gradi organizacione kapacitete, podstiče transparentnost u pogledu ograničenja i stvara srazmerne podsticaje za stvarni nadzor, a ne za proceduralnu usklađenost, bila bi adaptivna u smislu koji je zaista važan. EU Akt o veštačkoj inteligenciji pokazuje u tom pravcu. Udaljenost između pokazivanja pravca i stizanja na cilj najvažnija je praznina u sadašnjem okviru, a nijedno produženje rokova je ne zatvara.

Šta ovo znači za Srbiju i Zapadni Balkan

Srbija zauzima neobično povoljnu poziciju u globalnoj raspravi o veštačkoj inteligenciji. Bila je prva zemlja u Jugoistočnoj Evropi koja je usvojila nacionalnu strategiju za veštačku inteligenciju, u januaru 2025. osvežila je taj okvir za period 2025–2030, a sada se nalazi na čelu Globalnog partnerstva za veštačku inteligenciju tokom trogodišnjeg liderskog ciklusa od 2025. do 2027. godine — kao kopredsedavajuća u prvoj i poslednjoj godini tog ciklusa, a kao vodeća predsedavajuća 2026. godine. U decembru 2024. godine, Beograd je bio domaćin formiranju Ministarske deklaracije o veštačkoj inteligenciji, koju su podržale 44 države članice i Evropska unija.

Iz razumljivih razloga, Srbija je do sada gotovo refleksno prenosila zakonodavstvo EU kao deo procesa pristupanja. Upravljanje veštačkom inteligencijom je oblast u kojoj bi taj refleks bio strateška greška. Potpuno preuzimanje EU AI Acta — preskriptivnog, ex ante režima zasnovanog na klasama rizika — uvezlo bi troškove usklađivanja i regulatornu krutost znatno pre nego što Srbija stekne tržišnu dubinu, nadzorne kapacitete ili industrijsku osnovu da ih apsorbuje. Bolji put jeste da se domaći režim utemelji u američkom NIST okviru za upravljanje rizicima veštačke inteligencije: fleksibilnom, vođenom kontekstom i osmišljenom da se prilagođava stvarnom operativnom riziku — uz očuvanje interoperabilnosti sa zahtevima EU tamo gde pristup tržištu to nalaže.

Ako se postavi na odgovarajući način, takav pristup ne bi oslabio evropsku putanju Srbije. Naprotiv, učinio bi je jasnijom i snažnijom. Srbija usklađena sa NIST okvirom, a interoperabilna sa EU zahtevima, postala bi prirodno testno okruženje za praktičnu usklađenost naklonjenu inovacijama — i kredibilan kandidat da izraste u regionalni centar veštačke inteligencije koji povezuje Brisel i Silicijumsku dolinu.

Završna misao

Evropska unija izgradila je prvu sveobuhvatnu regulativu o veštačkoj inteligenciji na principu koji je suštinski ispravan: tehnologija koja utiče na zdravlje, bezbednost i osnovna prava treba da bude podvrgnuta nezavisnom nadzoru i demokratskoj odgovornosti pre nego što prouzrokuje štetu, a ne posle toga. Princip je bio ispravan. Implementacija je, najblaže rečeno, bila iterativna.

Paradoks je u tome što Evropa na kraju dobija pravila koja su dovoljno detaljna da nameću značajne terete usklađenosti, ali nisu dovoljno adaptivna, niti se ažuriraju dovoljno brzo, da prate razvoj tehnologije. Takva kombinacija može obeshrabriti inovacije, a da pritom u praksi ne poboljša bezbednost. Usklađenost na papiru i operativna bezbednost nisu isto. Ovo drugo zavisi od pravog okvira i prave arhitekture, bez obzira na to da li je rok avgust 2026. ili decembar 2027.

Autor: Uroš Rajić