25 feb 2026

Veštačka inteligencija, advokatska tajna i skriveni rizici

Dana 10. februara 2026. godine, sudija saveznog suda SAD je doneo odluku da trideset jedan dokument koje je okrivljeni generisao korišćenjem alata zasnovanog na generativnoj veštačkoj inteligenciji (AI), a zatim podelio sa svojim advokatima, ne uživaju zaštitu poverljivosti.

Upotreba generativne veštačke inteligencije za sažimanje pravnih saveta, analizu činjenica i izradu pravnih podnesaka postaje sve učestalija. Ipak, ovaj predmet pokazuje kako takva praksa može izložiti klijente ozbiljnim pravnim rizicima.

Advokatska tajna (attorney-client privilege) štiti poverljivu komunikaciju između advokata i klijenta koja se vodi radi pribavljanja pravnog saveta. Doktrina radnog materijala (work product doctrine) odnosi se na materijale pripremljene u očekivanju sudskog postupka. Obe zaštite zasnivaju se na postojanju priznatog pravnog odnosa.

Ukoliko se osetljive informacije unesu u AI platformu opšte namene, pravna struktura na kojoj počiva ova zaštita može biti narušena. Kao posledica toga, zaštita prava poverljivosti može biti izgubljena ili uopšte ne nastaje. Nedavna odluka u predmetu United States v. Heppner ukazuje na ovaj rizik i njegove potencijalne posledice i izvan Sjedinjenih Država.

Povod: United States v. Heppner

Tokom 2025. godine, Bradley Heppner bio je predmet savezne istrage u SAD zbog navodnih krivičnih dela prevare sa hartijama od vrednosti i prevare putem elektronskih komunikacija. Već je angažovao advokate, ali je samoinicijativno, bez njihovog saveta, odlučio da koristi javno dostupan generativni AI alat kako bi „organizovao svoju odbranu“.

U platformu je unosio detaljne upite, uključujući informacije koje je dobio kroz razgovore sa svojim advokatima. Zatim je koristio odgovore koje je generisao AI kako bi strukturirao svoje misli i pripremio se za buduće razgovore sa braniocima.

Nakon Heppnerovog hapšenja, FBI je zaplenio trideset jedan dokument koje je generisao AI sa njegovih elektronskih uređaja. Njegovi advokati su tvrdili da su ti dokumenti zaštićeni advokatskom tajnom i doktrinom radnog materijala, navodeći da:

  • je Heppner u Claude, između ostalog, unosio informacije koje je saznao od advokata;

  • je AI dokumente sačinio radi razgovora sa advokatom u cilju pribavljanja pravnog saveta; i

  • je sadržaj tih dokumenata naknadno podelio sa svojim advokatom.

Na ročištu održanom 10. februara 2026. godine, sudija Rakoff iz Južnog okruga Njujorka odbacio je ove argumente.

Sud je zaključio da, s obzirom na to da Claude AI nije licencirani advokat, AI dokumenti ne predstavljaju komunikaciju između Heppnera i njegovog branioca. Umesto toga, tretirani su kao razmena između neadvokata i stoga ne podležu zaštiti advokatske tajne.

Sud se takođe oslonio na politiku privatnosti platforme Claude. Korisnici su pristajali na to da pružalac usluge može prikupljati i „ulazne podatke“ (inputs) i „izlazne podatke“ (outputs), koristiti ih za treniranje modela i otkrivati ih trećim licima, uključujući državne organe. Na toj osnovi, Sud je zaključio da nije postojalo razumno očekivanje poverljivosti.

Pored toga, Sud je utvrdio da, čak i da su dokumenti bili pripremljeni u očekivanju sudskog postupka, ne bi uživali zaštitu kao radni materijal jer nisu bili sačinjeni od strane advokata niti po njegovom nalogu.

Predmet United States v. Heppner ilustruje kako će sudovi verovatno pristupati AI-generisanim dokumentima i iz kojih razloga takvi materijali mogu ostati bez pravne zaštite. Odluka precizira faktore koji mogu isključiti AI izlaze iz domena privilegije. I za klijente i za advokate, slučaj naglašava da upotreba AI alata u pripremi ili razmatranju pravnih saveta može direktno uticati na postojanje privilegije. Takođe potvrđuje da AI alati ne mogu zameniti advokate niti samostalno generisati privilegovani pravni savet.

Verovatan stav sudova Engleske i Velsa

U Ujedinjenom Kraljevstvu, Sudska uprava Engleske i Velsa (Courts and Tribunals Judiciary) izdala je Smernice za odgovornu upotrebu AI u sudovima i tribunalima, upozoravajući da će unošenje privilegovanog materijala u AI platformu opšte namene verovatno biti tretirano kao otkrivanje podataka nespojivo sa poverljivošću. Smernice izričito navode: „Svaku informaciju koju unesete u javni AI chatbot treba smatrati objavljenom celom svetu.“

Iako odluka u predmetu Heppner nema obavezujuću snagu u Engleskoj i Velsu, engleski sud bi verovatno primenio sličan analitički okvir. Sud bi ispitao uslove korišćenja platforme, utvrdio da li pružalac usluge može čuvati ili ponovo koristiti podatke, i razmotrio da li se takvo otkrivanje uopšte može smatrati „ograničenim“.

Engleska sudska praksa takođe potvrđuje da dokumenti ne postaju privilegovani samom činjenicom da su poslati advokatu (videti Imerman v Tchenguiz [2009] EWHC 2901).

Dalje, engleski sudovi tradicionalno restriktivno pristupaju proširenju privilegije. U predmetu Three Rivers District Council v Governor and Company of the Bank of England [2001] UKHL 16, Dom lordova je razjasnio da privilegija pravnog saveta štiti isključivo komunikaciju između advokata i klijenta, pri čemu se pojam „klijent“ tumači usko. Ako AI alati stoje izvan tog definisanog odnosa, privilegija može izostati i pre nego što se razmatra pitanje otkrivanja trećim licima.

U zbiru, ovi principi ukazuju da bi, u sličnim činjeničnim okolnostima, engleski sud verovatno doneo odluku suštinski usklađenu sa američkom presudom u predmetu Heppner.

Evropska unija: uža i strukturno drugačija doktrina

Na nivou EU, situacija je, ako išta, još restriktivnija. Doktrina poverljivosti razvijena je kroz praksu Suda pravde Evropske unije.

U predmetu AM & S Europe Ltd v Commission, Sud je utvrdio da se zaštita poverljivosti primenjuje samo na komunikaciju sa nezavisnim spoljnim advokatima i samo kada je takva komunikacija vođena radi i u interesu prava klijenta na odbranu. Taj pristup je potvrđen u predmetu Akzo Nobel Chemicals Ltd v Commission, gde je Sud jasno razlikovao nezavisne spoljne advokate od internih pravnika (in-house counsel), zaključivši da komunikacija sa internim pravnicima nije zaštićena u postupcima Komisije u oblasti konkurencije.

Ovaj okvir ima direktne implikacije za upotrebu AI. Prema pravu EU, pravo zaštite poverljivosti nastaje isključivo unutar prepoznatog kanala – komunikacije sa nezavisnim spoljnim advokatom radi odbrane. Ako klijent samostalno koristi generativni AI alat za analizu činjenica, strukturiranje argumenata ili pripremu strategije, kao u slučaju Heppner, takav materijal uopšte ne potpada pod zaštitu profesionalne tajne (legal professional privilege) u pravu EU.

Situaciju dodatno komplikuje Opšta uredba o zaštiti podataka (GDPR). Kada advokat unese lične podatke klijenta u generativni AI alat, advokat ima ulogu rukovaoca podacima (data controller), dok je AI pružalac usluge obrađivač podataka (data processor). GDPR zahteva zaključenje formalnog ugovora o obradi podataka, kojim se definišu obaveze obrađivača, mere bezbednosti i ograničenja daljeg postupanja sa podacima. Standardni uslovi korišćenja AI alata opšte namene obično ne ispunjavaju te zahteve, jer često dozvoljavaju korišćenje podataka za treniranje modela i njihovo otkrivanje trećim licima.

Ako je AI pružalac usluge sa sedištem van Evropskog ekonomskog prostora, primenjuju se pravila iz Poglavlja V GDPR o prenosu podataka u treće zemlje. To zahteva postojanje odluke o primerenosti ili odgovarajućih zaštitnih mera, poput standardnih ugovornih klauzula, uz obavezu procene zakonitosti prenosa u pravnom sistemu zemlje primaoca.

Stoga se advokati i klijenti suočavaju sa dvostrukim rizikom: gubitkom privilegije i potencijalnom regulatornom odgovornošću u oblasti zaštite podataka. Akt o veštačkoj inteligenciji EU (EU AI Act) uvodi treći sloj obaveza. AI sistemi koji pomažu u tumačenju činjenica ili primeni prava mogu biti klasifikovani kao visokorizični, što pokreće obaveze u pogledu upravljanja rizikom, transparentnosti i ljudskog nadzora. Advokati koji koriste takve alate u ime klijenata mogu biti kvalifikovani kao „korisnici“ (deployers) i snositi odgovarajuće obaveze usklađenosti.

Šta ako?

Jedan od praktično najznačajnijih aspekata mišljenja sudije Rakoffa jeste ono što je ostalo otvoreno: da li bi ishod bio drugačiji da je advokat naložio klijentu da koristi AI alat.

Prema presudi United States v. Kovel, 296 F.2d 918 (2d Cir. 1961), advokat može proširiti zaštitu advokatske tajne na treća lica čija je pomoć nužna za pružanje pravnih usluga. Klasični primeri su računovođe u poreskim pitanjima, prevodioci, privatni istražitelji i medicinski veštaci. Sudija Rakoff je naveo da bi, da je branilac naložio Heppneru da koristi Claude kao deo pravne strategije, „Claude eventualno mogao biti posmatran kao visoko kvalifikovani stručnjak koji deluje kao agent advokata u okviru zaštite advokatske tajne“.

Odgovor verovatno zavisi od razlike između opštih i korporativnih (enterprise) AI rešenja, jer potonja obično uključuju ugovorne garancije poverljivosti, zabranu korišćenja podataka za treniranje modela, usklađene ugovore o obradi podataka, ograničeno otkrivanje trećim licima i bezbednosne sertifikate.

U predmetu Heppner, sudska analiza bila je izričito zasnovana na politici privatnosti verzije Claude AI namenjene opštoj upotrebi, koja je dozvoljavala prikupljanje podataka, njihovo korišćenje za treniranje i otkrivanje trećim licima, uključujući državne organe. Takva analiza ne bi bila primenjiva – ili bi bila bitno drugačija – u slučaju korporativnog rešenja sa strožim zaštitnim mehanizmima.

Praktična pouka je jasna. Upotreba ugovorno obezbeđenih korporativnih AI alata po nalogu advokata može očuvati zaštitu i ispuniti obaveze profesionalne tajne, ali samostalna upotreba alata opšte namene, bilo od strane klijenta ili advokata, gotovo sigurno ne pruža takvu zaštitu.

Jedinstveni princip

U većini jurisdikcija, AI platforme opšte namene se, ili će se, smatrati trećim licima u pravnom smislu.

Veštačka inteligencija ne pruža pravne savete i ne može zameniti kvalifikovanog advokata. Kada se AI alati koriste u redovnom poslovanju, korisnici moraju razumeti način na koji se njihovi podaci obrađuju. To podrazumeva proveru politike privatnosti kako bi se utvrdilo da li se ulazni i izlazni podaci čuvaju, ponovo koriste ili dele, kao i da li je moguće onemogućiti pristup podacima radi treniranja modela.

Takve mere mogu unaprediti kontrolu nad podacima, ali ne rešavaju problem privilegije. Kao što pokazuje Heppner, jednom kada se informacija otkrije izvan zaštićenog odnosa advokat–klijent, postoji realan rizik da sud utvrdi da je poverljivost izgubljena.

Neke plaćene ili korporativne verzije AI alata nude unapređene mehanizme zaštite privatnosti u poređenju sa besplatnim modelima. Međutim, ni te funkcionalnosti ne moraju eliminisati pravni rizik. Smernice Sudske uprave Engleske i Velsa upozoravaju da sudije treba da polaze od pretpostavke da se „čak i kada je istorija isključena, uneti podaci smatraju otkrivenim“.

Za klijente, najsigurniji pristup jeste da uključe spoljnog advokata pre nego što koriste AI alate za analizu činjenica, pripremu strategije odbrane ili sažimanje pravnih saveta. Za pravne timove, zadatak je da anticipiraju ovaj rizik i o tome adekvatno savetuju klijente.

U bliskoj budućnosti…

Dosadašnja analiza polazila je od pretpostavke da čovek (klijent ili advokat) svesno odlučuje da unese informacije u AI alat, najčešće veliki jezički model (LLM). Neki bi rekli da je ta pretpostavka već zastarela.

Problem će se dodatno intenzivirati sa razvojem autonomnih AI agenata – sistema sposobnih da samostalno planiraju višestepene zadatke, pozivaju spoljne servise i koordiniraju sa drugim agentima.

U predmetu Heppner postojao je barem jedan jasan trenutak u kojem je osoba odlučila da podeli informacije sa platformom treće strane. U agentičkim radnim tokovima, podaci klijenta mogu biti automatski i neprimetno preneti, obrađeni i sačuvani kroz više eksternih servisa, bez mogućnosti da nadzorni advokat precizno utvrdi šta je podeljeno, sa kim i kada.

Pravni okviri razmatrani u ovom tekstu osmišljeni su za svet u kojem osoba svesno odlučuje da informaciju podeli sa drugim prepoznatljivim licem ili entitetom. Autonomni agenti se ne uklapaju lako u takav model. Za razliku od upita unetog u chat prozor, agent ne zastaje radi pribavljanja saglasnosti.

Da li će zaštita poverljivosti, u sadašnjem obliku, preživeti eru automatizacije – ili će morati da bude iznova osmišljena?

Authori: Anne MacGregor, Hannah Byrne, Uroš Rajić