Išči

BAZA ZNANJA

AI in pravica do točne, celovite in pravočasne davčne informacije

AI in pravica do točne, celovite in pravočasne davčne informacije

Zakaj pravilna davčna informacija ni le storitev, temveč jedrni element davkoplačevalskih pravic in kakovosti javne oblasti

Author: Franc/Friday, April 10, 2026/Categories: C. Pomembno

AI in pravica do točne, celovite in pravočasne davčne informacije

Zakaj pravilna davčna informacija ni le storitev, temveč jedrni element davkoplačevalskih pravic in kakovosti javne oblasti

Vloga usposobljenih, reguliranih in etično odgovornih davčnih posrednikov pri uresničevanju pravic davkoplačevalca

Datum:10.4.2026

Avtor: mag. Franc Derganc, www.modro-poslovanje.si

 

GLAVNA MISEL

Pravica do točne, celovite, jasne in pravočasne davčne informacije ni luksuz dobre uprave, temveč eno od njenih bistvenih meril. To velja še posebej v obdobju uvajanja umetne inteligence, ko davčna administracija ne sme dopustiti, da bi hitrost digitalizacije prehitela pravno varnost davkoplačevalca. Kjer v sistem vstopa AI, mora država zagotoviti več preverjanja, več odgovornosti in več varovalk — ne manj. V takem okolju postane še pomembnejša tudi vloga usposobljenih, reguliranih in etično odgovornih davčnih posrednikov, saj prav oni pogosto omogočajo, da se pravica do pravilne davčne informacije v praksi sploh učinkovito uresniči. OECD, IMF, kanadski ombudsman in evropska študija o davčnih posrednikih to tezo skupaj zelo jasno potrjujejo.[1]

 

I. Uvod: zakaj je tema danes nujna

Pravica do točne, celovite, jasne in pravočasne davčne informacije ni zgolj vprašanje prijazne storitve javne uprave, temveč jedrni element pravne države, davkoplačevalskih pravic in legitimnosti sodobne davčne administracije. Davčni zavezanec ne potrebuje zgolj hitrega odgovora, temveč takšno informacijo, ki mu omogoča pravno varno ravnanje: da lahko pravilno razume svoje obveznosti, pravočasno uveljavlja svoje pravice, predvidi posledice svojega ravnanja in se izogne napakam, ki bi lahko imele premoženjske ali procesne posledice. Prav zato sodobni primerjalni standardi davkoplačevalskih pravic ne govorijo le o dostopnosti informacij, temveč izrecno o njihovi točnosti, jasnosti, celovitosti in pravočasnosti. To je posebej jasno izraženo v kanadskem Taxpayer Bill of Rights, ki med temeljne pravice davkoplačevalca izrecno uvršča pravico do “complete, accurate, clear, and timely information”. (1)

V digitalni dobi ta standard ne postaja manj pomemben, ampak pomembnejši. OECD v novejših dokumentih o davčni administraciji poudarja, da kakovost davčnega informiranja, digitalni stiki z uporabniki ter zaupanje javnosti predstavljajo enega od temeljnih pogojev legitimne in učinkovite davčne uprave. (3) Enako izhaja iz širšega okvira upravljanja z umetno inteligenco v javnem sektorju: AI lahko izboljša dostopnost in odzivnost storitev, vendar hkrati odpira vprašanja transparentnosti, odgovornosti, nadzora nad napakami, podatkovne etike in varstva pravic posameznika. (9) (10) Kadar gre za davčno upravo, ta vprašanja niso obrobna, saj davčne informacije neposredno vplivajo na ravnanje zavezanca v razmerju do države. (4)

To vprašanje se še posebej zaostri v obdobju uvajanja umetne inteligence. Prav takrat se poveča nevarnost, da bo javna oblast hitrost, dostopnost in navidezno uporabniško prijaznost zamenjala za pravno kakovost. Toda v davčnem pravu ni dovolj, da organ odgovori hitro; odgovor mora biti tak, da zavezancu omogoča pravno predvidljivo in varno ravnanje. Kanadski ombudsman za pravice davkoplačevalcev je v tem smislu posebej pomemben, ker opozarja, da digitalizacija sama po sebi ne pomeni nujno okrepitve pravic, temveč jih lahko brez ustreznih varovalk tudi oslabi. Prav digitalni kanali lahko povečajo tveganje, da bo posameznik prejel formalno dostopen, vendar vsebinsko nezadosten, nejasen ali zavajajoč odgovor. (2)

Na to dodatno opozarjata tudi OECD in IMF pri obravnavi AI v davčni in carinski administraciji. Oba poudarjata, da uvedba umetne inteligence zahteva odgovorno upravljanje, jasno opredeljene use-case scenarije, pravila človeškega nadzora, obvladovanje pravnih in etičnih tveganj ter dokumentiran governance okvir. (4) (5) (7) AI v davčni administraciji zato ni mogoče obravnavati kot nevtralnega tehničnega dodatka ali kot neproblematičnega komunikacijskega orodja za splošno informiranje javnosti. Ravno nasprotno: bolj ko se davčna uprava opira na AI pri stikih z zavezanci, večja mora biti njena dolžnost, da zagotovi sledljivost, preverljivost, odgovornost in korekcijske mehanizme. (4) (5) (6)

Temu normativnemu premiku sledi tudi evropski pravni okvir. Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci) izhaja iz logike, da je treba uporabo AI presojati glede na njena tveganja za varnost in temeljne pravice ter zanjo zagotoviti transparentnost, dokumentacijo, človeški nadzor, ustrezno natančnost, robustnost in druge varovalke. (16) Zato v javnopravno občutljivih okoljih ni dovolj, da organ uporabniku zgolj sporoči, da komunicira z AI; bistveno je, ali je sistem dejansko umeščen v pravno in organizacijsko strukturo, ki omogoča nadzor nad napakami, sledljivost sprememb, odgovornost ter učinkovito varstvo pravic. (16)

Iz tega sledi osrednje izhodišče tega članka: AI v davčni upravi je dopustna le, če ne znižuje standarda resničnosti, pravne predvidljivosti in odgovornosti. Če javni organ uporablja umetno inteligenco pri davčnem informiranju, potem digitalizacija sama po sebi ni dokaz napredka. Pravi test je bistveno strožji: ali je davkoplačevalec po uporabi takega sistema bolj pravno varen ali manj. Šele odgovor na to vprašanje pokaže, ali gre za legitimno modernizacijo javne uprave ali pa zgolj za tehnološko navlako, ki pod krinko praktičnosti znižuje standard varstva pravic. (2) (4) (10) (16)

 

Viri za I. poglavje

(1) Canada Revenue Agency, Taxpayer Bill of Rights. Uradni standard pravic; izrecno določa pravico do “complete, accurate, clear, and timely information”.

(2) Taxpayers’ Ombudsperson, Taxpayer Rights in the Digital Age, 2020. Ombudsmanski dokument; ključen za argument, da digitalizacija brez ustreznih varovalk lahko tudi oslabi pravice davkoplačevalcev.

(3) OECD, Tax Administration 2025, 2025. OECD poročilo; širši okvir za kakovost storitev davčne administracije, digitalne kanale in raven informiranja davkoplačevalcev.

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; najpomembnejši neposredni vir za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(6) OECD, Tax Administration Digitalisation and Digital Transformation Initiatives, 2025. OECD poročilo; pomembno za taxpayer touchpoints, digitalne storitve in upravljanje podatkov.

(7) OECD, Tax Administration 3.0: From Vision to Strategy, 2025. OECD strateški dokument; pomemben za tezo, da AI v davčni upravi ne sme biti improvizacija, temveč del dokumentiranega upravljanja.

(8) OECD, Tax Administration 3.0: The Digital Transformation of Tax Administration, 2020. OECD vizijski dokument; temeljni okvir za digitalno davčno upravo in uporabniške poti.

(9) OECD, Good Practice Principles for Data Ethics in the Public Sector, 2021. OECD načela; pomembna za data ethics, odgovornost in zaupanja vredno digitalno javno oblast.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

 

II. Pravica do točne, celovite, jasne in pravočasne davčne informacije kot del davkoplačevalskih pravic

Če želimo resno razpravljati o uporabi umetne inteligence v davčni upravi, moramo najprej razčistiti temeljno vprašanje: kaj davkoplačevalec sploh sme pričakovati od javnega organa, kadar išče davčno informacijo. Odgovor ne more biti skrčen na minimum, da organ zagotovi zgolj nek kanal komunikacije ali formalno možnost postaviti vprašanje. Davkoplačevalčeva pravica ni pravica do “odziva”, temveč pravica do takšne informacije, ki je po svoji vsebini dovolj kakovostna, da jo je mogoče razumno uporabiti pri pravno pomembnem ravnanju. Prav v tem smislu je treba pravico do davčne informacije razumeti kot del jedra davkoplačevalskih pravic. (1) (2)

Ta pravica ima najmanj štiri bistvene sestavine: točnost, celovitost, jasnost in pravočasnost. Točnost pomeni, da informacija ni vsebinsko napačna in da ne usmerja zavezanca v ravnanje, ki bi bilo v nasprotju z veljavnim pravom. Celovitost pomeni, da odgovor ne izpusti bistvenih omejitev, izjem, pogojev ali procesnih posledic, ki so za razumevanje položaja odločilni. Jasnost pomeni, da je informacija predstavljena tako, da jo povprečen naslovnik lahko razume in uporabi, ne da bi bil zaradi nejasne formulacije zaveden v napačen sklep. Pravočasnost pa pomeni, da je informacija podana v času, ko jo zavezanec še lahko uporabi za zakonito in racionalno ravnanje. Šele kombinacija vseh štirih elementov omogoča, da davčna informacija dejansko služi svojemu namenu. (1) (2) (3)

Prav zato je treba zavrniti preozko razumevanje, po katerem bi bilo informiranje zavezancev le postranska servisna funkcija davčne uprave. Davčni sistem temelji na predpostavki, da bo posameznik svoje obveznosti izpolnjeval pravilno, pravočasno in v skladu z zakonom. Toda takšna predpostavka je legitimna le, če država hkrati zagotavlja pogoje, da posameznik svojo pravno situacijo sploh lahko razumno razume. Če davčna uprava ne zagotavlja točnih, celovitih, jasnih in pravočasnih informacij, potem se teža tveganja ne prenese le na zavezanca, temveč se poruši tudi ravnotežje med oblastjo in posameznikom. V takem položaju pravo ne deluje več kot sistem predvidljivih pravil, ampak kot sistem, v katerem je naslovnik prepuščen negotovosti, interpretativnim pastem ali naknadnim korekcijam. (1) (3) (8)

Na tej točki postane posebej pomembno razlikovanje med dostopnostjo informacije in pravno kakovostjo informacije. Digitalna uprava lahko formalno zelo poveča dostopnost: odgovor je na voljo 24 ur na dan, prek več kanalov, brez čakanja in brez neposrednega stika z uradno osebo. Toda visoka dostopnost še ne pomeni, da je zavezanec prejel pravno uporabno informacijo. Prav tu je jedro problema sodobne digitalizacije davčnega informiranja: organ lahko ustvari vtis visoke odzivnosti in dobre storitve, čeprav vsebina odgovorov ni dovolj kakovostna, da bi zagotavljala pravno varnost. Prav zaradi tega sodobni standardi pravic davkoplačevalca ne merijo kakovosti uprave zgolj po hitrosti ali dosegljivosti, temveč po tem, ali organ dejansko zagotavlja complete, accurate, clear, and timely information. (1) (2)

V tem smislu je pravica do pravilne davčne informacije tesno povezana tudi z drugimi temeljnimi davkoplačevalskimi pravicami. Povezana je s pravico do enake obravnave, saj zavezanci ne morejo biti v primerljivih položajih obravnavani različno zgolj zato, ker so prejeli različno kakovostne informacije. Povezana je s pravico do učinkovitega pravnega sredstva, saj pravnega sredstva ni mogoče učinkovito uporabiti, če posameznik zaradi napačne ali nepopolne informacije sploh ne prepozna, da je v njegov pravni položaj poseženo. Povezana je tudi z načelom zaupanja v pravo in z načelom predvidljivosti delovanja oblasti, saj država ne more legitimno pričakovati pravilnega ravnanja tam, kjer sama ne zagotovi dovolj jasnega in zanesljivega informacijskega okvira. Pravica do pravilne davčne informacije zato ni izolirana procesna ugodnost, ampak je vgrajena v samo arhitekturo poštenega davčnega razmerja med državo in zavezancem. (1) (2) (3)

OECD v novejših pregledih davčnih administracij zato upravičeno poudarja, da sodobna davčna uprava ni več presojana zgolj po svoji sposobnosti pobirati davke, temveč tudi po sposobnosti voditi zavezanca skozi sistem na način, ki zmanjšuje napake, povečuje razumevanje in krepi prostovoljno izpolnjevanje obveznosti. To pomeni, da informiranje ni več stranska dejavnost, temveč eden ključnih mehanizmov za legitimno in učinkovito delovanje davčnega sistema. Kadar je to informiranje slabo, nekonsistentno ali nejasno, se ne zmanjšuje le uporabniška izkušnja, ampak tudi raven compliance, zaupanje javnosti in pripravljenost posameznika, da sprejme pravni red kot razumen in predvidljiv okvir ravnanja. (3) (6) (8)

Prav zato je pomembno poudariti še eno razlikovanje: davčna informacija ni nujno isto kot formalno zavezujoč akt, vendar to še ne pomeni, da je njena kakovost pravno nepomembna. Tudi kadar gre “le” za pojasnilo, usmeritev ali informativni odgovor, ima taka informacija v praksi lahko pomemben vpliv na ravnanje posameznika. Lahko vpliva na odločitev, ali bo nekaj prijavil ali ne, ali bo vložil pravno sredstvo, kako bo strukturiral posel, ali bo spoštoval rok in kako bo razumel svojo obveznost. Zato ni pravno prepričljivo stališče, da je kakovost davčne informacije nepomembna zgolj zato, ker ne gre za formalno odločbo. V davčnem življenju posameznika prav informativni kanal pogosto predstavlja prvi in odločilni stik s pravnim redom. Če je ta stik napačen, nepopoln ali zavajajoč, je lahko škoda za pravno varnost zelo konkretna. (2) (4) (5)

Iz tega sledi pomemben sklep za celoten članek: pravica do točne, celovite, jasne in pravočasne davčne informacije ni dodatna ugodnost sodobne uprave, ampak materialni pogoj legitimnega davčnega sistema. Brez nje ni mogoče resno govoriti niti o kakovosti davčne administracije niti o poštenem odnosu med državo in zavezancem. In prav zato je treba vsako uporabo AI pri davčnem informiranju presojati z vidika tega standarda: ali sistem pomaga uresničevati to pravico ali pa jo pod krinko učinkovitosti in tehnološke sodobnosti dejansko slabi. (1) (3) (4) (10) (16)

 

Viri za II. poglavje

(1) Canada Revenue Agency, Taxpayer Bill of Rights. Uradni standard pravic; izrecno določa pravico do “complete, accurate, clear, and timely information”.

(2) Taxpayers’ Ombudsperson, Taxpayer Rights in the Digital Age, 2020. Ombudsmanski dokument; ključen za argument, da digitalizacija brez ustreznih varovalk lahko tudi oslabi pravice davkoplačevalcev.

(3) OECD, Tax Administration 2025, 2025. OECD poročilo; širši okvir za kakovost storitev davčne administracije, digitalne kanale in raven informiranja davkoplačevalcev.

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; najpomembnejši neposredni vir za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(6) OECD, Tax Administration Digitalisation and Digital Transformation Initiatives, 2025. OECD poročilo; pomembno za taxpayer touchpoints, digitalne storitve in upravljanje podatkov.

(8) OECD, Tax Administration 3.0: The Digital Transformation of Tax Administration, 2020. OECD vizijski dokument; temeljni okvir za digitalno davčno upravo in uporabniške poti.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

 

III. Pravilna davčna informacija kot merilo kakovosti javne oblasti

Pravilna davčna informacija ni pomembna samo zato, ker koristi posameznemu davčnemu zavezancu. Njena kakovost je tudi eno od meril, po katerih se presoja kakovost same javne oblasti. Država, ki od posameznika zahteva pravočasno, pravilno in popolno izpolnjevanje davčnih obveznosti, mora hkrati zagotoviti, da so informacije, s katerimi posameznik vstopa v davčno razmerje, dovolj zanesljive, razumljive in predvidljive. Če tega ne zagotovi, problem ni več le na ravni uporabniške izkušnje ali storitvene učinkovitosti, temveč na ravni same legitimnosti javnega upravljanja. (1) (3)

Davčna uprava ni zasebni ponudnik informacijskega produkta, ki bi na trg pošiljal bolj ali manj uporabne vsebine brez neposrednih pravnih posledic. Je del javne oblasti. To pomeni, da njeno informiranje deluje v kontekstu, kjer je razmerje med državo in posameznikom že po naravi asimetrično: država razpolaga z oblastnimi pristojnostmi, z normativnim aparatom, z nadzornimi in sankcijskimi mehanizmi, posameznik pa mora na tej podlagi sprejemati pravno pomembne odločitve. Kadar v takem razmerju organ podaja informacije, te niso zgolj “koristna pomoč”, temveč del širšega okvira, v katerem se uresničujejo načela pravne države, pravne varnosti in predvidljivosti delovanja oblasti. (3) (8) (10)

Zato je treba kakovost davčne informacije razumeti kot eno od oblik institucionalne odgovornosti države. Če organ daje netočne informacije, to ne pomeni le, da je odgovor slab. Pomeni, da država posameznika usmerja na način, ki lahko izkrivi njegovo razumevanje lastnega pravnega položaja. Če organ daje nepopolne informacije, lahko zavezanec spregleda izjemo, rok, procesni pogoj ali omejitev, ki je odločilna za njegov primer. Če organ daje nejasne informacije, nastaja prostor za arbitrarnost, ker posameznik ne more z zadostno gotovostjo vedeti, kaj se od njega pričakuje. In če organ daje prepozne informacije, je pravna škoda lahko že nastala, še preden je zavezanec sploh razumel, kako bi moral ravnati. V vseh teh primerih ni prizadeta le storitvena raven uprave, temveč tudi njena sposobnost, da oblast izvršuje na način, ki je skladen z načeli dobrega upravljanja. (1) (2) (3)

Prav zato sodobni pregledi davčnih administracij, zlasti v okviru OECD, vse bolj poudarjajo, da se kakovost davčnega sistema ne meri le po uspešnosti pobiranja prihodkov, ampak tudi po kakovosti interakcije med upravo in zavezancem. V ospredje stopajo vprašanja taxpayer touchpoints, uporabniških poti, razumljivosti komunikacije, upravljanja digitalnih kanalov, zaupanja javnosti in zanesljivosti informacijskega okolja. Davčna uprava, ki želi delovati legitimno in učinkovito, mora biti sposobna zavezanca voditi skozi sistem na način, ki zmanjšuje napake, spodbuja prostovoljno izpolnjevanje obveznosti in krepi zaupanje v institucije. To pa ni mogoče, če informacijski sistem deluje nekonsistentno, nepregledno ali brez zadostnega nadzora nad kakovostjo odgovorov. (3) (6) (7)

Na tej točki je pomembno poudariti, da kakovost javne oblasti ni le vprašanje formalne zakonitosti, ampak tudi vprašanje upravljavske zrelosti. Organ lahko formalno pravilno navede, da njegovi odgovori niso zavezujoči ali da gre le za informativni kanal, pa to še ne pomeni, da je s tem razbremenjen vseh zahtev glede kakovosti. Prav nasprotno: bolj ko se država odloča za digitalne in avtomatizirane oblike komuniciranja, bolj mora biti sposobna izkazati, da so ti kanali umeščeni v jasno governance strukturo, z določenimi pravili, odgovornostmi, omejitvami, procesi spremljanja kakovosti in mehanizmi za popravljanje napak. Kakovost javne oblasti se zato v digitalni dobi vse bolj kaže prav v tem, ali zna država svojo tehnološko infrastrukturo pravno in organizacijsko disciplinirati. (4) (6) (7) (10)

To vprašanje je še posebej občutljivo v davčnem kontekstu, ker se davčna uprava ne ukvarja s poljubnimi informacijami, temveč z informacijami, ki lahko neposredno vplivajo na premoženjski položaj posameznika, na njegovo procesno ravnanje in na možnost, da se učinkovito brani v razmerju do oblasti. Zato je v davčnem pravu kakovost informacijskega okolja neločljivo povezana s kakovostjo države same. Država, ki dopušča, da se pravno relevantne informacije posredujejo brez zadostne točnosti, brez jasnih pravil in brez učinkovitega nadzora, tvega, da bo digitalizacija postala kanal za razkroj pravne varnosti namesto za njeno krepitev. (4) (5) (16)

V širšem okviru upravljanja z umetno inteligenco v javnem sektorju OECD upravičeno opozarja, da so vprašanja transparentnosti, odgovornosti, razložljivosti in nadzora nad napakami neposredno povezana z zaupanjem javnosti. To velja še toliko bolj tam, kjer država uporablja AI v stikih s posameznikom. Če javna oblast ne zna pojasniti, kako njen sistem deluje, po kakšnih pravilih odgovarja, kako zaznava napake, kdo je odgovoren za popravke in kako se zagotavlja človeški nadzor, potem problem ni zgolj tehničen. Gre za vprašanje, ali javna oblast sploh še deluje na način, ki ga je mogoče označiti kot odgovoren, predvidljiv in vreden zaupanja. (9) (10)

Iz tega sledi pomembna normativna posledica: pravilna davčna informacija je eno od meril dobrega upravljanja javnega organa. Ne gre le za koristno administrativno funkcijo, temveč za preizkus, ali država v razmerju do zavezanca ravna kot pravna država ali pa kot upravni aparat, ki od posameznika zahteva skladnost, sam pa si dopušča informacijsko površnost, nepreglednost ali nekonsistentnost. Kakovost davčne informacije je zato treba razumeti kot del širšega standarda kakovosti javne oblasti: bolj ko je organ sposoben zagotavljati točne, celovite, jasne in pravočasne informacije, bolj je sposoben oblast izvrševati legitimno; bolj ko ta standard popušča, bolj se kruši pravna varnost zavezanca in s tem tudi legitimnost same uprave. (1) (3) (10) (16)

Prav v tem smislu je treba v nadaljevanju članka presojati tudi uporabo umetne inteligence v davčni upravi. Ključno vprašanje ni, ali je tehnologija nova, hitra ali uporabniku privlačna. Ključno vprašanje je, ali njena uporaba povečuje ali zmanjšuje kakovost javne oblasti. Če jo povečuje, potem lahko govorimo o legitimni modernizaciji. Če jo zmanjšuje, potem ne gre za napredek, ampak za institucionalni regres, prikrit v jezik digitalizacije. (4) (5) (7) (10) (16)

 

Viri za III. poglavje

(1) Canada Revenue Agency, Taxpayer Bill of Rights. Uradni standard pravic; izrecno določa pravico do “complete, accurate, clear, and timely information”.

(2) Taxpayers’ Ombudsperson, Taxpayer Rights in the Digital Age, 2020. Ombudsmanski dokument; ključen za argument, da digitalizacija brez ustreznih varovalk lahko tudi oslabi pravice davkoplačevalcev.

(3) OECD, Tax Administration 2025, 2025. OECD poročilo; širši okvir za kakovost storitev davčne administracije, digitalne kanale in raven informiranja davkoplačevalcev.

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; najpomembnejši neposredni vir za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(6) OECD, Tax Administration Digitalisation and Digital Transformation Initiatives, 2025. OECD poročilo; pomembno za taxpayer touchpoints, digitalne storitve in upravljanje podatkov.

(7) OECD, Tax Administration 3.0: From Vision to Strategy, 2025. OECD strateški dokument; pomemben za tezo, da AI v davčni upravi ne sme biti improvizacija, temveč del dokumentiranega upravljanja.

(8) OECD, Tax Administration 3.0: The Digital Transformation of Tax Administration, 2020. OECD vizijski dokument; temeljni okvir za digitalno davčno upravo in uporabniške poti.

(9) OECD, Good Practice Principles for Data Ethics in the Public Sector, 2021. OECD načela; pomembna za data ethics, odgovornost in zaupanja vredno digitalno javno oblast.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

 

IV. Obdobje uvajanja umetne inteligence: zakaj mora biti standard varstva višji, ne nižji

Prav v obdobju uvajanja umetne inteligence bi moral biti standard varstva davkoplačevalca višji, ne nižji. To ni paradoks, ampak nujna posledica narave tehnologije, ki jo javna oblast uvaja v pravno občutljivo okolje. Kadar država v davčno informiranje vpeljuje sistem, ki deluje verjetnostno, ki lahko generira različno formulirane ali celo vsebinsko različne odgovore ter ki je po naravi podvržen napakam, halucinacijam in odvisnosti od vhodnega vprašanja, ne more biti odgovor javne oblasti v tem, da zniža standarde odgovornosti. Ravno nasprotno: bolj ko je tehnologija zmotljiva, več mora biti prava, nadzora, sledljivosti in človeške odgovornosti. (4) (5) (10) (16)

V klasičnem upravnem okolju je bila nevarnost napačne informacije praviloma vezana na človeško napako posameznega uradnika, na pomanjkljivo interno usklajenost ali na slabo pripravljeno pojasnilo. V okolju umetne inteligence pa se narava tveganja spremeni. Napaka ni nujno več posamična in izolirana, ampak lahko postane sistemska, ponovljiva, nepredvidljiva ali nesledljiva. Isti sistem lahko na podobna vprašanja odgovori različno; lahko pravilno povzema splošno pravilo, hkrati pa spregleda izjemo, procesni pogoj ali časovno dimenzijo; lahko deluje navidezno prepričljivo, čeprav je vsebinsko napačen. Prav zato AI v davčni upravi ni zgolj še en digitalni kanal, ampak nova kategorija upravljavskega in pravnega tveganja. (4) (5) (16)

To tveganje je največje prav v prehodnem obdobju uvajanja. Takrat so sistemi pogosto še v fazi širjenja področij uporabe, dopolnjevanja baz znanja, prilagajanja pravil, eksperimentiranja z obsegom dovoljenih vprašanj in iskanja ravnotežja med avtomatizacijo ter človeškim nadzorom. Prav v tej fazi je največja nevarnost, da bo organ tehnologijo obravnaval kot nekaj, kar se “še razvija”, zato pa naj bi bilo od nje mogoče pričakovati manj. Toda za davkoplačevalca je ravno to obdobje najbolj občutljivo: on ni razvojno okolje. Zanj je vsak odgovor, ki ga prejme od davčne uprave, potencialno pravno relevanten že danes, ne šele takrat, ko bo sistem nekoč bolj dodelan. Zato ni pravno sprejemljivo, da bi prehodnost razvoja služila kot razlog za nižjo raven odgovornosti do zavezanca. (2) (4) (5)

Kanadski ombudsman za pravice davkoplačevalcev upravičeno opozarja, da digitalizacija sama po sebi ne pomeni avtomatične okrepitve pravic, temveč lahko brez ustreznih varovalk vodi tudi v njihovo oslabitev. To opozorilo je v obdobju uvajanja AI še posebej pomembno. Nevarnost ni le v tem, da bo odgovor napačen, ampak tudi v tem, da bo formalno hitro dostopen, uporabniško prijazen in navidezno samozavesten, zaradi česar bo posameznik vanj vložil več zaupanja, kot si ga odgovor pravno zasluži. Prav ta kombinacija hitrosti, dostopnosti in navidezne avtoritativnosti je pri AI posebej nevarna: lahko okrepi učinek napačne informacije, namesto da bi ga zmanjšala. (1) (2) (10)

Na to se navezuje še eno bistveno vprašanje: kdo je odgovoren, kadar AI sistem poda napačen, nepopoln ali nekonsistenten odgovor. Prav v obdobju uvajanja se pogosto pojavi skušnjava razpršitve odgovornosti. Organ se lahko sklicuje na to, da gre za zunanjo platformo, ponudnik na to, da sistem uporablja organ, upravljavci sistema na to, da so odgovori le informativni, uporabnik pa ostane sam z negativnimi posledicami napačne informacije. Toda ravno zato sodobni dokumenti OECD, IMF in evropski pravni okvir poudarjajo potrebo po jasni governance strukturi, določitvi vlog, dokumentiranem človeškem nadzoru, sledljivosti sprememb in mehanizmih popravljanja napak. Tehnološka inovacija ne more pomeniti inovacije v izogibanju odgovornosti. (4) (5) (7) (10) (16)

V tem smislu je posebej pomembna tudi razlika med transparentnostjo obstoja AI in transparentnostjo upravljanja AI. Ni dovolj, da organ uporabnika obvesti, da komunicira z umetno inteligenco. Takšno opozorilo je sicer pomembno, vendar samo po sebi ne rešuje ničesar bistvenega. Davkoplačevalca ne varuje samo informacija, da je na drugi strani stroj, ampak predvsem odgovor na vprašanje, ali je ta stroj umeščen v okolje, kjer obstajajo pravila delovanja, omejitve, spremljanje kakovosti, možnost človeškega posega, evidence sprememb, odgovorni nosilci in postopki korekcije. V obdobju uvajanja AI mora biti zato poudarek na dokazljivem upravljanju, ne le na formalnem opozorilu o uporabi tehnologije. (4) (9) (10) (16)

OECD in IMF pri uporabi AI v davčni in carinski administraciji ne poudarjata zgolj tehnološkega potenciala, ampak tudi nujnost odgovornega uvajanja, jasne opredelitve use-case scenarijev, human oversight in stalnega vrednotenja delovanja sistema. To pomeni, da se legitimnost AI ne presoja po tem, kako impresivno deluje na prvi pogled, ampak po tem, ali je organ sposoben izkazati, da razume njena tveganja in da ima vzpostavljen formalni okvir za njihovo obvladovanje. Kjer takega okvira ni, je treba biti prav v prehodnem obdobju še posebej zadržan. Pri davkih namreč ne gre za eksperimentiranje z nenevarnimi vsebinami, ampak za področje, kjer lahko napačen odgovor vpliva na obveznost, rok, pravico, ugovor, davčno breme ali procesno odločitev posameznika. (4) (5) (6) (7)

Temu sledi tudi evropski pravni okvir. Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci) temelji na logiki, da je treba umetno inteligenco presojati po njenih tveganjih za varnost in temeljne pravice ter zanjo zagotoviti ustrezne varovalke: transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in spremljanje delovanja. Če je to splošna normativna usmeritev AI Act, potem jo je treba v davčnem kontekstu razumeti še toliko strožje. Davčna uprava deluje na področju, kjer napačna informacija ne ostane v sferi abstraktnega digitalnega šuma, ampak lahko neposredno vpliva na pravni in premoženjski položaj posameznika. (16)

Prav zato mora biti sklep tega poglavja jasen: v obdobju uvajanja umetne inteligence ne sme priti do znižanja standarda varstva davkoplačevalca pod pretvezo tehnološkega napredka. Če AI vstopa v davčno upravo, potem mora država zagotoviti več preverjanja, več sledljivosti, več dokumentacije, več human oversight in več odgovornosti. Manj kot je sistem zrel, več mora biti institucionalne previdnosti. Manj kot je dokazljivega nadzora, manj je pravne sprejemljivosti njegove uporabe. Pri davkih namreč ni dovolj, da je tehnologija nova; biti mora tudi pravno varna. (2) (4) (5) (10) (16)

 

Viri za IV. poglavje

(1) Canada Revenue Agency, Taxpayer Bill of Rights. Uradni standard pravic; izrecno določa pravico do “complete, accurate, clear, and timely information”.

(2) Taxpayers’ Ombudsperson, Taxpayer Rights in the Digital Age, 2020. Ombudsmanski dokument; ključen za argument, da digitalizacija brez ustreznih varovalk lahko tudi oslabi pravice davkoplačevalcev.

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; najpomembnejši neposredni vir za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(6) OECD, Tax Administration Digitalisation and Digital Transformation Initiatives, 2025. OECD poročilo; pomembno za taxpayer touchpoints, digitalne storitve in upravljanje podatkov.

(7) OECD, Tax Administration 3.0: From Vision to Strategy, 2025. OECD strateški dokument; pomemben za tezo, da AI v davčni upravi ne sme biti improvizacija, temveč del dokumentiranega upravljanja.

(9) OECD, Good Practice Principles for Data Ethics in the Public Sector, 2021. OECD načela; pomembna za data ethics, odgovornost in zaupanja vredno digitalno javno oblast.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

 

V. AI v davčni administraciji: priložnost, vendar le pod strogimi pogoji

Resna razprava o umetni inteligenci v davčni administraciji ne sme zdrsniti niti v tehnološko evforijo niti v pavšalno zavračanje. AI je lahko za davčno upravo dejanska priložnost. Lahko poveča dosegljivost osnovnih informacij, skrajša pot do začetne orientacije, razbremeni rutinske komunikacijske kanale in izboljša uporabniško izkušnjo pri enostavnih, pogostih in standardiziranih vprašanjih. Prav v tem smislu novejši dokumenti OECD in IMF obravnavajo AI kot potencialno pomembno razvojno orodje za davčne in carinske administracije: ne kot nadomestek za pravo ali odgovornost, temveč kot sredstvo za boljšo organizacijo informacijskih tokov, učinkovitejše storitve in boljše usmerjanje uporabnikov.

Ta potencial je posebej očiten tam, kjer gre za vprašanja nizke kompleksnosti in visoke ponovljivosti. Davčna uprava vsakodnevno odgovarja na velik obseg podobnih vprašanj: kje najti obrazec, kateri rok velja za določeno obveznost, kateri kanal je pravi za določeno vrsto zadeve, katera splošna pravila veljajo za tipične situacije. Na tej ravni je lahko AI koristen filter, usmerjevalec ali začetni informacijski sloj, ki uporabniku prihrani čas in upravi omogoči bolj racionalno razporejanje kadrovskih virov. Tudi OECD v okviru digitalne transformacije davčnih administracij poudarja pomen učinkovitega upravljanja taxpayer touchpoints, boljše organizacije digitalnih storitev in takih rešitev, ki zavezancu olajšajo prvi stik s sistemom.

Toda prav tu je treba postaviti jasno mejo. Koristnost AI še ne pomeni, da je njena uporaba avtomatično tudi pravno sprejemljiva. Med tem, da je sistem uporaben, in tem, da je sistem legitimen, obstaja bistvena razlika. Davčna uprava ni tehnološki laboratorij, njen cilj pa ni zgolj povečati hitrost odzivov ali zmanjšati stroške kontaktnih kanalov. Njena naloga je delovati na način, ki varuje pravice davkoplačevalca, zagotavlja predvidljivost in ohranja zaupanje javnosti. Zato je AI v davčni administraciji dopustna le, če je umeščena v strogo dokumentiran in nadzorovan okvir. OECD in IMF pri tem poudarjata prav potrebo po odgovornem upravljanju, jasnih use-case omejitvah, spremljanju delovanja sistema, nadzoru nad napakami in človeškem posegu tam, kjer bi avtomatiziran odgovor lahko vplival na pravni položaj posameznika.

Prvi pogoj dopustnosti je zato jasna opredelitev namena sistema. Organ mora vedeti in biti sposoben dokazljivo pojasniti, za kaj točno AI uporablja: ali za navigacijo po spletnih storitvah, za odgovore na pogosta splošna vprašanja, za usmerjanje uporabnika na pravi kanal, za pomoč pri izpolnjevanju obrazcev ali za zahtevnejša vsebinska pojasnila. Bolj ko sistem posega iz ravni tehnične orientacije v raven vsebinskega pravnega informiranja, strožji morajo biti standardi njegovega upravljanja. OECD v dokumentih o Tax Administration 3.0 poudarja prav to: digitalna davčna uprava ne sme širiti tehnoloških zmogljivosti brez jasne strateške arhitekture, opredeljenih vlog in nadzora nad tem, kako posamezen digitalni stik vpliva na položaj zavezanca.

Drugi pogoj je jasno določen in omejen vsebinski doseg sistema. AI v davčni upravi ne sme delovati kot navidezno univerzalen odgovor na vse. Če je sistem primeren za enostavna, pogosta in standardizirana vprašanja, mora biti to izrecno določeno. Če obstajajo področja, kjer je tveganje napake previsoko, morajo biti ta področja dokumentirano omejena ali pa mora biti za njih predvidena obvezna preusmeritev na človeka. Prav odsotnost takih jasnih meja je eden od največjih pravnih problemov pri uvajanju AI: sistem deluje navidezno splošno, dejansko pa ni jasno, kdaj preide iz dopustne orientacije v tvegano pravno usmerjanje. IMF posebej opozarja, da morajo biti use-case scenariji pri AI v davčni in carinski administraciji natančno definirani, saj se sicer tveganja širijo hitreje kot organizacijska sposobnost njihovega obvladovanja.

Tretji pogoj je transparentnost, vendar razumljena širše od gole oznake, da uporabnik komunicira z AI. Seveda je pomembno, da je uporabnik o tem jasno obveščen. Toda to je šele začetni minimum. Resnično pomembna transparentnost pomeni, da so pregledni tudi namen sistema, njegove omejitve, njegov pravni status, njegove meje uporabe in pot do človeške korekcije. Transparentnost je torej povezana z razložljivostjo organizacijskega okvira, ne zgolj z razkritjem tehničnega dejstva, da je odgovor generiral AI. OECD v širšem okviru upravljanja z umetno inteligenco v vladi poudarja, da je zaupanje javnosti odvisno prav od kombinacije transparentnosti, odgovornosti in zmožnosti pojasniti, kako sistem deluje in kdo nosi odgovornost za njegove učinke.

Četrti pogoj je dokumentirano upravljanje sprememb in kakovosti. Pri AI ni dovolj, da sistem “deluje”; organ mora biti sposoben rekonstruirati, po katerih pravilih je deloval v posameznem trenutku, kaj se je spremenilo, kdo je spremembo odobril, kako so bile spremembe testirane in kako se spremljajo napake ali nekonsistentnosti. Ravno tu postane razlika med običajno digitalno storitvijo in pravno občutljivim AI-sistemom zelo ostra. Če organ ne vodi ustrezne revizijske sledi, če nima jasnega change managementa, če ne meri kakovosti in ne zaznava konfliktnih odgovorov, potem AI ni več upravljano orodje, ampak slabo obvladovan vir pravnega tveganja. OECD v novejših strategijah digitalne transformacije izrecno premika poudarek od same uvedbe tehnologije k dokumentiranemu upravljanju njene uporabe.

Peti pogoj je učinkovit človeški nadzor. Ta ne pomeni le abstraktnega načela, da “končno odgovarja človek”, temveč mora biti operativno preveden v pravila: kdo nadzira sistem, kdo lahko poseže v njegovo delovanje, kdaj je obvezna eskalacija na človeka, kdo pregleduje napake, kdo potrjuje spremembe in kdo odloča, da sistem na določenem področju ni primeren za samostojno odgovarjanje. IMF in OECD poudarjata, da je human oversight eden ključnih elementov legitimne uporabe AI v davčni in carinski administraciji, prav zato, ker davčni kontekst neposredno zadeva pravice, obveznosti in premoženjski položaj posameznika.

Šesti pogoj je jasna odgovornost. Uporaba zunanjih platform, ponudnikov modelov ali kompleksne dobavne verige ne sme raztopiti odgovornosti javnega organa. Če davčna uprava uporablja AI pri stikih z zavezanci, potem mora biti jasno, kdo je vsebinsko odgovoren za pravila odgovorov, kdo za skladnost, kdo za tehnično delovanje, kdo za zaščito podatkov, kdo za kakovost in kdo za obravnavo napak. Prav v tem je razlika med resnim governance okvirom in improvizacijo: pri prvem so vloge določene, pri drugem pa se odgovornost izgublja med sistemom, dobaviteljem in disclaimerjem. OECD in AI Act oba izhajata iz tega, da uporaba AI ne zmanjšuje potrebe po odgovornosti, ampak jo krepi.

Temu sledi tudi evropski pravni okvir. Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci) temelji prav na logiki, da je treba uporabo AI vezati na tveganja in zanjo zagotoviti ustrezne varovalke, med drugim transparentnost, dokumentacijo, človeški nadzor, natančnost in robustnost. Če to velja splošno, potem v davčni upravi velja še toliko bolj: tam, kjer informacija neposredno vpliva na pravni položaj posameznika, ne more biti dopustna uporaba AI brez strogo določenih pravil, dokazljivega upravljanja in učinkovite možnosti človeške korekcije.

Sklep tega poglavja je zato dvojen. Prvič, AI je lahko za davčno administracijo resnična priložnost: za boljšo začetno orientacijo uporabnika, za hitrejši dostop do splošnih informacij in za učinkovitejšo organizacijo kontaktnih poti. Drugič pa je ta priložnost legitimna le pod strogimi pogoji. Brez jasnega namena, omejenega dosega, transparentnosti, dokumentiranega change managementa, merjenja kakovosti, human oversight in jasne odgovornosti AI v davčni administraciji ni znak napredka, ampak znak upravljavske lahkomiselnosti. Pri davkih tehnologija ni legitimna zato, ker je nova, ampak zato, ker je pravno in organizacijsko obvladana.

 

Viri za V. poglavje

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; najpomembnejši neposredni vir za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(6) OECD, Tax Administration Digitalisation and Digital Transformation Initiatives, 2025. OECD poročilo; pomembno za taxpayer touchpoints, digitalne storitve in upravljanje podatkov.

(7) OECD, Tax Administration 3.0: From Vision to Strategy, 2025. OECD strateški dokument; pomemben za tezo, da AI v davčni upravi ne sme biti improvizacija, temveč del dokumentiranega upravljanja.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

 

 

VI. Glavna pravna in etična tveganja AI pri davčnih informacijah

Če je umetna inteligenca v davčni administraciji lahko priložnost, je hkrati tudi vir posebnih pravnih in etičnih tveganj. Ta tveganja niso obrobna ali zgolj tehnična. Zadevajo samo jedro razmerja med javno oblastjo in davkoplačevalcem: vprašanje, ali posameznik od organa prejema informacije, na podlagi katerih lahko ravna zakonito, predvidljivo in varno. Prav zato je treba AI pri davčnih informacijah presojati ne le po hitrosti, dosegljivosti ali uporabniški priročnosti, ampak predvsem po tem, katera tveganja prinaša za pravice zavezanca in za legitimnost javne oblasti. (4) (5) (10) (16)

6.1 Netočnost

Prvo in najbolj očitno tveganje je netočnost. Generativni sistemi lahko oblikujejo vsebinsko napačen odgovor, napačno povežejo pravne institute, spregledajo hierarhijo pravnih virov ali prepričljivo predstavijo sklep, ki v veljavnem pravu nima opore. V davčnem kontekstu takšna napaka ni nedolžna. Napačna informacija lahko zavezanca usmeri v nepravilno izpolnitev obveznosti, v opustitev prijave, v napačen obračun ali v napačno razumevanje davčnih posledic svojega ravnanja. Ker davčni sistem pogosto temelji na samoprijavi, ima netočnost pri informiranju neposreden vpliv na pravno in premoženjsko varnost posameznika. (1) (4) (5)

6.2 Nepopolnost

Drugo tveganje je nepopolnost. Tudi kadar odgovor ni izrecno napačen, je lahko pravno zavajajoč zato, ker izpusti bistven del slike. Sistem lahko navede splošno pravilo, vendar ne omeni izjeme, procesnega pogoja, roka, dokaznega bremena ali posebne okoliščine, od katere je rešitev odvisna. Prav v davčnem pravu je to posebej nevarno, ker je pravilna uporaba norm pogosto odvisna od kombinacije materialnopravnih in procesnih elementov. Nepopoln odgovor zato ni manj problematičen od napačnega; včasih je celo bolj nevaren, ker ustvarja vtis pravilnosti, čeprav zavezanca vodi v pravno okrnjeno razumevanje njegovega položaja. (1) (2) (5)

6.3 Nepravočasnost oziroma zastarelost

Tretje tveganje je nepravočasnost oziroma zastarelost informacije. Davčno pravo se spreminja, spreminjajo se podzakonske razlage, obrazci, roki, praksa organov in tehnični postopki. Če AI sistem uporablja neosveženo bazo znanja ali če spremembe v njegovo delovanje niso pravočasno vnesene, lahko uporabniku poda odgovor, ki je bil nekoč pravilen, v času uporabe pa ni več. V davčnem sistemu je časovna dimenzija pogosto odločilna: pravilnost odgovora je vezana na konkretno obdobje, na prehodne določbe ali na trenutek nastanka obveznosti. Zastarela informacija zato ni le manj uporabna, ampak je lahko pravno škodljiva. (3) (4) (6)

6.4 Nejasnost in navidezna gotovost

Četrto tveganje je nejasnost, pogosto povezana z navidezno gotovostjo. AI lahko ustvari odgovor, ki je slogovno gladek, strukturiran in samozavesten, a pravno ne dovolj določen. Lahko uporabi splošne formulacije, ki zvenijo prepričljivo, ne da bi jasno razmejil, kaj je pravilo, kaj izjema, kaj predpostavka in kaj negotova okoliščina. Prav ta navidezna avtoritativnost je pri AI posebej problematična: uporabnik lahko odgovoru zaupa bolj, kot bi smel, ravno zato, ker je predstavljen v obliki, ki daje videz dokončnosti. V davčnem pravu pa je videz gotovosti brez dejanske pravne opore posebej nevaren, ker spodbuja napačno samozaupanje pri ravnanju zavezanca. (2) (4) (10)

6.5 Nekonsistentnost med vsebinsko enakimi vprašanji

Peto tveganje je nekonsistentnost. To je eden najbolj značilnih in hkrati najresnejših problemov generativnih sistemov v pravno občutljivem okolju. Isti ali vsebinsko zelo podoben problem je lahko obravnavan različno glede na formulacijo vprašanja, vrstni red stavkov, izbrano terminologijo ali trenutno stanje sistema. V praksi to pomeni, da dva zavezanca v primerljivem položaju ne prejmeta nujno primerljive informacije. Takšna variabilnost spodkopava načelo enakosti obravnave, načelo predvidljivosti ter samo idejo, da davčna uprava deluje po enotnih pravilih. Kjer je odgovor odvisen od naključne formulacije vprašanja, tam informacijski kanal ne deluje več kot podaljšek pravne države, ampak kot generator nepredvidljivosti. (3) (4) (5)

6.6 Neenakost obravnave uporabnikov

Šesto tveganje je neenakost obravnave uporabnikov. Nekonsistentnost odgovorov je le del tega problema. AI lahko različno učinkovito obravnava uporabnike glede na njihovo jezikovno spretnost, sposobnost formuliranja vprašanja, uporabo strokovne terminologije, dolžino poizvedbe ali digitalno pismenost. Bolj pravno ali tehnično vešč uporabnik bo pogosto znal iz sistema “izvleči” več kot povprečen uporabnik. S tem pa nastaja nevarnost, da digitalni kanal ne zmanjšuje, ampak povečuje neenakosti med zavezanci. To je etično in javnopravno posebej občutljivo, ker davčna uprava ne sme graditi sistema, v katerem boljši odgovor prejme predvsem tisti, ki bolje obvlada tehniko spraševanja. (2) (9) (10)

6.7 Odsotnost učinkovitega človeškega popravka

Sedmo tveganje je odsotnost učinkovitega človeškega popravka. Tudi najboljši AI sistem ni brez napak. Zato je ključno vprašanje, ali obstaja možnost hitrega in učinkovitega prehoda na človeka: ko sistem ne razume vprašanja, ko zazna visoko kompleksnost, ko obstaja tveganje napačnega odgovora ali ko uporabnik sam zahteva človeško pomoč. Če take poti ni, ostane zavezanec zaprt v avtomatiziran kanal brez možnosti korekcije, razlage ali individualne presoje. Tak položaj je v davčnem pravu posebej problematičen, ker se lahko pravno pomembno vprašanje reducira na tehnično omejitev sistema, namesto da bi bilo preusmerjeno v ustrezno strokovno obravnavo. OECD, IMF in širši governance okvirji zato upravičeno poudarjajo, da je human oversight temeljni element legitimne uporabe AI v javnem sektorju. (4) (5) (16)

6.8 Razpršena ali prikrita odgovornost

Osmo tveganje je razpršena ali prikrita odgovornost. Pri AI sistemih se odgovornost rada porazgubi med različne akterje: javni organ, zunanjo platformo, ponudnika modela, interno tehnično ekipo, “trenerje” vsebine, pravno službo in disclaimer, da so odgovori le informativni. Toda za uporabnika je ključno vprašanje preprosto: kdo odgovarja za to, da je prejel napačno, nepopolno ali nekonsistentno informacijo. Če organ ni sposoben jasno določiti vsebinske, pravne, organizacijske in tehnične odgovornosti, potem tveganje AI ni več le vprašanje napak, ampak vprašanje institucionalne nedoraslosti. Tehnologija ne sme postati sredstvo za zameglitev odgovornosti javne oblasti. (4) (7) (10) (16)

6.9 Nesledljivost sprememb in odsotnost revizijske sledi

Deveto tveganje je nesledljivost sprememb. Pri pravno občutljivih sistemih ni dovolj, da organ ve, da se sistem “izboljšuje” ali da se “sproti prilagaja”. Biti mora sposoben dokazati, katere spremembe so bile narejene, kdaj, kdo jih je odobril, po katerih kriterijih so bile testirane in kako je bilo preverjeno, ali izboljšava ni povzročila novih tveganj. Brez verzioniranja, change logov, poročil o testiranju, pravil o kakovosti in revizijske sledi ni mogoče forenzično razložiti, zakaj je sistem v določenem trenutku odgovoril tako, kot je. V davčnem kontekstu pa prav ta nesledljivost pomeni resen problem za pravno varnost, enakost obravnave in možnost naknadnega nadzora. (4) (6) (7) (16)

Iz vsega navedenega sledi, da glavna tveganja AI pri davčnih informacijah niso zunanja ali naključna, ampak notranje povezana z naravo same tehnologije in z načinom, kako jo organ upravlja. Netočnost, nepopolnost, zastarelost, nejasnost, nekonsistentnost, neenakost dostopa, odsotnost človeške korekcije, razpršena odgovornost in nesledljivost sprememb skupaj tvorijo nov tip tveganja za pravno državo v digitalnem okolju. Prav zato AI pri davčnih informacijah ne sme biti obravnavana kot običajna administrativna novost, temveč kot rights-sensitive tehnologija, katere legitimnost je odvisna od strogosti upravljanja in kakovosti varovalk. (4) (5) (10) (16)

Sklep tega poglavja je zato jasen: pri davčnem informiranju je problem AI manj v tem, da zna govoriti, in bolj v tem, ali zna država obvladovati posledice tega govora. Kjer teh tveganj ne prepozna, ne meri, ne dokumentira in ne obvladuje, tam uporaba AI ne pomeni modernizacije javne uprave, ampak povečanje pravne negotovosti pod tehnološko preobleko. (2) (4) (16)

 

Viri za VI. poglavje

(1) Canada Revenue Agency, Taxpayer Bill of Rights. Uradni standard pravic; izrecno določa pravico do “complete, accurate, clear, and timely information”.

(2) Taxpayers’ Ombudsperson, Taxpayer Rights in the Digital Age, 2020. Ombudsmanski dokument; ključen za argument, da digitalizacija brez ustreznih varovalk lahko tudi oslabi pravice davkoplačevalcev.

(3) OECD, Tax Administration 2025, 2025. OECD poročilo; širši okvir za kakovost storitev davčne administracije, digitalne kanale in raven informiranja davkoplačevalcev.

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; najpomembnejši neposredni vir za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(6) OECD, Tax Administration Digitalisation and Digital Transformation Initiatives, 2025. OECD poročilo; pomembno za taxpayer touchpoints, digitalne storitve in upravljanje podatkov.

(7) OECD, Tax Administration 3.0: From Vision to Strategy, 2025. OECD strateški dokument; pomemben za tezo, da AI v davčni upravi ne sme biti improvizacija, temveč del dokumentiranega upravljanja.

(9) OECD, Good Practice Principles for Data Ethics in the Public Sector, 2021. OECD načela; pomembna za data ethics, odgovornost in zaupanja vredno digitalno javno oblast.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

 

VII. Mednarodni okvir: OECD, IMF, davkoplačevalske pravice in governance AI

Teza tega članka ni zgolj vrednostna ali publicistična. Podpira jo tudi vse bolj jasen mednarodni normativni in upravljavski okvir, ki se oblikuje na presečišču davkoplačevalskih pravic, digitalne transformacije davčnih administracij in odgovorne uporabe umetne inteligence. Prav zato vprašanja AI v davčni upravi ni več mogoče obravnavati kot osamljene nacionalne inovacije ali kot notranje tehnične izbire posameznega organa. Gre za del širšega premika, v katerem se od davčnih administracij pričakuje, da bodo digitalizacijo izvajale na način, ki ne zmanjšuje pravne varnosti zavezanca, ampak jo krepi. (3) (4) (5) (10)

Prvi pomemben steber tega mednarodnega okvira so davkoplačevalske pravice. Kanadski Taxpayer Bill of Rights je v primerjalnem smislu posebej pomemben zato, ker pravico do informacije opredeli zelo jasno in vsebinsko bogato: ne gre zgolj za pravico do dostopa do informacij, temveč za pravico do informacij, ki so complete, accurate, clear, and timely. Ta formulacija je izjemno pomembna, ker izraža standard, po katerem je kakovost informacije sama po sebi del pravice davkoplačevalca. Ne zadošča, da organ nekaj odgovori; odgovor mora biti dovolj kakovosten, da davkoplačevalcu omogoča pravno razumno ravnanje. (1)

Drugi pomemben steber so dokumenti, ki opozarjajo, da lahko digitalizacija brez ustreznih varovalk tudi oslabi pravice, ki jih navidezno krepi. Prav v tem smislu je pomemben kanadski ombudsman za pravice davkoplačevalcev, ki v dokumentu Taxpayer Rights in the Digital Age opozori, da digitalni kanali sami po sebi niso jamstvo za večjo zaščito posameznika. Lahko povečajo dostopnost, vendar lahko hkrati ustvarijo nove ovire: zmanjšajo razumljivost, okrepijo odvisnost od tehničnih sistemov, otežijo prehod do človeške obravnave in povečajo nevarnost, da uporabnik prejme formalno hiter, vendar vsebinsko nezadosten odgovor. Ta uvid je za tematiko AI posebej pomemben, ker pokaže, da tehnološki napredek brez governance okvira lahko pomeni tudi regres z vidika pravic. (2)

Tretji steber predstavlja OECD-jev okvir za sodobno davčno administracijo. V novejših dokumentih OECD je jasno razvidno, da davčna uprava ni več razumljena zgolj kot aparat za pobiranje dajatev, temveč kot sistem, ki mora aktivno upravljati stik z davkoplačevalcem, digitalne kanale, kakovost komunikacije in zaupanje javnosti. Dokumenti, kot so Tax Administration 2025, Tax Administration Digitalisation and Digital Transformation Initiatives ter Tax Administration 3.0, vsi v različnih registrih poudarjajo pomen taxpayer touchpoints, boljše uporabniške poti, digitalne integracije in odgovornega upravljanja informacijskih tokov. To pomeni, da je kakovost davčnega informiranja del same definicije sodobne in legitimne davčne administracije. (3) (6) (7) (8)

Posebna vrednost OECD-jevih novejših dokumentov je v tem, da vprašanje umetne inteligence izrecno umestijo v davčni kontekst. Poglavje AI in tax administration v publikaciji Governing with Artificial Intelligence ni pomembno le zato, ker prepoznava potencial AI, ampak predvsem zato, ker jasno opozarja na vprašanja transparentnosti, zaupanja, odgovornosti, kakovosti in varstva pravic pri uporabi AI v davčni upravi. S tem OECD potrjuje, da uporaba AI v davčnem informiranju ni zgolj tehnološka optimizacija, ampak vprašanje, ki zadeva legitimnost delovanja javne oblasti. Prav ta OECD-jev premik je za tematiko članka ključen: potrjuje, da AI pri davkih ni mogoče razumeti ločeno od vprašanja davkoplačevalskih pravic. (4) (10)

Pomemben je tudi IMF. Njegova tehnična nota Understanding Artificial Intelligence in Tax and Customs Administration daje posebej uporaben okvir zato, ker obravnava AI v davčni in carinski administraciji z vidika konkretnih upravljavskih vprašanj: use-case scenarijev, pravnih in etičnih tveganj, organizacijskih pogojev uvedbe, človeškega nadzora ter odgovornosti deployerja. IMF s tem ne daje le splošne politične podpore digitalizaciji, temveč vzpostavlja precej discipliniran okvir, v katerem je AI dopustna le kot del odgovornega upravljanja. To dodatno potrjuje temeljno tezo članka: vrednost AI v davčni upravi ni v tem, da obstaja, ampak v tem, da je uvajana in uporabljana v okviru, ki varuje pravice zavezancev. (5)

Četrti steber mednarodnega okvira je širša javnoupravna in podatkovno-etična literatura OECD. Dokument Good Practice Principles for Data Ethics in the Public Sector je posebej pomemben zato, ker pokaže, da v javnem sektorju vprašanje podatkov in algoritmov nikoli ni zgolj vprašanje tehnične funkcionalnosti. Vedno je tudi vprašanje odgovornosti, nadzora, sorazmernosti, preglednosti in javnega zaupanja. Kadar država uporablja podatkovno intenzivne ali AI-podprte sisteme v stikih s posameznikom, mora upoštevati višji standard ravnanja kot zasebni sektor, saj deluje z avtoriteto javne oblasti. V davčnem kontekstu je to še toliko pomembnejše, ker gre za področje, kjer je razmerje med državo in posameznikom izrazito asimetrično. (9) (10)

Peti steber je evropski pravni okvir, predvsem Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Pomen te uredbe za temo članka ni le v posameznih členih, ampak v njeni temeljni normativni logiki: umetno inteligenco je treba presojati glede na njena tveganja za varnost in temeljne pravice, zanjo pa je treba zagotoviti transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in druge varovalke. S tem evropski pravni red potrjuje tisto, kar mednarodni strokovni dokumenti že poudarjajo: AI ni legitimna sama po sebi, ampak le, če je njena uporaba obvladovana na način, ki preprečuje škodo za pravice posameznika. (16)

Mednarodni okvir torej ni razdrobljen, ampak presenetljivo skladen. Kanadski standardi poudarjajo kakovost informacije kot pravico davkoplačevalca. Ombudsmanski pogled opozarja, da lahko digitalizacija brez varovalk pravice tudi oslabi. OECD razvija koncept sodobne davčne uprave kot sistema, ki mora odgovorno upravljati digitalne stike z uporabniki in kakovost komunikacije. IMF dodaja bolj operativen governance okvir za uvajanje AI v davčni in carinski administraciji. Evropska ureditev pa vse to poveže v formalni pravni okvir, ki zahteva obvladovanje tveganj, transparentnost, dokumentacijo in človeški nadzor. Skupni imenovalec vseh teh virov je jasen: pravica do točne, celovite, jasne in pravočasne davčne informacije ne sme biti žrtev digitalizacije, temveč mora biti njen preizkus. (1) (2) (4) (5) (10) (16)

Prav v tem je mednarodni okvir za ta članek posebej uporaben. Ne zahteva, da bi davčne uprave ostale analogne. Ne zanika, da je AI lahko koristno orodje. Toda zelo jasno zahteva, da je uporaba takih tehnologij podrejena višjim standardom odgovornosti, preverljivosti in varstva pravic. To pomeni, da razprava o AI v davčni upravi danes ni več razprava o tem, ali uporabiti tehnologijo, temveč pod kakšnimi pogoji jo je dopustno uporabiti, ne da bi se pri tem znižal standard pravne države. (4) (5) (7) (16)

Sklep tega poglavja je zato jasen: mednarodni okvir ne podpira neurejenega, slabo dokumentiranega ali zgolj disclaimersko omejenega davčnega AI-sistema. Podpira nasprotno: AI v davčni upravi je dopustna le kot del jasno opredeljenega, dokumentiranega in odgovornega governance modela, katerega osrednje merilo ostaja pravica davkoplačevalca do pravilne informacije. (1) (4) (5) (10) (16)

 

Viri za VII. poglavje

(1) Canada Revenue Agency, Taxpayer Bill of Rights. Uradni standard pravic; izrecno določa pravico do “complete, accurate, clear, and timely information”.

(2) Taxpayers’ Ombudsperson, Taxpayer Rights in the Digital Age, 2020. Ombudsmanski dokument; ključen za argument, da digitalizacija brez ustreznih varovalk lahko tudi oslabi pravice davkoplačevalcev.

(3) OECD, Tax Administration 2025, 2025. OECD poročilo; širši okvir za kakovost storitev davčne administracije, digitalne kanale in raven informiranja davkoplačevalcev.

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; najpomembnejši neposredni vir za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(6) OECD, Tax Administration Digitalisation and Digital Transformation Initiatives, 2025. OECD poročilo; pomembno za taxpayer touchpoints, digitalne storitve in upravljanje podatkov.

(7) OECD, Tax Administration 3.0: From Vision to Strategy, 2025. OECD strateški dokument; pomemben za tezo, da AI v davčni upravi ne sme biti improvizacija, temveč del dokumentiranega upravljanja.

(8) OECD, Tax Administration 3.0: The Digital Transformation of Tax Administration, 2020. OECD vizijski dokument; temeljni okvir za digitalno davčno upravo in uporabniške poti.

(9) OECD, Good Practice Principles for Data Ethics in the Public Sector, 2021. OECD načela; pomembna za data ethics, odgovornost in zaupanja vredno digitalno javno oblast.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

 

VIII. Vloga strokovnih in etičnih davčnih posrednikov

Če je pravica do točne, celovite, jasne in pravočasne davčne informacije jedrni element pravne varnosti davkoplačevalca, potem se v praksi ta pravica zelo pogosto ne uresničuje zgolj v neposrednem razmerju med zavezancem in davčno upravo. Uresničuje se tudi prek strokovnih davčnih posrednikov: davčnih svetovalcev, računovodij, pooblaščencev in drugih strokovnjakov, ki posamezniku pomagajo razumeti njegov položaj, pravilno uporabiti pravo in se varno orientirati v razmerju do države. Zato vloga davčnih posrednikov ni obrobna ali le storitvena, ampak je sistemsko pomembna za delovanje samega davčnega sistema. (11) (12)

To jasno izhaja iz dokumentov OECD. Študija Study into the Role of Tax Intermediaries že zgodaj opozori, da davčno razmerje v sodobnih sistemih pogosto ni zgolj dvostransko razmerje med državo in zavezancem, temveč tristransko razmerje med državo, zavezancem in davčnim posrednikom. Davčni posrednik pri tem ni le tehnični prenašalec dokumentov ali izvajalec računskih opravil, temveč akter, ki bistveno vpliva na to, kako zavezanec razume svoje obveznosti, kako strukturira ravnanje in kako komunicira z davčno upravo. Poznejši OECD dokument Rethinking Tax Services: The Changing Role of Tax Service Providers in SME Tax Compliance to logiko še okrepi: davčni ponudniki storitev so sistemsko pomembni za compliance, kakovost izpolnjevanja obveznosti in pravno predvidljivost ravnanja malih in srednjih podjetij. (11) (12)

Prav zato je treba davčnega posrednika razumeti kot nekakšnega prevajalca med normo in življenjsko situacijo. Pravni red je pogosto zapleten, razpršen med različne zakone, podzakonske akte, pojasnila, sodno prakso in upravne postopke. Posameznik ali podjetje pa ne živi v svetu abstraktnih norm, temveč v svetu konkretnih poslovnih odločitev, rokov, tveganj in posledic. Naloga strokovnega davčnega posrednika je prav v tem, da splošna pravila prevede v konkretno, pravno uporabno presojo. To pomeni, da posrednik ne opravlja le servisne funkcije, ampak funkcijo, ki je neposredno povezana z uresničevanjem pravice davkoplačevalca do pravilne informacije. (11) (13)

Ta vloga postane še pomembnejša v dobi digitalizacije in AI. Bolj ko se davčno informiranje seli v digitalne kanale, bolj je pomembno, da obstaja strokovni sloj, ki zna razlikovati med:

  • splošnim informativnim odgovorom,
  • avtomatiziranim povzetkom,
  • in pravno relevantno presojo konkretnega primera.

Davčni posrednik je zato eden ključnih varovalnih mehanizmov proti temu, da bi se davkoplačevalec izgubil med formalno dostopnostjo informacij in njihovo dejansko pravno kakovostjo. Prav v tem smislu AI ne zmanjšuje pomena davčnega posrednika, ampak ga povečuje. Kjer avtomatiziran sistem daje splošne ali potencialno nekonsistentne odgovore, tam raste vrednost strokovnjaka, ki zna preveriti vir, identificirati izjemo, opozoriti na procesni vidik in razmejiti med gotovim ter negotovim. (4) (5) (11)

Toda prav zato, ker imajo davčni posredniki tako pomembno vlogo, njihova funkcija ne more biti razumljena zgolj ekonomsko ali pogodbeno. Gre tudi za poklicno in etično odgovornost. Evropski parlament v študiji Regulation of intermediaries, including tax advisers, in the EU opozarja, da so davčni posredniki v evropskem prostoru različno regulirani, vendar kljub tem razlikam ostaja njihova vloga skupna: vplivajo na kakovost davčnega ravnanja, na stopnjo compliance in na to, kako se v praksi uresničujejo pravice ter obveznosti davkoplačevalcev. To pomeni, da vprašanje njihove usposobljenosti, regulacije in etičnih standardov ni le vprašanje notranjega trga poklicnih storitev, ampak tudi vprašanje kakovosti samega davčnega sistema. (14)

Pomemben je tudi dokument CFE Tax Advisers Europe – The role of tax advisers with regard to tax avoidance, ki poudarja, da davčni svetovalci niso zgolj zasebni zastopniki interesa stranke, temveč strokovnjaki, katerih delo mora biti vezano na kodekse ravnanja, poklicne standarde, integriteto in odgovornost. Čeprav je ta dokument posebej osredotočen na vprašanje davčnega izogibanja, je njegova širša poanta za temo tega članka zelo pomembna: davčni posrednik je vreden zaupanja le, če deluje kot strokovnjak z notranjimi omejitvami, etično disciplino in zavedanjem, da njegovo delo vpliva ne le na stranko, ampak tudi na legitimnost celotnega davčnega sistema. (15)

Iz tega sledi pomembna posledica za temo AI in davčne informacije. Če davčni posrednik deluje kot eden od mehanizmov, prek katerih se v praksi udejanja pravica do pravilne informacije, potem njegova vloga v digitalni dobi ne sme biti reducirana na pasivno ponavljanje avtomatiziranih odgovorov. Nasprotno: njegova strokovna vrednost se kaže prav v sposobnosti, da:

  • preveri pravilnost informacij,
  • loči med formalno dostopnim in pravno relevantnim,
  • identificira pravne in procesne neznanke,
  • ter stranki pojasni, kdaj digitalni kanal ni dovolj.

V tem smislu strokovni davčni posrednik ni konkurent digitalni davčni upravi, ampak njen nujni korektiv. Kjer je država digitalizirana, a pravno ne dovolj zanesljiva, postane strokovni posrednik še pomembnejši. Kjer pa tudi sam posrednik nekritično prevzema AI-odgovore brez preverjanja, se tveganje za davkoplačevalca samo podvoji. (4) (5) (11) (12)

Z vidika pravne države je zato prav, da se davčni posredniki obravnavajo kot del širše infrastrukture pravne varnosti. To ne pomeni, da nadomeščajo državo ali da organ zaradi njihovega obstoja lahko zniža standard lastnega informiranja. Pomeni pa, da v kompleksnem davčnem okolju prav oni pogosto omogočajo, da se splošna pravila pravilno prenesejo v konkretno prakso. Kadar so usposobljeni, regulirani in etično odgovorni, povečujejo kakovost compliance, zmanjšujejo napake, izboljšujejo predvidljivost in prispevajo k bolj uravnoteženemu razmerju med zavezancem in upravo. OECD-jev okvir Co-operative Compliance je v tem smislu zelo pomenljiv: poudarja, da zaupanje, zgodnja izmenjava informacij in profesionalno ravnanje posrednikov niso dodatna okrasja sistema, ampak pogoji za bolj zdravo davčno okolje. (13)

Sklep tega poglavja je zato jasen: strokovni in etični davčni posredniki so eden od ključnih stebrov uresničevanja pravice davkoplačevalca do pravilne informacije. Njihova funkcija ni zgolj tehnična ali komercialna, ampak javnopravno relevantna. Prav v dobi digitalizacije in AI postane jasno, da kakovost davčnega sistema ni odvisna le od tega, kako govori država, ampak tudi od tega, ali obstaja strokovni sloj, ki zna ta govor preveriti, razložiti, omejiti in prevesti v pravno varno ravnanje. (11) (12) (14) (15)

 

Viri za VIII. poglavje

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; pomembno za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(11) OECD, Rethinking Tax Services: The Changing Role of Tax Service Providers in SME Tax Compliance, 2016. OECD poročilo; eden ključnih virov za razumevanje, da so davčni ponudniki storitev sistemsko pomembni za compliance in kakovost davčnih informacij pri zavezancih.

(12) OECD, Study into the Role of Tax Intermediaries, 2008. OECD študija; klasičen vir o tristranskem razmerju: davčni zavezanec – davčna uprava – davčni posrednik.

(13) OECD, Co-operative Compliance: A Framework, 2013. OECD okvir; pomemben za argumente o zaupanju, zgodnji izmenjavi informacij, večji pravni predvidljivosti in profesionalni vlogi posrednikov.

(14) European Parliament, Regulation of intermediaries, including tax advisers, in the EU, 2022. Študija Evropskega parlamenta; pomemben evropski primerjalni vir o regulaciji davčnih posrednikov, njihovem položaju in vplivu na compliance.

(15) CFE Tax Advisers Europe, The role of tax advisers with regard to tax avoidance, 2016. Strokovno stališče; pomembno za del o etičnih davčnih posrednikih, kodeksih ravnanja, poklicni odgovornosti in neodvisnosti.

 

IX. Zakaj morajo biti davčni posredniki v dobi AI še posebej usposobljeni, regulirani in etično odgovorni

Če je v prejšnjem poglavju veljalo, da so strokovni davčni posredniki eden od ključnih stebrov uresničevanja pravice davkoplačevalca do pravilne informacije, potem je treba v dobi umetne inteligence napraviti naslednji korak: njihova vloga ni le pomembna, ampak postaja še zahtevnejša. AI namreč ne zmanjšuje potrebe po strokovnjaku, ampak jo povečuje. Več ko je v davčnem okolju digitalnih, avtomatiziranih in verjetnostnih odgovorov, večja je potreba po človeku, ki zna razlikovati med površinsko informacijo in pravno uporabno presojo. (4) (5) (11)

To je posledica same narave generativne AI. Tak sistem lahko hitro ponudi odgovor, lahko povzame pravno pravilo, lahko navede nekaj zakonskih določb in lahko deluje zelo prepričljivo. Toda prav v tem je njegova nevarnost: lahko ustvari tudi navidez strokovnosti brez dejanske pravne zanesljivosti. V takem okolju je naloga davčnega posrednika bistveno več kot le “uporabiti novo orodje”. Njegova naloga je preveriti, ali je rezultat AI pravno pravilen, ali je popoln, ali je procesno relevanten, ali upošteva dejanske okoliščine in ali je primeren za konkreten položaj stranke. Strokovnjak mora torej delovati kot filter, korektiv in končni nosilec presoje, ne pa kot pasivni distributer avtomatiziranih izhodov. (4) (5) (10)

Prav zato vloga davčnega posrednika v dobi AI zahteva višjo raven usposobljenosti. Ni več dovolj le poznavanje materialnega davčnega prava v klasičnem smislu. Strokovnjak mora razumeti tudi:

  • meje generativne AI,
  • tveganje halucinacij,
  • možnost nekonsistentnih odgovorov,
  • razliko med splošnim povzetkom in pravno argumentirano presojo,
  • ter potrebo po preverjanju primarnih virov.

To pomeni, da mora biti usposobljenost davčnega posrednika danes dvojna: pravna in tehnološko-metodološka. Ne zato, da bi postal programer ali sistemski arhitekt, temveč zato, da zna pravočasno prepoznati, kdaj AI pomaga in kdaj začne zavajati. (4) (5) (9)

Poleg usposobljenosti postaja še pomembnejša tudi reguliranost poklica. Evropski parlament v študiji o regulaciji davčnih posrednikov v EU pokaže, da je evropska slika neenotna, vendar prav zato dodatno izstopa skupno vprašanje: če imajo davčni posredniki realen vpliv na kakovost compliance, pravno varnost zavezancev in delovanje davčnega sistema, potem ni vseeno, pod kakšnimi standardi delujejo. V digitalni dobi je to vprašanje še ostrejše. Posrednik, ki uporablja AI brez jasnih notranjih pravil, brez metodologije preverjanja in brez strokovne discipline, lahko tveganja tehnologije prenese neposredno na stranko. Reguliranost zato ni zgolj poklicna zaščita trga, ampak tudi mehanizem varstva uporabnika in širše davčne pravičnosti. (14)

Zato je treba v dobi AI poklicne standarde razumeti strožje. Davčni posrednik ne sme enačiti hitro pripravljenega AI-osnutka s končnim davčnopravnim mnenjem. Ne sme zamolčati, da odgovor temelji na avtomatizirani obdelavi, če je to za presojo njegove kakovosti relevantno. Ne sme prezreti neznank v dejanskem stanju. Ne sme se izogniti preverjanju virov tam, kjer pravo ni enostavno, kjer je vprašanje procesno občutljivo ali kjer je tveganje za stranko veliko. Z drugimi besedami: uporaba AI ne zmanjšuje standarda profesionalne skrbnosti, ampak ga zaostruje. Kdor uporablja zmogljivo, a verjetnostno tehnologijo, mora pokazati več metodološke discipline, ne manj. (4) (5) (11) (15)

Posebno težo ima pri tem etična odgovornost. Dokument CFE Tax Advisers Europe upravičeno poudarja, da davčni svetovalec ni le zastopnik interesa stranke, ampak poklicni strokovnjak, katerega delo mora biti vezano na integriteto, kodekse ravnanja in odgovornost do pravnega reda. V dobi AI ta etični vidik dobi novo razsežnost. Strokovnjak namreč lahko zelo hitro zapade v skušnjavo, da tehnologijo uporabi kot orodje za povečanje produktivnosti, ne da bi hkrati zagotovil enako raven pravne zanesljivosti. Tu pa je meja zelo jasna: AI ne sme postati alibi za površnost. Če strokovnjak ve ali bi moral vedeti, da sistem lahko halucinira, da lahko izpušča bistvene okoliščine ali da lahko daje nekonsistentne odgovore, potem je njegova etična dolžnost, da tak izhod obravnava previdno, ne pa da ga brez preverjanja poda naprej kot svoj strokovni nasvet. (15)

Tu se znova pokaže, da vloga davčnega posrednika ni zasebna v ozkem smislu, ampak ima tudi širši sistemski učinek. OECD v dokumentih o davčnih posrednikih in co-operative compliance poudarja, da je kakovost dela posrednikov povezana z zaupanje vrednim in bolj predvidljivim davčnim okoljem. To pomeni, da usposobljen, reguliran in etično odgovoren posrednik ne koristi le posamezni stranki, ampak posredno prispeva tudi k bolj zdravemu davčnemu sistemu: manj napak, manj sporov, več razumevanja pravil in več predvidljivosti v razmerju do države. V okolju AI to pomeni, da lahko dober posrednik deluje kot protiutež tveganjem digitalnih kanalov, slab posrednik pa jih lahko še okrepi. (11) (12) (13)

V praksi bi to moralo pomeniti vsaj nekaj osnovnih standardov strokovnega ravnanja v dobi AI. Davčni posrednik bi moral:

  • preverjati ključne pravne trditve v primarnih virih,
  • jasno ločevati med osnutkom in končnim strokovnim mnenjem,
  • izrecno označiti predpostavke in neznanke,
  • uporabljati drugo preverjanje pri zahtevnejših zadevah,
  • ne slepo kopirati AI-izhodov,
  • ter biti sposoben stranki pojasniti meje avtomatiziranega odgovora.

Ti standardi niso dodatek k stroki, ampak njeno novo jedro. Brez njih se lahko zgodi, da digitalna orodja navidezno povečajo učinkovitost, dejansko pa razkrojijo prav tisto strokovno vrednost, zaradi katere davčni posrednik v sistemu sploh obstaja. (4) (5) (11) (15)

Prav tu se tudi najbolje vidi razlika med strokovnjakom, ki uporablja AI, in strokovnjakom, ki ga AI uporablja. Prvi uporablja tehnologijo kot pomožno sredstvo pod lastnim metodološkim nadzorom. Drugi pa se odločitveno podredi avtomatiziranemu izhodu in ga brez zadostne presoje pretvori v strokovni nasvet. Za davčni sistem je sprejemljiva le prva možnost. Druga pomeni degradacijo poklica, povečanje tveganj za stranko in dolgoročno tudi oslabitev zaupanja v strokovne davčne storitve. (4) (10) (14)

Sklep tega poglavja je zato jasen: v dobi AI morajo biti davčni posredniki še posebej usposobljeni, regulirani in etično odgovorni, ker se prav prek njihovega dela v veliki meri odloča, ali bo tehnologija v davčnem okolju delovala kot podporno orodje pravne varnosti ali kot pospeševalnik napačnih in površnih rešitev. Kjer je strokovnjak močan, discipliniran in etično zavezan, lahko AI ostane koristno pomožno orodje. Kjer pa je stroka metodološko šibka ali etično popustljiva, se tveganja tehnologije neposredno prelijejo na davkoplačevalca. (11) (12) (14) (15)

 

Viri za IX. poglavje

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; pomembno za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(9) OECD, Good Practice Principles for Data Ethics in the Public Sector, 2021. OECD načela; pomembna za data ethics, odgovornost in zaupanja vredno digitalno javno oblast.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(11) OECD, Rethinking Tax Services: The Changing Role of Tax Service Providers in SME Tax Compliance, 2016. OECD poročilo; eden ključnih virov za razumevanje, da so davčni ponudniki storitev sistemsko pomembni za compliance in kakovost davčnih informacij pri zavezancih.

(12) OECD, Study into the Role of Tax Intermediaries, 2008. OECD študija; klasičen vir o tristranskem razmerju: davčni zavezanec – davčna uprava – davčni posrednik.

(13) OECD, Co-operative Compliance: A Framework, 2013. OECD okvir; pomemben za argumente o zaupanju, zgodnji izmenjavi informacij, večji pravni predvidljivosti in profesionalni vlogi posrednikov.

(14) European Parliament, Regulation of intermediaries, including tax advisers, in the EU, 2022. Študija Evropskega parlamenta; pomemben evropski primerjalni vir o regulaciji davčnih posrednikov, njihovem položaju in vplivu na compliance.

(15) CFE Tax Advisers Europe, The role of tax advisers with regard to tax avoidance, 2016. Strokovno stališče; pomembno za del o etičnih davčnih posrednikih, kodeksih ravnanja, poklicni odgovornosti in neodvisnosti.

 

X. Davčna administracija in davčni posredniki kot dva stebra iste pravice

Pravica do točne, celovite, jasne in pravočasne davčne informacije se v sodobnem davčnem sistemu ne uresničuje po eni sami poti. Ne uresničuje se izključno prek neposrednega stika med davčnim zavezancem in davčno upravo, niti izključno prek zasebnega strokovnega svetovanja. V praksi jo nosita in soustvarjata dva stebra iste pravice: na eni strani davčna administracija kot javni organ, na drugi strani strokovni in etični davčni posredniki kot most med normo in konkretnim položajem zavezanca. Šele če oba delujeta kakovostno, se lahko pravica davkoplačevalca do pravilne informacije zares učinkovito uresniči. (1) (3) (11) (12)

Prvi steber je seveda davčna administracija. Ker razpolaga z javno oblastjo, informacijami, uradnimi stališči, tehnično infrastrukturo in položajem institucionalne avtoritete, nosi primarno odgovornost za to, da je informacijski okvir, ki ga ponuja javnosti, zanesljiv, predvidljiv in pravno varen. Država od davkoplačevalca legitimno pričakuje pravilno izpolnjevanje obveznosti, toda ta zahteva je upravičena le, če hkrati sama zagotavlja dovolj kakovostne pogoje za razumevanje teh obveznosti. Davčna uprava zato ne more svoje vloge reducirati na golo formalno dostopnost informacij ali na minimalistično opozorilo, da so odgovori le informativni. Njena naloga je bistveno širša: zagotoviti mora, da je informiranje kot funkcija javne oblasti organizirano tako, da podpira pravno varnost zavezanca. (1) (3) (4) (16)

Drugi steber so davčni posredniki. Njihova vloga je drugačna, vendar nič manj pomembna. Če davčna uprava tvori uradni informacijski okvir, ga davčni posredniki prevajajo v konkretno uporabo. Oni so tisti, ki morajo iz splošnega pravila narediti individualno presojo, iz formalne informacije izluščiti pravno relevanco in iz kompleksnega sistema oblikovati uporaben odgovor za konkretno stranko. Prav zaradi tega dokumenti OECD davčne posrednike obravnavajo kot sistemsko pomembne akterje davčnega okolja, ne le kot zasebne ponudnike storitev. V sodobnem sistemu compliance so del širšega mehanizma, ki omogoča, da se davčna pravila ne le razglasijo, ampak tudi pravilno razumejo in uporabijo. (11) (12) (13)

Ta dvojna struktura je posebej pomembna zato, ker se v praksi obe ravni dopolnjujeta. Davčna uprava brez kakovostnega strokovnega prostora težje doseže, da bodo zapletena pravila pravilno prenesena v življenje. Davčni posredniki brez dovolj kakovostnega javnega informacijskega okvira težje opravljajo svoje delo, ker se znajdejo v okolju večje negotovosti, več popravkov, več sporov in manj predvidljivosti. Zato med obema stebroma ne bi smelo biti razumljenega nasprotja. Ne gre za izbiro med javnim in zasebnim, med državo in svetovalcem, ampak za vprašanje, ali sta oba dela sistema dovolj kakovostna, da skupaj varujeta pravico davkoplačevalca do pravilne informacije. (3) (11) (13)

To velja še toliko bolj v dobi digitalizacije in umetne inteligence. Bolj ko davčna administracija uporablja avtomatizirane, digitalne in AI-podprte kanale, bolj pomembno je, da obstaja tudi strokovni korektiv, ki zna te informacije ovrednotiti, preveriti in po potrebi omejiti njihov doseg. Toda tudi obratno velja: bolj ko davčni posredniki pri svojem delu uporabljajo AI, bolj pomembno je, da obstaja javni organ, ki ne znižuje standarda lastnega informiranja in ki ohranja dovolj jasno, sledljivo in odgovorno strukturo uradnih informacijskih kanalov. Če eden od obeh stebrov oslabi, pritisk takoj pade na drugega. Če oslabita oba, pa se tveganje neposredno prelije na davkoplačevalca. (4) (5) (11) (15)

Prav tu se pokaže tudi bistvena razlika med zdravo in nezdravo digitalizacijo davčnega sistema. V zdravi digitalizaciji davčna uprava uporablja tehnologijo za izboljšanje začetne orientacije, dostopnosti in učinkovitosti, pri čemer ohranja jasen governance okvir, strokovni nadzor in možnost človeške korekcije. Davčni posredniki pa tehnologijo uporabljajo kot pomožno sredstvo, ne kot nadomestek lastne presoje, ter s tem dodatno krepijo pravno varnost strank. V nezdravi digitalizaciji pa oba stebra začneta popuščati: davčna uprava odgovornost potiska v disclaimerske formule in tehnične platforme, davčni posredniki pa avtomatizirane izhode nekritično pretvarjajo v strokovno svetovanje. Rezultat ni več večja dostopnost pravic, ampak večja nejasnost, večja nekonsistentnost in večje tveganje za posameznika. (4) (5) (10) (16)

Zato je treba oba stebra presojati tudi po skupnem merilu: ali delujeta kot dvojni varovalni mehanizem pravne varnosti davkoplačevalca. Davčna administracija mora zagotoviti, da je javni informacijski okvir zanesljiv, dokumentiran in pravičen. Davčni posredniki morajo zagotoviti, da se ta okvir strokovno, individualizirano in etično uporabi v konkretnem primeru. Prva brez drugih ne zadostuje, ker država ne more individualno prevajati vseh življenjskih situacij. Drugi brez prve prav tako ne zadostujejo, ker zasebni strokovni prostor ne more nadomestiti institucionalne odgovornosti države za kakovost javnega informacijskega okolja. Šele skupaj tvorita sistem, v katerem je pravica do pravilne davčne informacije dejansko živa pravica, ne zgolj deklaracija. (1) (11) (12) (13)

To je pomembno tudi z vidika legitimnosti celotnega davčnega sistema. Davčni zavezanec sistem dojema kot razumen in pravičen le, če lahko verjame, da pravila niso le zapisana, ampak tudi dostopna v kakovostni, razumljivi in preverljivi obliki. Pri tem ni bistveno le, kaj piše v zakonu, ampak tudi kako sistem kot celota govori z njim: kako govori uprava, kako govorijo strokovnjaki, kako se odpravljajo napake in kako se razmejuje odgovornost. Če sta oba stebra močna, sistem deluje kot okolje pravne predvidljivosti. Če sta šibka, začne davčno pravo za posameznika delovati kot polje ugibanja, naknadnih popravkov in povečane negotovosti. (1) (3) (10)

Iz tega sledi pomembna normativna posledica za nadaljnjo analizo članka. Ko bomo presojali uporabo AI v davčni upravi, je ne smemo meriti le po tem, ali je digitalni kanal tehnično zanimiv ali navidezno praktičen. Meriti jo moramo tudi po tem, ali krepi ali slabi ta dvojni varovalni mehanizem. Če AI pomaga državi bolje informirati in pomaga stroki bolje preverjati, potem prispeva k pravni varnosti. Če pa državi omogoča manj odgovornosti, stroki pa več površnosti, potem dejansko spodkopava oba stebra iste pravice. (4) (5) (11) (15) (16)

Sklep tega poglavja je zato jasen: davčna administracija in strokovni ter etični davčni posredniki nista dva ločena svetova, ampak dva stebra iste pravice. Prva nosi odgovornost za javni informacijski okvir, drugi za njegovo strokovno prevajanje v konkretno pravno ravnanje. Šele kadar oba delujeta odgovorno, usklajeno in pod visokimi standardi, lahko davkoplačevalec res uživa pravico do točne, celovite, jasne in pravočasne davčne informacije. (1) (3) (11) (13) (15)

 

Viri za X. poglavje

(1) Canada Revenue Agency, Taxpayer Bill of Rights. Uradni standard pravic; izrecno določa pravico do “complete, accurate, clear, and timely information”.

(3) OECD, Tax Administration 2025, 2025. OECD poročilo; širši okvir za kakovost storitev davčne administracije, digitalne kanale in raven informiranja davkoplačevalcev.

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; pomembno za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(11) OECD, Rethinking Tax Services: The Changing Role of Tax Service Providers in SME Tax Compliance, 2016. OECD poročilo; eden ključnih virov za razumevanje, da so davčni ponudniki storitev sistemsko pomembni za compliance in kakovost davčnih informacij pri zavezancih.

(12) OECD, Study into the Role of Tax Intermediaries, 2008. OECD študija; klasičen vir o tristranskem razmerju: davčni zavezanec – davčna uprava – davčni posrednik.

(13) OECD, Co-operative Compliance: A Framework, 2013. OECD okvir; pomemben za argumente o zaupanju, zgodnji izmenjavi informacij, večji pravni predvidljivosti in profesionalni vlogi posrednikov.

(15) CFE Tax Advisers Europe, The role of tax advisers with regard to tax avoidance, 2016. Strokovno stališče; pomembno za del o etičnih davčnih posrednikih, kodeksih ravnanja, poklicni odgovornosti in neodvisnosti.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

 

XI. Kaj pomeni dober standard upravljanja AI v davčni administraciji

Če je umetna inteligenca v davčni upravi dopustna le pod strogimi pogoji, je naslednje ključno vprašanje, kaj ti pogoji v resnici pomenijo v upravljavskem smislu. Ni dovolj, da organ pove, da uporablja AI, da uporabnika opozori na informativno naravo odgovorov ali da splošno zatrdi, da gre za sistem z omejenim tveganjem. Dober standard upravljanja AI v davčni upravi pomeni bistveno več: pomeni, da je sistem umeščen v jasno, dokumentirano, sledljivo in odgovorno organizacijsko strukturo, ki omogoča nadzor nad njegovim delovanjem, popravljanje napak in učinkovito varstvo pravic davkoplačevalca. Prav v tem smislu OECD, IMF in evropski pravni okvir ne govorijo zgolj o tehnologiji, temveč o governance, risk managementu, human oversight in dokazljivosti organizacijskih odločitev. (4) (5) (7) (10) (16)

Prvi element dobrega standarda je jasna opredelitev namena sistema. Organ mora biti sposoben natančno opredeliti, čemu sistem služi: ali gre za orientacijo uporabnika, za odgovore na pogosta splošna vprašanja, za usmerjanje med kanali, za podporo pri izpolnjevanju obrazcev ali za širše informativne funkcije. Brez jasnega namena ni mogoče niti določiti meja uporabe niti smiselno oceniti tveganj. Prav zato OECD v dokumentih o Tax Administration 3.0 in digitalni transformaciji poudarja, da mora biti digitalno orodje umeščeno v celovito strategijo interakcije z davkoplačevalcem, ne pa uvajano kot nepovezan tehnični dodatek. Namen sistema je izhodišče za vse ostalo: za omejitve, za nadzor, za odgovornost in za presojo sprejemljivosti uporabe. (6) (7) (8)

Drugi element je jasno določen vsebinski doseg in meje uporabe. Dober standard upravljanja ne dopušča, da bi AI delovala v navidezno univerzalnem prostoru, kjer ni jasno, na katera vprašanja sme odgovoriti, kje mora odgovor omejiti in kdaj mora uporabnika obvezno preusmeriti na človeka ali drug kanal. Pri pravno občutljivih vsebinah mora obstajati dokumentirana odločitev, ali je področje sploh primerno za avtomatizirano obravnavo, pod kakšnimi pogoji in z kakšnimi opozorili. IMF posebej poudarja pomen natančno določenih use-case scenarijev in opozarja, da se tveganja hitro povečajo, kadar sistem deluje brez jasno določenega predmetnega dosega. Dober governance zato ni odprtost brez meja, ampak disciplina meja. (5) (7)

Tretji element je formalizirana governance struktura. To pomeni, da mora biti jasno, kdo v organu nosi vsebinsko-pravno odgovornost za odgovore, kdo tehnično upravlja sistem, kdo odloča o spremembah, kdo potrjuje širitev vsebinskih področij, kdo spremlja kakovost in kdo obravnava napake ali konflikte. V resnem upravljavskem okviru odgovornost ne sme biti razpršena med “sistem”, “platformo”, “trenerje”, “ponudnika” in splošne disclaimerske formule. OECD in širši javnoupravni okvir o AI poudarjata, da je zaupanje javnosti odvisno prav od tega, ali so vloge in odgovornosti določene, razumljive in preverljive. Če te strukture ni, ni mogoče govoriti o dobrem upravljanju, ampak o improvizaciji. (4) (9) (10)

Četrti element je upravljanje tveganj. Dober standard AI governance v davčni upravi zahteva, da organ tveganja ne obravnava naknadno, ko se pojavijo konkretne težave, temveč vnaprej in sistematično. To vključuje prepoznavanje scenarijev napak, oceno njihove verjetnosti in posledic, določitev kontrol, periodične preglede ter po potrebi stop-mehanizme za omejitev ali začasno ustavitev delovanja sistema na problematičnih področjih. Umetna inteligenca v davčnem okolju ustvarja posebna tveganja za netočnost, nepopolnost, nekonsistentnost, nepravočasnost in neenakost obravnave. Če organ teh tveganj ne identificira in ne obvladuje strukturirano, potem sistema ne upravlja, ampak ga zgolj uporablja. To pa je v javnopravno občutljivem okolju premalo. (4) (5) (16)

Peti element je human oversight, vendar ne v simbolnem, temveč v operativnem smislu. Dober standard upravljanja zahteva jasno določena pravila:

  • kdo spremlja odgovore sistema,
  • kdo lahko popravi vsebino,
  • kdo odloča o omejitvah sistema,
  • kdaj je obvezen prehod na človeka,
  • kdo lahko sistem začasno ustavi,
  • in kako se zagotavlja, da pri pravno občutljivih vprašanjih AI ne ostane brez odgovorne človeške korekcije.

V tem je tudi širša logika AI Act: ni dovolj, da človek nekje abstraktno “obstaja v ozadju”; nadzor mora biti dejanski, smiseln in sposoben preprečevati ali popravljati škodljive učinke. V davčni upravi to pomeni, da mora obstajati realna in učinkovita pot od avtomatiziranega odgovora do strokovne človeške presoje. (5) (10) (16)

Šesti element je dokumentirano upravljanje sprememb. AI sistem v praksi nikoli ni statičen: spreminjajo se vsebine, baze znanja, pravila omejitev, konfiguracije, modeli, prompti, poti usmerjanja in logika filtrov. Dober standard upravljanja zato nujno vključuje verzioniranje, change loge, release notes, odobritve sprememb, dokumentirane teste in revizijsko sled. Brez tega organ ne more pojasniti, zakaj je sistem v določenem trenutku odgovoril tako, kot je, niti ne more preveriti, ali je neka sprememba izboljšala ali poslabšala kakovost delovanja. Sledljivost sprememb ni tehnična luksuzna funkcija, ampak pravni in upravljavski minimum za sistem, ki deluje v prostoru pravic in obveznosti posameznika. (4) (6) (7) (16)

Sedmi element je spremljanje kakovosti in merjenje napak. Dober standard upravljanja ne more temeljiti na splošnem vtisu, da sistem “večinoma deluje”. Organ mora imeti mehanizme za spremljanje kakovosti, za zaznavanje konfliktnih odgovorov, za identifikacijo napačnih zavrnitev, za analizo nekonsistentnosti ter za periodično vrednotenje delovanja sistema. OECD in IMF oba poudarjata, da je legitimna uporaba AI odvisna tudi od sposobnosti, da se delovanje sistema meri, ocenjuje in izboljšuje na podlagi dokazov. Kjer organ napak ne meri, jih v resnici ne obvladuje. Kjer nekonsistentnosti ne analizira, je ne more zmanjšati. Pri davčnih informacijah pa prav to pomeni tveganje za pravno varnost. (4) (5) (6)

Osmi element je logiranje in revizijska sled. Organ mora vedeti, kaj se beleži, kdo ima dostop, kako dolgo se podatki hranijo, katere elemente interakcije je mogoče rekonstruirati in kako se dokumentira obravnava napak ali uporabniških opozoril. Dober standard ne zahteva nujno neskončnega shranjevanja vsega, zahteva pa takšno raven revizijske sledi, ki omogoča preverjanje delovanja sistema, analizo spornih odgovorov in ugotavljanje odgovornosti. Prav pri AI-sistemih je revizijska sled eden ključnih elementov za razlikovanje med odgovorno javno upravo in tehnološko nepreglednim eksperimentom. (5) (16)

Deveti element je transparentnost do uporabnika, vendar razumljena celovito. Uporabnik mora vedeti, da komunicira z AI. Poleg tega pa mora razumeti tudi, kakšen je pravni status odgovora, katera so področja omejitve, kdaj je treba uporabiti drug kanal in kako priti do človeške pomoči. Dober standard transparentnosti zato ni zgolj opozorilo “komunicirate z umetno inteligenco”, ampak pregledno pojasnilo o naravi sistema, njegovih mejah in poti do dodatne zaščite. OECD-jev governance okvir in AI Act oba nakazujeta, da transparentnost ni sama sebi namen, temveč instrument pravilnega umerjanja zaupanja uporabnika v rezultat sistema. (4) (10) (16)

Deseti element je skladnost z etičnimi in pravnimi standardi skozi celoten življenjski cikel sistema. Dober standard upravljanja ne pomeni enkratne odločitve ob uvedbi sistema, temveč trajno obveznost: od zasnove, razvoja in izbire podatkov, prek testiranja in uvedbe, do spremljanja, popravljanja in morebitne omejitve ali opustitve sistema. Prav zato so v resnih primerjalnih modelih tako pomembne strategije, metodologije in etični okvirji. Ti ne pomenijo administrativne dekoracije, ampak mehanizem, s katerim organ pokaže, da razume AI kot rights-sensitive dejavnost, ne kot improvizirano tehnično rešitev. (7) (9) (10) (16)

Iz vsega tega sledi, da dober standard upravljanja AI v davčni upravi ni neka ena sama zahteva, ampak sistem medsebojno povezanih pogojev: jasen namen, določen doseg, formalizirana governance struktura, upravljanje tveganj, human oversight, change management, spremljanje kakovosti, logiranje, transparentnost in trajna pravna ter etična skladnost. Kjer ti elementi obstajajo in so dokumentirani, lahko AI ostane pomožno orodje znotraj pravne države. Kjer manjkajo, pa se digitalizacija hitro spremeni v organizacijsko nepreglednost, pravno nepredvidljivost in razpršeno odgovornost. (4) (5) (7) (10) (16)

Sklep tega poglavja je zato jasen: dober standard upravljanja AI v davčni upravi pomeni dokazljivo governance arhitekturo, ne zgolj tehnološko funkcionalnost. Sistem ni sprejemljiv zato, ker govori hitro, ampak zato, ker je mogoče preveriti, kdo ga upravlja, kako se spreminja, kako se nadzoruje, kako se popravlja in kako se z njim varujejo pravice davkoplačevalca. Prav to je merilo legitimne uporabe AI v davčnem kontekstu. (4) (10) (16)

 

Viri za XI. poglavje

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; pomembno za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(6) OECD, Tax Administration Digitalisation and Digital Transformation Initiatives, 2025. OECD poročilo; pomembno za taxpayer touchpoints, digitalne storitve in upravljanje podatkov.

(7) OECD, Tax Administration 3.0: From Vision to Strategy, 2025. OECD strateški dokument; pomemben za tezo, da AI v davčni upravi ne sme biti improvizacija, temveč del dokumentiranega upravljanja.

(8) OECD, Tax Administration 3.0: The Digital Transformation of Tax Administration, 2020. OECD vizijski dokument; temeljni okvir za digitalno davčno upravo in uporabniške poti.

(9) OECD, Good Practice Principles for Data Ethics in the Public Sector, 2021. OECD načela; pomembna za data ethics, odgovornost in zaupanja vredno digitalno javno oblast.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

 

XII. Kaj pomeni dober standard strokovnega ravnanja davčnih posrednikov v dobi AI

Če dober standard upravljanja AI v davčni upravi pomeni jasno in dokazljivo governance arhitekturo na strani države, potem mora obstajati tudi ustrezen strokovni standard ravnanja na strani davčnih posrednikov. Umetna inteligenca namreč ne spreminja le države, ampak tudi poklicno delo tistih, ki davkoplačevalcem pomagajo razumeti in uporabljati pravo. Prav zato v dobi AI ni več dovolj, da je davčni posrednik strokovno dober v klasičnem smislu. Biti mora tudi metodološko discipliniran, tehnološko dovolj pismen in etično dovolj čvrst, da lahko novo orodje uporablja brez znižanja standarda pravne varnosti za stranko. (4) (5) (11) (15)

Prvi element dobrega standarda strokovnega ravnanja je primat primarnih pravnih virov. AI lahko pomaga pri orientaciji, strukturiranju vprašanja, pripravi osnutka ali identifikaciji relevantnih pojmov, ne more pa nadomestiti preverjanja v zakonu, podzakonskem aktu, uradnem pojasnilu, sodni praksi ali drugem verodostojnem pravnem viru. Dober davčni posrednik zato ne sme obravnavati AI-izhoda kot samostojnega dokazila pravilnosti. Obravnavati ga mora kot pomožno delovno gradivo, ki ga je treba preveriti proti pravnim virom. Prav v tem je osnovna razlika med strokovnim ravnanjem in tehnično improvizacijo. Kdor daje davčni nasvet brez preverjanja primarnega pravnega vira, ne uporablja AI kot orodja, ampak jo postavlja na mesto pravne presoje. To pa je v strokovnem smislu nesprejemljivo. (4) (5) (15)

Drugi element je jasna razmejitev med osnutkom in končnim strokovnim mnenjem. Eden največjih praktičnih problemov generativne AI je ravno ta, da lahko zelo hitro izdela jezikovno urejen, na videz logičen in strukturiran tekst, ki deluje kot dokončen strokovni odgovor. Toda dober davčni posrednik mora biti sposoben tak izhod obravnavati zgolj kot osnutek ali delovni material, dokler ni preverjena njegova pravna pravilnost, popolnost, aktualnost in relevantnost za konkretni primer. V dobi AI je zato nujna nova notranja profesionalna disciplina: tisto, kar pride iz sistema, ni strokovno mnenje, dokler ni prestalo človeške pravne presoje. (4) (5) (10)

Tretji element je izrecno označevanje predpostavk, neznank in meja gotovosti. Davčnopravna vprašanja so pogosto odvisna od dejanskih podrobnosti, procesnega položaja, datuma nastanka okoliščin, vrste listin, preteklih ravnanj ali posebnosti konkretnega subjekta. AI pa ima močno tendenco, da tam, kjer dejstva niso znana, “zgladi” odgovor in ustvari navidezno celovitost. Dober davčni posrednik mora narediti ravno nasprotno: jasno mora ločiti med tem, kar je zanesljivo znano, in tem, kar je pogojeno s predpostavkami ali dodatnimi dejstvi. Kjer so neznanke, jih mora izrecno navesti. Kjer je več možnih pravnih poti, jih mora pojasniti. Kjer obstaja dvom, ga ne sme prikriti z lepo formulacijo. V tem smislu je dober standard strokovnega ravnanja v dobi AI tudi standard poštenega razkritja negotovosti. (5) (11) (15)

Četrti element je prepoved slepega kopiranja AI-izhodov. To ni le metodološko vprašanje, ampak tudi vprašanje poklicne etike. Kdor avtomatiziran odgovor brez zadostne presoje prenese v davčno mnenje, dopis stranki ali strokovni dokument, dejansko prenese tudi tveganja sistema neposredno na stranko. Tako ravnanje lahko ustvarja vtis strokovne avtoritete, v resnici pa gre lahko le za nepreverjen strojni izhod v bolj formalni preobleki. CFE Tax Advisers Europe upravičeno poudarja pomen poklicne integritete, kodeksov ravnanja in strokovne odgovornosti; v dobi AI to pomeni tudi obveznost, da strokovnjak ne prikrije, kje se konča njegov lasten premislek in kje se začne avtomatizirano generirani osnutek. (15)

Peti element je uporaba drugega preverjanja pri zahtevnejših zadevah. Davčno pravo pogosto odpira kompleksna vprašanja, ki imajo večplasten materialnopravni, procesni, računovodski, mednarodni ali ustavnopravni vidik. V takih zadevah dober standard ravnanja pomeni, da se AI nikoli ne uporablja kot edini podporni sloj. Potrebno je drugo preverjanje: bodisi v drugem pravnem viru, drugem strokovnem mnenju, internem kolegialnem pregledu, sodni praksi ali v posebni metodološki kontroli. Prav tu postane jasno, da AI ne skrajšuje potrebe po drugi ravni presoje, ampak jo povečuje. Bolj ko je vprašanje kompleksno, manj je sprejemljivo, da bi strokovnjak zaupal enemu samemu avtomatiziranemu izhodu. (4) (5) (11)

Šesti element je metodološka sposobnost razlikovanja med splošnim odgovorom in pravno relevantno individualno presojo. AI zelo dobro deluje v prostoru splošnih pravil, povzetkov in tipičnih primerov. Veliko slabše pa deluje tam, kjer je odgovor odvisen od finih razlik v dejanskem stanju ali od posebne procesne faze. Dober davčni posrednik mora zato ves čas vedeti, na kateri ravni se nahaja. Ali gre za splošno pojasnilo? Ali gre za začasno orientacijo? Ali pa gre za vprašanje, kjer je treba oblikovati konkretno, individualno, strokovno odgovorno stališče? Če te razlike ne zna vzdrževati, potem tudi ne more varno uporabljati AI. V davčni stroki je namreč največ napak prav tam, kjer se splošno pravilo nekritično uporabi na individualen primer. (11) (12) (14)

Sedmi element je jasna odgovornost do stranke in do pravnega reda. Davčni posrednik je v specifičnem položaju. Po eni strani deluje v interesu stranke, po drugi strani pa je kot strokovnjak vezan na poklicne standarde, integriteto in odgovornost do pravnega reda. Ta dvojna odgovornost v dobi AI postane še ostrejša. Ni dovolj, da je AI-orodje hitro, uporabno ali tržno učinkovito. Ključno je, ali njegova uporaba vodi v strokovno zanesljiv rezultat. Kjer tega ni, mora strokovnjak sistem omejiti, rezultat popraviti ali pa AI sploh ne uporabiti. Poklicna odgovornost zato v dobi AI vključuje tudi dolžnost, da strokovnjak zavrne tehnologijo tam, kjer bi njena uporaba povečala tveganje za stranko ali zmanjšala kakovost pravne presoje. (14) (15)

Osmi element je notranja dokumentiranost dela. Dober davčni posrednik v dobi AI ne sme delovati po modelu “vprašaj sistem in posreduj odgovor”. Njegovo delo mora biti interno sledljivo: razvidno mora biti, kateri pravni viri so bili preverjeni, katere predpostavke so bile uporabljene, kje so bila odprta vprašanja, ali je bilo opravljeno drugo preverjanje in kaj predstavlja končni strokovni sklep. Ta notranja sled ni pomembna le zaradi kvalitete dela, ampak tudi zaradi lastne poklicne zaščite. Kjer obstaja sporna zadeva, mora biti strokovnjak sposoben pojasniti, kako je prišel do zaključka in zakaj avtomatiziranega osnutka ni nekritično prevzel. (5) (11) (15)

Deveti element je stalno usposabljanje. AI je dinamično področje. Spreminjajo se orodja, modeli, načini integracije v poklicno delo in tveganja njihove uporabe. Zato dober standard strokovnega ravnanja ne more biti enkraten. Zahteva stalno nadgrajevanje znanja: ne le o davčnem pravu, ampak tudi o načinu, kako AI deluje, kje so njene meje, katere vrste napak so tipične in kako jih prepoznati v praksi. Kdor uporablja AI brez stalnega usposabljanja, tvega, da bo tehnologijo obravnaval bolj samozavestno, kot jo v resnici razume. V davčni stroki pa je prav ta kombinacija navidezne gotovosti in metodološke nepoučenosti posebej nevarna. (4) (5) (9)

Deseti element je etična odpornost proti produktivistični skušnjavi. AI je privlačna tudi zato, ker obljublja hitrost, obseg in nižje stroške priprave gradiv. Toda prav tu se skriva ena največjih nevarnosti za strokovni standard: da bi se strokovna kakovost tiho podredila logiki produktivnosti. Dober standard ravnanja v dobi AI zato pomeni tudi zavestno zavoro proti skušnjavi, da bi bilo več narejenega hitreje avtomatično razumljeno kot napredek. V davčnem svetovanju je merilo drugačno: boljši odgovor ni tisti, ki je izdelan hitreje, ampak tisti, ki je pravno bolj zanesljiv, bolj pregleden in manj tvegan za stranko. Če AI to omogoča, je koristna. Če pa spodbuja hitrost na račun discipline, postane profesionalno nevarna. (10) (15)

Iz vsega tega sledi, da dober standard strokovnega ravnanja davčnih posrednikov v dobi AI ni dodatni etični luksuz, ampak novo jedro poklicne kakovosti. Temelji na preverjanju primarnih virov, jasni razmejitvi med osnutkom in mnenjem, označevanju negotovosti, prepovedi slepega kopiranja, drugem preverjanju, razlikovanju med splošnim in individualnim, odgovornosti do stranke in pravnega reda, notranji dokumentiranosti dela, stalnem usposabljanju in odpornosti proti produktivistični površnosti. Kjer so ti elementi navzoči, lahko AI ostane koristno pomožno sredstvo. Kjer jih ni, tehnologija ne izboljša stroke, ampak jo erodira od znotraj. (4) (5) (11) (15)

Sklep tega poglavja je zato jasen: dober standard strokovnega ravnanja davčnih posrednikov v dobi AI pomeni, da tehnologija nikoli ne prevzame mesta metodološke discipline, strokovne presoje in etične odgovornosti. Kakovosten posrednik uporablja AI kot podporno orodje pod lastnim strokovnim nadzorom. Nekakovosten pa se ji podredi in s tem prenese njena tveganja na stranko. V davčnem sistemu, ki želi ostati pravno varen, je sprejemljiva samo prva pot. (11) (12) (14) (15)

 

Viri za XII. poglavje

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; pomembno za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(9) OECD, Good Practice Principles for Data Ethics in the Public Sector, 2021. OECD načela; pomembna za data ethics, odgovornost in zaupanja vredno digitalno javno oblast.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(11) OECD, Rethinking Tax Services: The Changing Role of Tax Service Providers in SME Tax Compliance, 2016. OECD poročilo; eden ključnih virov za razumevanje, da so davčni ponudniki storitev sistemsko pomembni za compliance in kakovost davčnih informacij pri zavezancih.

(12) OECD, Study into the Role of Tax Intermediaries, 2008. OECD študija; klasičen vir o tristranskem razmerju: davčni zavezanec – davčna uprava – davčni posrednik.

(14) European Parliament, Regulation of intermediaries, including tax advisers, in the EU, 2022. Študija Evropskega parlamenta; pomemben evropski primerjalni vir o regulaciji davčnih posrednikov, njihovem položaju in vplivu na compliance.

(15) CFE Tax Advisers Europe, The role of tax advisers with regard to tax avoidance, 2016. Strokovno stališče; pomembno za del o etičnih davčnih posrednikih, kodeksih ravnanja, poklicni odgovornosti in neodvisnosti.

 

XIII. Slovenski izziv: Slovenija ne potrebuje le več digitalizacije, ampak bolj odgovorno digitalizacijo

Slovenski javni prostor o digitalizaciji zelo rad govori v jeziku hitrosti, posodobitve, uporabniške prijaznosti in tehnološkega napredka. Toda pri davčni upravi to ni dovolj. Država ni uspešno digitalizirana že zato, ker je določen kanal dostopen 24 ur na dan, ker odgovor prispe hitreje ali ker je uporabniška pot formalno krajša. V davčnem pravu je ključno nekaj drugega: ali digitalizacija povečuje pravno varnost davkoplačevalca ali pa jo pod videzom sodobnosti dejansko zmanjšuje. Prav v tem smislu Slovenija ne potrebuje le več digitalizacije, ampak predvsem bolj odgovorno digitalizacijo. (3) (4) (6)

To pomeni, da mora biti ključni test vsake digitalne reforme v davčni upravi preprost in strog: ali je davkoplačevalec po uporabi sistema bolj pravno varen ali manj. Če je odgovor pritrdilen, potem digitalizacija prispeva k legitimnosti uprave. Če pa sistem zgolj pospeši dostop do potencialno nejasnih, nepopolnih ali nekonsistentnih informacij, potem ne gre za napredek, ampak za premeščanje tveganja z organa na uporabnika. V davčnem kontekstu namreč ni dovolj, da je nekaj hitrejše; biti mora tudi pravno bolj zanesljivo, pregledno in odgovorno. Kjer tega ni, tehnologija ne izboljšuje države, ampak jo naredi bolj nepregledno. (1) (2) (16)

Prav tu se pokaže temeljna razlika med količino digitalizacije in kakovostjo digitalizacije. Količina meri, koliko je kanalov, koliko je avtomatizacije, koliko je novih rešitev, koliko je digitalnih stikov. Kakovost pa meri nekaj povsem drugega: ali so ti kanali pravno zanesljivi, ali imajo jasne meje, ali so spremembe sledljive, ali obstaja človeški nadzor, ali se napake merijo in odpravljajo ter ali sistem krepi zaupanje v pravo. OECD-jevi dokumenti o digitalni transformaciji davčnih administracij prav zato ne poudarjajo le večje dosegljivosti storitev, ampak tudi kakovost taxpayer touchpoints, dokumentirano upravljanje digitalnih poti in odgovorno organizacijo stika med upravo ter zavezancem. (3) (6) (7) (8)

Za Slovenijo je ta razlika posebej pomembna zato, ker v javni razpravi pogosto prehitro enačimo tehnološko novost z institucionalnim napredkom. Toda digitalizacija javne uprave ni sama po sebi vrednota. Vrednota postane šele takrat, ko je umeščena v okvir pravne države, dobrega upravljanja in odgovornosti do posameznika. Če tega okvira ni, digitalizacija hitro postane samo novo ime za stare probleme: nepreglednost, odsotnost odgovornosti, formalno prelaganje tveganja na uporabnika in navidezna učinkovitost brez zadostne pravne kakovosti. V tem smislu je slovenski izziv manj v tem, ali znamo uvajati tehnologijo, in bolj v tem, ali jo znamo upravljati kot javnopravno občutljivo infrastrukturo. (4) (9) (10)

V davčni upravi je to še posebej občutljivo. Davčne informacije niso nevtralne vsebine, ampak informacije, ki vplivajo na obveznosti, roke, procesna dejanja, pravna sredstva in premoženjski položaj posameznika. Kadar takšno področje digitaliziramo, moramo standard odgovornosti zvišati. Pravna varnost ne sme postati stranska škoda digitalne modernizacije. Če država pri davčnem informiranju uporablja digitalne ali AI-podprte sisteme, mora biti sposobna pokazati več, ne manj: več transparentnosti, več dokumentacije, več sledljivosti, več human oversight in več resne metodologije. Prav tu je bistvo odgovorne digitalizacije. (4) (5) (16)

Poleg tega je slovenski izziv tudi kulturni in upravljavski. Odgovorna digitalizacija zahteva, da se država odpove skušnjavi, da bi disclaimerske formule razumela kot nadomestek za governance. Ni dovolj, da organ zapiše, da so odgovori informativni, da naj uporabnik ne vnaša občutljivih podatkov ali da sistem ne nadomešča formalnega postopka. Vse to je lahko potrebno, ni pa zadostno. Bistveno je, ali ima država vzpostavljen dejanski sistem upravljanja: jasen namen uporabe, določene meje sistema, evidentiranje sprememb, merjenje kakovosti, človeški nadzor, postopke za popravljanje napak in določene odgovorne nosilce. Brez tega digitalizacija ostane na ravni tehnološke predstavitve, ne pa javnopravno zrelega upravljanja. (4) (6) (7) (10) (16)

Slovenija zato potrebuje premik v načinu razmišljanja. Vprašanje ne sme biti več: ali imamo digitalno rešitev? Vprašanje mora biti: ali imamo pravno in organizacijsko dovolj dobro digitalno rešitev? Ne sme nas zanimati le, ali je uporabnik dobil odgovor, ampak tudi ali je ta odgovor:

  • pravno zanesljiv,
  • dovolj celovit,
  • dovolj jasen,
  • pravočasno uporaben,
  • in umeščen v sistem, kjer je mogoče napako prepoznati, pojasniti in popraviti.

To je dejanski test sodobne države. Digitalni kanal, ki teh meril ne dosega, ni izraz napredka, ampak izraz institucionalne površnosti v novi tehnični preobleki. (1) (3) (10)

Na tej točki postane posebej pomembna tudi vloga strokovnih in etičnih davčnih posrednikov. Če država digitalizira hitreje, kot zmore zagotoviti pravno kakovost svojih kanalov, potem pritisk pade na strokovni prostor, da prevzame vlogo korektiva. Toda to ni optimalen model. Odgovorna digitalizacija ne pomeni, da bo zasebni strokovni sektor popravljal šibkosti javnega informacijskega sistema. Pomeni, da bo država sama zagotovila dovolj kakovosten okvir, strokovni posredniki pa ga bodo lahko nadgrajevali in prevajali v konkretne primere. Slovenija zato potrebuje digitalizacijo, ki krepi oba stebra pravne varnosti, ne pa take, ki šibkost enega prikriva s preobremenitvijo drugega. (11) (12) (13) (15)

V tem smislu je slovenski izziv tudi test institucionalne zrelosti. OECD, IMF in evropski pravni okvir ne zahtevajo, da javne uprave ostanejo analogne. Zahtevajo pa, da digitalizacijo izvajajo odgovorno, pregledno in na način, ki ne zmanjšuje pravic posameznika. To je tudi prava smer za Slovenijo. Ne potrebujemo manj tehnologije. Potrebujemo pa manj tehnološke samovšečnosti in več pravne discipline. Potrebujemo manj navdušenja nad tem, da sistem “govori”, in več resne presoje o tem, ali to, kar pove, res krepi pravno varnost davkoplačevalca. (4) (5) (10) (16)

Sklep tega poglavja je zato jasen: Slovenija ne potrebuje le več digitalizacije, ampak bolj odgovorno digitalizacijo. V davčnem pravu je legitimna le tista digitalizacija, ki davkoplačevalca naredi bolj pravno varnega, ne manj. Če tega ne doseže, potem ni znak modernizacije države, ampak opozorilo, da je tehnologija prehitela upravljavsko in pravno zrelost institucije. (1) (2) (4) (16)

 

Viri za XIII. poglavje

(1) Canada Revenue Agency, Taxpayer Bill of Rights. Uradni standard pravic; izrecno določa pravico do “complete, accurate, clear, and timely information”.

(2) Taxpayers’ Ombudsperson, Taxpayer Rights in the Digital Age, 2020. Ombudsmanski dokument; ključen za argument, da digitalizacija brez ustreznih varovalk lahko tudi oslabi pravice davkoplačevalcev.

(3) OECD, Tax Administration 2025, 2025. OECD poročilo; širši okvir za kakovost storitev davčne administracije, digitalne kanale in raven informiranja davkoplačevalcev.

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; pomembno za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(6) OECD, Tax Administration Digitalisation and Digital Transformation Initiatives, 2025. OECD poročilo; pomembno za taxpayer touchpoints, digitalne storitve in upravljanje podatkov.

(7) OECD, Tax Administration 3.0: From Vision to Strategy, 2025. OECD strateški dokument; pomemben za tezo, da AI v davčni upravi ne sme biti improvizacija, temveč del dokumentiranega upravljanja.

(8) OECD, Tax Administration 3.0: The Digital Transformation of Tax Administration, 2020. OECD vizijski dokument; temeljni okvir za digitalno davčno upravo in uporabniške poti.

(9) OECD, Good Practice Principles for Data Ethics in the Public Sector, 2021. OECD načela; pomembna za data ethics, odgovornost in zaupanja vredno digitalno javno oblast.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(11) OECD, Rethinking Tax Services: The Changing Role of Tax Service Providers in SME Tax Compliance, 2016. OECD poročilo; eden ključnih virov za razumevanje, da so davčni ponudniki storitev sistemsko pomembni za compliance in kakovost davčnih informacij pri zavezancih.

(12) OECD, Study into the Role of Tax Intermediaries, 2008. OECD študija; klasičen vir o tristranskem razmerju: davčni zavezanec – davčna uprava – davčni posrednik.

(13) OECD, Co-operative Compliance: A Framework, 2013. OECD okvir; pomemben za argumente o zaupanju, zgodnji izmenjavi informacij, večji pravni predvidljivosti in profesionalni vlogi posrednikov.

(15) CFE Tax Advisers Europe, The role of tax advisers with regard to tax avoidance, 2016. Strokovno stališče; pomembno za del o etičnih davčnih posrednikih, kodeksih ravnanja, poklicni odgovornosti in neodvisnosti.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

 

XIV. Robotek FURS kot konkretni preizkus slovenske AI-davčne governance

Če želimo razpravo o AI in pravici do točne, celovite, jasne in pravočasne davčne informacije premakniti iz ravni abstraktnih načel na raven konkretne presoje, je slovenski primer zelo jasen: Robotek FURS ni le tehnološka novost, ampak dejanski preizkus, ali slovenska davčna uprava razume digitalizacijo kot vprašanje pravne države ali zgolj kot vprašanje uporabniške priročnosti. Prav zato Robotka FURS ni smiselno presojati predvsem po tem, ali je hiter, prijazen ali lahko dostopen, ampak po bistveno strožjem merilu: ali deluje znotraj takšne governance strukture, ki davkoplačevalcu dejansko krepi pravno varnost. (3) (4) (16)

Na uradnih straneh FURS je razvidno, da gre za klepetalni sistem, ki je uporabniku predstavljen kot orodje za področja davkov fizičnih oseb, davkov poslovnih subjektov ter nekaterih drugih vsebinskih sklopov. FURS hkrati izrecno opozarja, da se klepetalnik “še vedno uči”, da so odgovori “informativne narave” in da so odvisni od celovitosti vprašanja, uporabnika pa usmerja, naj za zanesljive podatke preveri uradne vire ali kontaktira organ. Na strani za davke poslovnih subjektov je dodatno razvidno tudi to, da so nekatera področja vsebinsko preusmerjena na drug klepetalnik, kar potrjuje, da je stvarni doseg sistema predmet organizacijskih omejitev in notranje razmejitve področij. (17) (18)

Že iz teh javnih navedb izhaja pomemben sklep: Robotek FURS ni predstavljen kot zgolj statična spletna pomoč ali kot običajen FAQ-vmesnik, temveč kot AI-podprti komunikacijski kanal, ki se razvija, odgovarja informativno in deluje na različnih davčnih področjih. To pa pomeni, da pravno vprašanje ni več, ali gre za nevtralni tehnični dodatek, temveč ali je sistem, ki ga javni organ uporablja za davčno informiranje, umeščen v dovolj jasno in sledljivo organizacijsko strukturo. Kjer organ sam pove, da se sistem še uči in da je kakovost odgovora odvisna od formulacije vprašanja, se pravno vprašanje ne zmanjša, ampak poveča. Tak sistem po sami naravi kliče po višji, ne nižji ravni nadzora, po jasnejših mejah uporabe in po učinkovitem človeškem korektivu. (4) (5) (17) (18)

Posebej pomembna je tudi javna novica FURS iz maja 2025, v kateri je organ uporabnike izrecno prosil, naj klepetalnik takrat uporabljajo zgolj za vprašanja, povezana z DDV in davčnimi blagajnami, saj bodo le tako prejeli “ustrezne in natančne odgovore”. Ta objava je za presojo Robotka FURS zelo pomembna, ker kaže dvoje. Prvič, FURS je sam javno priznal, da je predmetni doseg sistema neposredno povezan s kakovostjo odgovorov. Drugič, organ je že v zgodnji fazi uvedbe razumel, da širjenje sistema brez jasnih vsebinskih omejitev lahko zmanjša natančnost. Prav to pa potrjuje osrednjo tezo tega članka: pri davčnem AI-sistemu vprašanje obsega uporabe ni stranska tehnična nastavitev, temveč jedro pravne varnosti uporabnika. (19)

Prav zato Robotek FURS deluje kot lakmusov papir slovenske AI-davčne governance. Če je država sposobna jasno določiti, za kaj sistem služi, na katera vprašanja sme odgovarjati, kdaj mora uporabnika preusmeriti drugam, kako spremlja kakovost odgovorov in kako obravnava napake, potem lahko govorimo o resnem koraku k odgovorni digitalizaciji. Če pa je v ospredju predvsem informativna narava odgovora, opozorilo, naj uporabnik preveri še drugje, in splošna formula, da se sistem še uči, brez enako jasne javne slike o governance okviru, potem se pravni problem šele začne. V takem primeru je tehnologija prisotna, pravna varnost pa ostaja organizacijsko neizkazana. (4) (6) (7) (17)

Na tej točki postane pomembna tudi razlika med praktičnostjo in pravno varnostjo. Robotek FURS je lahko za uporabnika praktičen: dosegljiv je takoj, brez čakanja, na videz prijazen in sposoben dati hiter odgovor. Toda pravna varnost se ne meri po tem, kako hitro sistem odgovori, ampak po tem, ali lahko uporabnik razumno zaupa, da je odgovor dovolj točen, celovit, jasen in pravočasno uporaben. Če mora FURS sam hkrati opozarjati, da se sistem še uči, da so odgovori le informativni in da naj uporabnik preveri uradne vire ali kontaktira organ, potem to pomeni, da praktičnost sama po sebi ne zadošča kot merilo legitimnosti. Pri davkih ni dovolj, da kanal obstaja; obstajati mora tudi jasen razlog, zakaj mu je mogoče v razumni meri pravno zaupati. (1) (2) (17) (18)

V tem smislu je posebej uporabno vprašanje, ki izhaja tudi iz vaše analize in pritožbene logike: ali je FURS sposoben pokazati ne le da Robotek uporablja, ampak kako ga upravlja. Javne strani FURS povedo nekaj o informativni naravi sistema, o prepovedi vnosa osebnih podatkov in o tem, da se sistem še uči. Ne povedo pa z enako stopnjo določnosti vsega tistega, kar je pri javnopravno občutljivem AI-sistemu pravno najpomembnejše: kako je dokumentirana razvrstitev dopustnih in nedopustnih vsebin, kako se vodi change management, kako se meri kakovost, kako se zaznavajo konfliktni odgovori, kakšna je pravila human oversight in po kakšni metodologiji je bila določena kvalifikacija sistema z vidika tveganja. Prav tu se Robotek FURS iz tehničnega orodja spremeni v governance vprašanje. (4) (5) (7) (16)

To ni pretirana zahteva. OECD, IMF in evropski pravni okvir ne zahtevajo, da davčna uprava od umetne inteligence zahteva nemogočo brezhibnost. Zahtevajo pa, da uporaba takega sistema poteka znotraj formaliziranega, dokumentiranega in preverljivega okvirja. Pri Robotku FURS je zato bistveno vprašanje manj, ali sistem včasih poda uporaben odgovor, in bolj, ali organ lahko izkaže, da ima nad njim takšno stopnjo nadzora, ki je primerna za davčni kontekst. AI, ki je praktična, vendar organizacijsko in pravno nepregledna, ni dober dokaz modernizacije države. Je prej opozorilo, da je tehnologija hitreje vstopila v prakso, kot je vanjo vstopilo odgovorno upravljanje. (4) (5) (10) (16)

Dodatno težo temu daje tudi dejstvo, da FURS sam javno uporablja jezik omejitev in previdnosti. Kadar organ pove, da se sistem še uči, da je odgovor odvisen od celovitosti vprašanja in da naj uporabnik preveri uradne vire, s tem pravzaprav potrjuje, da je možnost napačnega, nepopolnega ali nezadostnega odgovora realna. Toda če je to tveganje realno, potem mora biti tudi governance odgovor nanj realen: jasne meje uporabe, jasno določeni korekcijski mehanizmi, jasna možnost človeškega posega in jasna sledljivost sprememb. Kjer je tveganje priznano, tam mora biti tudi upravljavsko obvladovano. Sicer disclaimer ne deluje kot varovalka, ampak kot prenos tveganja na uporabnika. (2) (4) (17) (18)

Prav v tem smislu je Robotek FURS konkreten preizkus slovenske AI-davčne governance. Ne zato, ker bi bil edini možni digitalni kanal, in ne zato, ker bi bila sama uporaba AI že problematična. Problematičen postane tam, kjer pravno občutljiv sistem obstaja brez enako jasno izkazane governance zrelosti. Vprašanje ni le, ali Robotek FURS govori, ampak ali lahko FURS pokaže, da razume posledice tega govora za pravno varnost davkoplačevalca. Kjer tega ne more pokazati, se digitalizacija ne kaže kot dokaz institucionalne moči, ampak kot razgaljenje njene upravljavske šibkosti. (4) (5) (7) (16)

Sklep tega poglavja je zato jasen: Robotek FURS ni le digitalno orodje, ampak konkreten preizkus, ali slovenska davčna uprava zna umetno inteligenco uporabljati v skladu z merili pravne države, davkoplačevalskih pravic in odgovorne governance. Prav zato je njegova presoja pomembna: ne kot vprašanje všečnosti tehnologije, temveč kot vprašanje, ali je slovenska digitalizacija davčnega informiranja pravno dovolj zrela, da davkoplačevalca naredi bolj varnega, ne manj. (1) (4) (16)

 

Viri za XIV. poglavje

(1) Canada Revenue Agency, Taxpayer Bill of Rights. Uradni standard pravic; izrecno določa pravico do “complete, accurate, clear, and timely information”.

(2) Taxpayers’ Ombudsperson, Taxpayer Rights in the Digital Age, 2020. Ombudsmanski dokument; ključen za argument, da digitalizacija brez ustreznih varovalk lahko tudi oslabi pravice davkoplačevalcev.

(3) OECD, Tax Administration 2025, 2025. OECD poročilo; širši okvir za kakovost storitev davčne administracije, digitalne kanale in raven informiranja davkoplačevalcev.

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; pomembno za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(6) OECD, Tax Administration Digitalisation and Digital Transformation Initiatives, 2025. OECD poročilo; pomembno za taxpayer touchpoints, digitalne storitve in upravljanje podatkov.

(7) OECD, Tax Administration 3.0: From Vision to Strategy, 2025. OECD strateški dokument; pomemben za tezo, da AI v davčni upravi ne sme biti improvizacija, temveč del dokumentiranega upravljanja.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

(17) Finančna uprava Republike Slovenije, Klepetalni robotek FURS – Davki fizičnih oseb, stanje strani osveženo 12. 2. 2026. Javno objavljeni pogoji uporabe: opozorilo, da se klepetalnik še uči, da so odgovori informativne narave in da je treba za zanesljive podatke preveriti uradne vire ali kontaktirati FURS.

(18) Finančna uprava Republike Slovenije, Klepetalni robotek FURS – Davki poslovnih subjektov (pravne osebe in fizične osebe z dejavnostjo), stanje strani osveženo 12. 2. 2026. Javno objavljeni pogoji uporabe in vsebinske preusmeritve med področji klepetalnikov.

(19) Finančna uprava Republike Slovenije, Pozor: digitalni klepetalnik trenutno odgovarja le na vprašanja o DDV in davčnih blagajnah, objava z dne 15. 5. 2025. FURS je uporabnike izrecno pozval, naj klepetalnik uporabljajo zgolj za ta vprašanja, da bi prejeli ustrezne in natančne odgovore.

XV. FURS in AEAT: ključna razlika ni tehnologija, ampak človekov nadzor nad odgovorom

Ključna težava pri FURS ni že v tem, da uporablja AI-klepetalnik. Ključna težava je bistveno ožja in hkrati bistveno resnejša: FURS ne more ponujati celovitih, točnih in pravočasnih davčnih informacij, če odgovorov vsebinsko ne nadzira in ne odobri človek. To ni dodatna varovalka ali luksuz dobrega upravljanja, ampak minimalni pogoj za to, da davčna informacija sploh še ohrani pravno vrednost. Kadar ta pogoj ni izpolnjen, pravica davkoplačevalca do pravilne informacije ni le oslabljena, ampak je pri takem kanalu dejansko izvotljena. Uporabnik sicer dobi odgovor, ne dobi pa zanesljivega jamstva, da je ta odgovor pravno varen.

FURS sam na javnih straneh Robotka izrecno pove dve stvari, ki sta za to presojo odločilni: prvič, da se klepetalnik “še vedno uči”, in drugič, da so odgovori “informativne narave” ter “odvisni od celovitosti vprašanja”, zato naj uporabnik za zanesljive podatke preveri uradne vire ali kontaktira FURS. To ni nepomembna uporabniška opomba. To je dejansko priznanje, da sistem sam po sebi ne zagotavlja standarda, ki ga davkoplačevalec potrebuje: ne zagotavlja dovolj zanesljive, avtonomne pravne informacije. Če organ to ve, pa hkrati ne vzpostavi režima, v katerem bi odgovore v relevantnem smislu nadziral in odobril človek, potem problem ni več tehnološki, ampak pravno-upravljavski.

Prav tu je primerjava z AEAT odločilna. Španska davčna uprava javno ne izhaja iz logike: “AI odgovarja, uporabnik pa naj bo previden.” Izhaja iz nasprotne logike: AI je dopustna samo v okviru metodologije, governance in človeškega nadzora. V strategiji AI AEAT izrecno določa posebno metodologijo za celoten življenjski cikel sistemov AI, namenjeno zagotavljanju kakovosti in governance, ter izrecno poudarja “human in the loop”, torej sodelovanje ljudi v vseh fazah razvoja in uporabe sistema. V istem dokumentu AEAT tudi izrecno določi, da avtomatizirana upravna dejanja v nobenem primeru ne bodo temeljila izključno na rezultatu sistema AI, temveč je vedno zagotovljen človeški nadzor, validacija ali sprememba predloga sistema.

Etični dokument AEAT to logiko še dodatno zaostri. Izrecno določa, da človeške odločitve, povezane z upravnim aktom, prevladajo nad vsakim produktom AI, da mora obstajati človeška odgovornost skozi celoten življenjski cikel sistema, in da je treba zagotoviti dokumentacijo, sledljivost in razložljivost odločitev glede zasnove in implementacije sistema. Poleg tega kot del načela kakovosti izrecno našteje konsistentnost informacij in human in the loop. To je bistvo. AEAT očitno razume, da davčna uprava ne more resno trditi, da varuje pravico do pravilne informacije, če AI odgovore prepušča sama sebi.

Zato primerjalna razlika med FURS in AEAT ni v tem, da bi eden imel AI, drugi pa ne. Oba jo imata. Razlika je v tem, da AEAT javno izkazuje logiko: brez človeka v zanki ni pravno sprejemljive uporabe AI na občutljivem davčnem področju. FURS pa na javnih straneh Robotka uporabniku predvsem pove, da se sistem še uči, da so odgovori informativni in da naj preveri uradne vire ali kontaktira organ. To pomeni, da FURS uporabniku dejansko ne sporoča: “odgovor je pod človekovim vsebinskim nadzorom”, ampak precej bližje: “odgovor lahko prejmete, vendar zanj sami nosite pomemben del tveganja zaupanja”. Prav v tem je ključna težava.

Če to izrečemo pravno ostro: pravica do točne, celovite in pravočasne davčne informacije ne obstaja tam, kjer je odgovor prepuščen AI brez dejanskega človekovega nadzora, preveritve in odobritve. Tam obstaja kvečjemu dostop do avtomatiziranega informativnega izhoda s disclaimersko omejitvijo. Toda to ni isto. Pravica do davčne informacije pomeni več kot pravico do tega, da “nekaj dobiš nazaj”. Pomeni pravico do takšne informacije, ki jo je mogoče razumno šteti za dovolj zanesljivo podlago pravno varnega ravnanja. Če organ tega ne more zagotoviti, ker sistem deluje brez vsebinske človeške potrditve, potem je vsebina pravice izpraznjena, četudi digitalni kanal formalno obstaja.

To tudi pomeni, da pri FURS problem ni le v odsotnosti “lepšega” governance jezika ali v manj razdelani strategiji. Problem je materialen. Če ni človeka, ki odgovore nadzira in jih v relevantnem smislu odobri, potem FURS ne more resno trditi, da ta kanal varuje pravico do pravilne informacije. Lahko trdi, da gre za pomožno digitalno orodje. Lahko trdi, da je kanal praktičen. Lahko trdi, da uporabniku olajša orientacijo. Ne more pa trditi, da s tem kanalom sam po sebi zagotavlja tisto, kar davkoplačevalec potrebuje: pravno zanesljivo informacijo kot podlago za varno ravnanje. Prav zato je vaša teza o izvotlitvi pravice pravilna: brez governance, katere jedro je človekov vsebinski nadzor, pravice do davčne informacije na tej ravni preprosto ni.

AEAT je v tem smislu pomembna ne zato, ker bi predstavljala popoln model, temveč zato, ker javno pokaže pravilno regulatorno logiko. Človek ni dodatek AI. Človek je pogoj njene dopustnosti v davčnem okolju. Metodologija ni administrativni okrasek. Je način, kako organ prepreči, da bi AI uničila prav tisto, kar naj bi javna uprava varovala: predvidljivost, sledljivost, odgovornost in zaupanje. Če to prenesemo nazaj na FURS, je jedro problema jasno: brez dokazljivega človeškega nadzora nad vsebino odgovorov je Robotek FURS lahko morda praktičen, ni pa pravno dovolj varen kanal za uresničevanje pravice do točne, celovite in pravočasne davčne informacije.

Sklep tega poglavja je zato namenoma oster: FURS in AEAT ne loči predvsem stopnja digitalizacije, ampak razumevanje bistva problema. AEAT javno izhaja iz tega, da mora biti AI podrejena človeku. FURS pa pri Robotku javno predvsem opozarja, da je odgovor informativen in da se sistem še uči. Prav zato je pri FURS pravica do celovite, točne in pravočasne davčne informacije na ravni Robotka brez dejanskega človekovega nadzora izvotljena: kanal obstaja, pravno zanesljivo jamstvo informacije pa ne.

 

Viri za XV. poglavje

(17) Finančna uprava Republike Slovenije, Klepetalni robotek FURS – Davki fizičnih oseb, stanje strani osveženo 12. 2. 2026. Javno objavljeni pogoji uporabe: “Klepetalnik se še vedno uči. Odgovori so informativne narave in so odvisni od celovitosti vprašanja … Za zanesljive podatke preverite uradne vire ali nas kontaktirajte.”

(18) Finančna uprava Republike Slovenije, Klepetalni robotek FURS – Davki poslovnih subjektov (pravne osebe in fizične osebe z dejavnostjo), stanje strani osveženo 12. 2. 2026. Javno objavljeni pogoji uporabe in vsebinske preusmeritve med področji Robotka FURS; enako opozorilo o informativni naravi odgovorov in odvisnosti od celovitosti vprašanja.

(20) Agencia Estatal de Administración Tributaria, Estrategia de Inteligencia Artificial, dokument objavljen 1. 12. 2025. Strateški dokument AEAT; izrecno določa posebno metodologijo za celoten življenjski cikel sistemov AI, “human in the loop”, kakovost in governance ter določa, da avtomatizirana upravna dejanja ne bodo nikoli temeljila izključno na rezultatu sistema AI.

(21) Agencia Estatal de Administración Tributaria, Compromiso ético en el diseño y uso de IA en la AEAT, 30. 1. 2025. Etični dokument AEAT; določa, da človeške odločitve prevladajo nad produkti AI, da mora obstajati človeška odgovornost skozi celoten življenjski cikel sistema ter da je treba zagotoviti dokumentacijo, sledljivost in razložljivost.

 

XVI. Sklep: brez pravice do pravilne davčne informacije ni prostovoljne davčne privolitve

Bistvo tega članka je preprosto, vendar za davčni sistem odločilno: pravica do točne, celovite, jasne in pravočasne davčne informacije ni zgolj vprašanje prijazne storitve javne uprave, temveč jedrni element pravne države, davkoplačevalskih pravic in legitimnosti sodobne davčne administracije. Kjer davkoplačevalec ne more razumno vedeti, kaj država od njega zahteva, pod kakšnimi pogoji lahko uveljavlja pravico, v kakšnem roku mora ravnati in kakšne bodo posledice njegovega ravnanja, tam pravna varnost ni oslabljena le na robu, ampak v temelju. Prav zato pravica do informacije ni dodatna ugodnost sistema, ampak eden njegovih nosilnih pogojev. (1) (2) (3) (16)

Ta temelj ima v slovenskem pravu tudi jasno procesno oporo. Zakon o splošnem upravnem postopku (ZUP) v 7. členu vzpostavlja načelo varstva pravic strank in varstva javnih koristi, ki od organa zahteva takšno postopanje, da stranka lahko učinkovito varuje svoje pravice in pravne koristi. Zakon o davčnem postopku (ZDavP-2) pa v 13. členu izrecno določa pravico do informiranja zavezancev za davek. To pomeni, da pravica do informacije v davčnem razmerju ni le politična želja ali etična gesta, ampak je procesni temelj zakonitega delovanja davčnega organa. Brez nje ni mogoče resno govoriti o poštenem davčnem postopku, o zaupanju v pravo in o razumni predvidljivosti ravnanja zavezanca. (23) (24)

Iz tega sledi še pomembnejša posledica: brez pravice do pravilne informacije ni prostovoljne davčne privolitve. Davčni sistem lahko dolgoročno deluje stabilno le, če večina zavezancev obveznosti izpolnjuje prostovoljno, ker pravo razume kot dovolj jasno, predvidljivo in legitimno. Toda prostovoljna davčna privolitev ne nastane iz prazne moralne dolžnosti. Nastane iz institucionalnega okolja, v katerem davkoplačevalec verjame, da sistem ni arbitrarna past, ampak okvir, v katerem je mogoče ravnati pravilno in razumno. Kjer tega zaupanja ni, začne compliance razpadati, davčna disciplina postaja bolj prisiljena in manj legitimna, prostor sive ekonomije, prikrivanja in obvodov pa se širi. (1) (3) (11) (13)

Pravna država ta temelj gradi iz dveh stebrov. Prvi steber je odgovorna davčna administracija, ki mora zagotoviti zanesljiv, sledljiv, nadzorovan in pravno varen javni informacijski okvir. Drugi steber so strokovni in etični davčni posredniki, ki ta okvir prevajajo v konkretne življenjske položaje, preverjajo pravila, razlagajo meje, opozarjajo na tveganja in davkoplačevalcu omogočajo, da splošna norma postane pravno uporabna rešitev. Če sta oba stebra močna, je pravica do pravilne informacije živa. Če eden oslabi, pritisk pade na drugega. Če pa nimamo niti enega zdravega stebra, potem ni presenetljivo, da se povečuje tudi splošna erozija zaupanja v davčni sistem. (11) (12) (13) (15)

Prav tu je slovenski problem resen. Če država pri uporabi AI ne zgradi resne governance arhitekture, če odgovorov ne nadzira človek, če ni jasnih pravil, sledljivosti in odgovornosti, potem prvi steber oslabi. Če pa hkrati strokovni prostor relativizira pomen metodološke discipline, etike in visoke ravni strokovne odgovornosti davčnih posrednikov, potem oslabi tudi drugi steber. V takem okolju pravica do pravilne davčne informacije ostane na papirju, v praksi pa postaja vse bolj krhka. To ni samo problem posameznega uporabnika, ki prejme slab odgovor. To je problem samega davčnega reda. (4) (5) (15) (16)

Zato tudi širši družbeni podatki ne smejo biti razumljeni kot nekaj zunanjega tej razpravi. Za primerjalni evropski okvir je posebej pomembna raziskovalna linija Friedricha Schneiderja, ker temelji na mednarodno primerljivi metodologiji. Prav UMAR je v svojem biltenu povzel mednarodno študijo Schneiderja in navedel, da je bil obseg sive ekonomije v Sloveniji v letih 2000/2001 ocenjen na 26,7 % BDP. Tudi če to starejše ocene ne prenašamo neposredno na sedanjost, njen pomen ostaja velik: kaže, da je Slovenija že v mednarodno primerljivih analizah sodila v okolje z zelo visokim deležem sive ekonomije. Če to nato zgolj ilustrativno primerjamo z zadnjo revidirano letno oceno slovenskega BDP za leto 2024 v višini 67,418 milijarde EUR, pomeni že prag 20 % BDP približno 13,5 milijarde EUR, prag 26,7 % BDP pa približno 18 milijard EUR. To seveda ni uradna tekoča letna ocena davčne vrzeli za leto 2024, temveč ilustracija razsežnosti problema na podlagi Schneiderjeve mednarodno primerljive ocene in zadnjega uradnega podatka o BDP. Toda sporočilo je kljub temu jasno: erozija formalnega reda v Sloveniji ni majhna, temveč strukturna.

Podobno velja za korupcijo. V uradnih vladnih dokumentih je zapisano, da Slovenija letno izgubi približno 3,5 milijarde EUR zaradi korupcije; ta številka je v dokumentih predstavljena kot povzetek evropske raziskovalne ocene in jo vlada sama uporablja kot indikator resnosti sistemskega problema. Tudi takšne ocene je treba brati previdno, ker ne gre za neposredno knjiženo fiskalno postavko, temveč za makro družbeno-ekonomsko oceno škode. Toda njihov pomen za ta članek je jasen: govorijo o okolju, v katerem zaupanje v institucije, integriteta odločanja in formalna pravila niso dovolj močni. V takem okolju problem ni le v posamezni nepravilnosti, temveč v oslabitvi samega institucionalnega tkiva.

Tudi širši politični in upravljavski okvir ni ločen od te razprave. Kot opozarja mag. Franc Derganc v članku Kaj lahko ugotovimo, ko beremo politične programe in poslušamo izjave ključnih politikov, ki naj bi prevzeli vodenje izvršilne in zakonodajne veje oblasti v Sloveniji?, objavljenem 16. 3. 2026 na portalu Modro-poslovanje.si, ključno vprašanje ni le, kaj oblast obljublja, temveč predvsem, kako razume državo: kot aparat oblasti ali kot odgovorno službo človeku. Prav tu nastane bistvena povezava z davčnim sistemom. Če politika in uprava države ne razumeta kot sistema, ki mora posamezniku zagotavljati pravno, socialno in upravno varnost, potem tudi pravica do točne, celovite, jasne in pravočasne davčne informacije ne more biti zares vzeta resno. V takem okolju AI ne more postati zdravilo za institucionalno šibkost. Lahko pa jo, če je uporabljena brez resne governance in brez človeka v zanki, samo še pospeši.

Prav zato je treba izreči še zadnji, neprijeten sklep: tega AI ne more popraviti. Umetna inteligenca ni sposobna nadomestiti ne pravne države, ne institucionalne integritete, ne etične poklicne kulture. Če sta oba stebra šibka – odgovorna davčna administracija in etična, strokovna davčna stroka – potem AI ni rešitev. Lahko je le dodatek k že obstoječemu stanju. Še huje: napačna uporaba AI lahko razkroj le še pospeši, ker ustvarja videz sodobnosti tam, kjer v resnici manjkata odgovornost in nadzor. Uporabnik dobi hitrejši odgovor, ne dobi pa nujno bolj zanesljive informacije. Organ dobi cenejši kanal, ne dobi pa nujno bolj legitimnega sistema. Stroka dobi hitrejše osnutke, ne dobi pa nujno večje metodološke discipline. Če je temelj že oslabljen, lahko AI brez resne governance samo poveča hitrost napačnih, nepopolnih ali nekonsistentnih rešitev. (4) (5) (10) (16)

To pomeni, da je pravo vprašanje za Slovenijo bistveno bolj temeljno od vprašanja, ali uporablja moderno tehnologijo. Vprašanje je, ali še razumemo, da se davčni red začne pri pravici do pravilne informacije. Če tega ne razumemo, potem bomo digitalizirali površino in spregledali jedro. Če pa to razumemo, potem je tudi odgovor jasen: najprej je treba zgraditi zdrav institucionalni temelj – odgovorno davčno upravo, resno governance, jasno človekovo odgovornost in strokovni prostor, ki razume, da etika ni dekoracija, ampak pogoj legitimnosti davčnega svetovanja. Šele na takem temelju je AI lahko koristno pomožno orodje. Brez njega pa ostaja le pospeševalnik že obstoječih institucionalnih slabosti. (4) (7) (11) (15) (16)

Sklep tega članka je zato namenoma oster: pravica do točne, celovite, jasne in pravočasne davčne informacije je temelj prostovoljne davčne privolitve. Če je ta temelj izvotljen, ni ogrožena le kakovost storitve, ampak legitimnost davčnega sistema samega. In če oba nosilna stebra – odgovorna davčna administracija in strokovni, etični davčni posredniki – nista zdrava, umetna inteligenca tega ne bo popravila. Lahko pa napačno uporabljena to krizo samo še pospeši. (1) (3) (4) (11) (16)

In vse zgoraj napisano ne pomeni, da je pri nas vse slabo!

 

 

Viri za XVI. poglavje

(1) Canada Revenue Agency, Taxpayer Bill of Rights. Uradni standard pravic; izrecno določa pravico do “complete, accurate, clear, and timely information”.

(2) Taxpayers’ Ombudsperson, Taxpayer Rights in the Digital Age, 2020. Ombudsmanski dokument; ključen za argument, da digitalizacija brez ustreznih varovalk lahko tudi oslabi pravice davkoplačevalcev.

(3) OECD, Tax Administration 2025, 2025. OECD poročilo; širši okvir za kakovost storitev davčne administracije, digitalne kanale in raven informiranja davkoplačevalcev.

(4) OECD, AI in tax administration, 2025. Poglavje v publikaciji Governing with Artificial Intelligence; pomembno za povezavo med AI, davčno administracijo, zaupanjem javnosti, transparentnostjo in davkoplačevalskimi pravicami.

(5) IMF, Understanding Artificial Intelligence in Tax and Customs Administration, 2024. Tehnična nota; pomembna za pravni, etični in governance okvir uvedbe AI v davčni in carinski administraciji.

(7) OECD, Tax Administration 3.0: From Vision to Strategy, 2025. OECD strateški dokument; pomemben za tezo, da AI v davčni upravi ne sme biti improvizacija, temveč del dokumentiranega upravljanja.

(10) OECD, Governing with Artificial Intelligence, 2025. OECD monografija; krovni okvir za transparentnost, odgovornost, pravičnost in zaupanje javnosti pri uporabi AI v vladi.

(11) OECD, Rethinking Tax Services: The Changing Role of Tax Service Providers in SME Tax Compliance, 2016. OECD poročilo; eden ključnih virov za razumevanje, da so davčni ponudniki storitev sistemsko pomembni za compliance in kakovost davčnih informacij pri zavezancih.

(12) OECD, Study into the Role of Tax Intermediaries, 2008. OECD študija; klasičen vir o tristranskem razmerju: davčni zavezanec – davčna uprava – davčni posrednik.

(13) OECD, Co-operative Compliance: A Framework, 2013. OECD okvir; pomemben za argumente o zaupanju, zgodnji izmenjavi informacij, večji pravni predvidljivosti in profesionalni vlogi posrednikov.

(15) CFE Tax Advisers Europe, The role of tax advisers with regard to tax avoidance, 2016. Strokovno stališče; pomembno za del o etičnih davčnih posrednikih, kodeksih ravnanja, poklicni odgovornosti in neodvisnosti.

(16) Uredba (EU) 2024/1689 Evropskega parlamenta in Sveta z dne 13. junija 2024 o določitvi harmoniziranih pravil o umetni inteligenci in spremembi uredb (ES) št. 300/2008, (EU) št. 167/2013, (EU) št. 168/2013, (EU) 2018/858, (EU) 2018/1139 in (EU) 2019/2144 ter direktiv 2014/90/EU, (EU) 2016/797 in (EU) 2020/1828 (Akt o umetni inteligenci). Temeljni evropski pravni okvir za transparentnost, dokumentacijo, človeški nadzor, natančnost, robustnost in obvladovanje tveganj pri uporabi AI.

(23) Zakon o splošnem upravnem postopku (ZUP), neuradno prečiščeno besedilo na PISRS; posebej 7. člen: Varstvo pravic strank in varstvo javnih koristi.

(24) Zakon o davčnem postopku (ZDavP-2), uradno prečiščeno besedilo (ZDavP-2-UPB4) na PISRS; posebej 13. člen: Informiranje zavezancev za davek (pravica do informiranja).

(25) UMAR, IB revija 1/2007, povzetek mednarodne študije Schneider (2002): v Sloveniji je bil obseg sive ekonomije v letih 2000/2001 ocenjen na 26,7 % BDP.

(26) Statistični urad Republike Slovenije (SURS), objava o BDP za leto 2024: revidirana ocena slovenskega BDP za leto 2024 znaša 67,418 milijarde EUR.

(27) Vlada Republike Slovenije / Ministrstvo za javno upravo, Program vlade za krepitev integritete in transparentnosti 2023–2026; dokument navaja, da Slovenija letno izgubi približno 3,5 milijarde EUR zaradi korupcije.

(28) mag. Franc Derganc, Kaj lahko ugotovimo, ko beremo politične programe in poslušamo izjave ključnih politikov, ki naj bi prevzeli vodenje izvršilne in zakonodajne veje oblasti v Sloveniji?, Modro-poslovanje.si, objava 16. 3. 2026.

 

 

  1. Ključni viri s povezavami:

Sklop

št.

Vir

Vrsta / leto

Ključna uporabnost za vašo temo

Hiperlink

A) pravica davkoplačevalca do pravilne informacije

1

Canada Revenue Agency – Taxpayer Bill of Rights

uradni standard pravic

Eden najmočnejših izrecnih standardov za tezo članka: pravica do complete, accurate, clear, and timely information.

https://www.canada.ca/en/revenue-agency/corporate/about-canada-revenue-agency-cra/taxpayer-bill-rights.html

A) pravica davkoplačevalca do pravilne informacije

2

Taxpayers’ Ombudsperson – Taxpayer Rights in the Digital Age

ombudsmanski dokument, 2020

Ključen vir za argument, da digitalizacija lahko pravice tudi oslabi, če niso vgrajene ustrezne varovalke.

https://www.canada.ca/en/taxpayers-ombudsperson/programs/reports-publications/observation-papers/taxpayer-rights-in-the-digital-age.html

A) pravica davkoplačevalca do pravilne informacije

3

OECD – Tax Administration 2025

OECD poročilo, 2025

Širši okvir za kakovost storitev davčne administracije, digitalne kanale in pričakovano raven informiranja davkoplačevalcev.

https://www.oecd.org/en/publications/2025/11/tax-administration-2025_6360fad8.html

B) AI governance v davčni administraciji

4

OECD – AI in tax administration

OECD poglavje, 2025

Najbolj neposreden vir za povezavo med AI, davčno administracijo, zaupanje javnosti, transparentnostjo, varnostjo in davkoplačevalskimi pravicami.

https://www.oecd.org/en/publications/2025/06/governing-with-artificial-intelligence_398fa287/full-report/ai-in-tax-administration_30724e43.html

B) AI governance v davčni administraciji

5

IMF – Understanding Artificial Intelligence in Tax and Customs Administration

IMF tehnična nota, 2024

Zelo uporaben tehnični in upravljavski vir: legal and ethical matters, odgovorna uvedba AI, ocenjevanje use-case-ov, governance in tveganja.

https://www.imf.org/en/publications/tnm/issues/2024/11/21/understanding-artificial-intelligence-in-tax-and-customs-administration-555097

B) AI governance v davčni administraciji

6

OECD – Tax Administration Digitalisation and Digital Transformation Initiatives

OECD poročilo, 2025

Zelo uporabno za taxpayer touchpoints, digitalne storitve, podatkovno upravljanje in uporabo AI v stikih z davkoplačevalci.

https://www.oecd.org/en/publications/2025/06/tax-administration-digitalisation-and-digital-transformation-initiatives_87f43a78.html

B) AI governance v davčni administraciji

7

OECD – Tax Administration 3.0: From Vision to Strategy

OECD strateški dokument, 2025

Uporaben za tezo, da AI v davčni upravi ne sme biti improvizacija, ampak del strateške in dokumentirane arhitekture upravljanja.

https://www.oecd.org/content/dam/oecd/en/topics/policy-issues/tax-administration/tax-administration-3-0-from-vision-to-strategy.pdf

B) AI governance v davčni administraciji

8

OECD – Tax Administration 3.0: The Digital Transformation of Tax Administration

OECD vizijski dokument, 2020

Temeljni vir za digitalno davčno upravo, uporabniške poti, touchpoints in vlogo pooblaščenih svetovalcev.

https://www.oecd.org/en/publications/tax-administration-3-0-the-digital-transformation-of-tax-administration_ca274cc5-en.html

B) AI governance v davčni administraciji

9

OECD – Good Practice Principles for Data Ethics in the Public Sector

OECD načela, 2021

Širši, a zelo relevanten okvir za data ethics, odgovornost, nadzor nad podatki in zaupanja vredno digitalno javno oblast.

https://www.oecd.org/en/publications/oecd-good-practice-principles-for-data-ethics-in-the-public-sector_caa35b76-en.html

B) AI governance v davčni administraciji

10

OECD – Governing with Artificial Intelligence

OECD monografija, 2025

Krovni okvir: AI v vladi prinaša koristi, a tudi tveganja za transparentnost, odgovornost, pravičnost in zaupanje javnosti.

https://www.oecd.org/en/publications/2025/06/governing-with-artificial-intelligence_398fa287.html

C) vloga strokovnih in etičnih davčnih posrednikov

11

OECD – Rethinking Tax Services: The Changing Role of Tax Service Providers in SME Tax Compliance

OECD poročilo, 2016

Eden ključnih virov za razumevanje, da so davčni ponudniki storitev sistemsko pomembni za compliance in kakovost davčnih informacij pri zavezancih.

https://www.oecd.org/en/publications/rethinking-tax-services_9789264256200-en.html

C) vloga strokovnih in etičnih davčnih posrednikov

12

OECD – Study into the Role of Tax Intermediaries

OECD študija, 2008

Klasičen vir o tristranskem razmerju: davčni zavezanec – davčna uprava – davčni posrednik. Zelo uporaben za normativni okvir odgovornosti posrednikov.

https://www.oecd.org/en/publications/study-into-the-role-of-tax-intermediaries_9789264041813-en.html

C) vloga strokovnih in etičnih davčnih posrednikov

13

OECD – Co-operative Compliance: A Framework

OECD okvir, 2013

Pomemben za argumente o zaupanju, zgodnji izmenjavi informacij, večji pravni predvidljivosti in profesionalni vlogi posrednikov.

https://www.oecd.org/en/publications/co-operative-compliance-a-framework_9789264200852-en.html

C) vloga strokovnih in etičnih davčnih posrednikov

14

European Parliament – Regulation of intermediaries, including tax advisers, in the EU

študija EP, 2022

Zelo uporaben evropski primerjalni vir o regulaciji davčnih posrednikov, njihovem položaju, vplivu na compliance in slabostih obstoječih ureditev.

https://www.europarl.europa.eu/thinktank/en/document/IPOL_STU%282022%29733965

C) vloga strokovnih in etičnih davčnih posrednikov

15

CFE Tax Advisers Europe – The role of tax advisers with regard to tax avoidance

strokovno stališče, 2016

Pomemben vir za del o etičnih davčnih posrednikih: poudarja vlogo svetovalcev pri compliance, vezanost na kodekse ravnanja in pomen njihove neodvisnosti.

https://taxadviserseurope.org/project/opinion-statement-pac-2-2016-and-fc-8-2016-the-role-of-tax-advisers-with-regard-to-tax-avoidance/

 

 

[1] Več tudi v Governing with Artificial Intelligence; The State of Play and Way Forward in Core Government Functions (OECD)… https://www.oecd.org/en/publications/governing-with-artificial-intelligence_795de142-en/full-report/ai-in-tax-administration_30724e43.html?utm_source=chatgpt.com

Print

Number of views (4)/Comments (0)

Comments are only visible to subscribers.
Za funkcionalnost strani
uporabljamo piškotke,
ki ne hranijo osebnih podatkov.

Nekateri piškotki so bili
morda že servirani
v skladu z zakonodajo.

Z nadaljevanjem obiska strani soglašaš z njihovo uporabo.
Želim več informacij