Vrsta AI: Disclaimer AI Kaj prejmete
AI Davčni Asistent: modro-poslovanje.si

Problemi z davčnim postopkom, vodenje poslovnih? knjig....pridobite nasvet ali ponudbo za vodenje poslovnih knjig ali pomoč pri preoblikovanju podjetja (normiranec, lmet, zavod, d.o.o.....), inšpekcije....

AI Davki/Računovodstvo

Problemi z razumevanjem davkov, prispevkov?....svetovalec potrdi odgovor na vprašanja o DAVKIH - AI modri davčni nasvet pa naredi (Povzetek → Razlaga → Koraki → Viri. in Potrditev odgovora s strani Derganc Franc)

 (Rezervirajte termin pri DAVČNEM SVETOVALCU - mag. Franc Derganc)

Išči

BAZA ZNANJA

Pravni in tehnični vidik uporabe »Robotka FURS« – praktičnost vs. pravna varnost

Pravni in tehnični vidik uporabe »Robotka FURS« – praktičnost vs. pravna varnost

Ali FURS sploh lahko podaja odgovore preko "ROBOTKA" (brez odločitve človeka) in hkrati udejanja pravico do pravne varnosti, gotovosti, pravico do konsistentne uporabe prava itd. ?

Author: Franc/Thursday, March 26, 2026/Categories: C. Pomembno

Naslov predavanja: Pravni in tehnični vidik uporabe "Robotka FURS" - praktičnost vs. pravna varnost

Termin predavanja: ČETRTEK, 21. maj 2026 | 16.25-17.15

KRAJ: Dnevi  ZDSS, ki bo letos potekal 21. in 22. maja 2026, v Kongresnem centru Term Dobrna

Predavatelj: mag. FRANC DERGANC, TAXIN d.o.o.

Reference:

  1. Predavatelj in avtor vsebine »ŠOLA AI TAXIN«.
  2. Avtor standardov za davčno svetovanje ob uporabi AI orodij (STANDARD MPDN-RS:26).
  3. Avtor »AI ANALITIK JAVNE OBLASTI«, ki presoja zakone, ukrepe (tudi programe političnih strank, tudi programe oseb z javnimi pooblastili npr. FURS, POLICIJA itd.) vseh treh oblasti z vidika dejanskega udejanjanja človekovih pravic.
  4. Dolgoletni član  ZDSS in predsednik ZDSS v obdobju 2019-2024.
  5. Avtor del, povezanih z udejanjanjem človekovih pravic, kot so (objava: www.modro-poslovanje.si ) :
  • Slovenija, kako naprej tudi po volitvah v Državni zbor v letu 2026 – ali sploh imamo alternativo?; G. Golob in g. Janša — nihče vaju ni izvolil zato, da bi polovico naroda obravnavala kot politični višek. Čas je, da iz logike kaplarjev stopita v odgovornost strategov.
  • Konfucij po Eleanor Roosevelt v Ženevi 1948; Kakšen je pingvin, vzgojen v jeziku kokoši? Zakaj pravice brez pogojev ne ustvarijo človeškega subjekta?
  • Ekonomske človekove pravice; Nabor pravic je strukturiran v pet stebrov, ki skupaj obsegajo 20 ekonomskih človekovih pravic.
  • Normirani s.p. kot fiskalni instrument: med poenostavitvijo uprave in erozijo davčne pravičnosti
  • Davčna lestvica Evrope 2025: med metodologijo, normativnimi predpostavkami in realnostjo (Slovenija je 25 od 38 držav); Kaj Tax Foundation Europe dejansko meri – in zakaj to ni “resnica” o davčnih sistemih
  • Ko država gre predaleč – Kandidat za Varuha brez zaslišanja: knjiga o sistemu, ki se ni hotel slišati
  • Itd.

 

UVOD V PREDAVANJE

Finančna uprava Republike Slovenije na svojih straneh sama izrecno opozarja, da se klepetalnik FURS »še vedno uči«, da so njegovi odgovori zgolj informativne narave ter da naj uporabniki za zanesljive podatke preverijo uradne vire ali se obrnejo neposredno na FURS. Hkrati isti javni okvir pokaže, da ne gre za obrobno ali eksperimentalno rešitev, ampak za komunikacijski kanal, ki ga FURS umešča na področja davkov, carin, trošarin in drugih dajatev. Po intervjuju z Miho Piberjem je Robotek v dobrega pol leta odgovoril na približno 800.000 vprašanj. To pomeni, da govorimo o orodju z velikim praktičnim dosegom in z realnim vplivom na razumevanje pravic in obveznosti davčnih zavezancev.

Prav zato ključno vprašanje tega predavanja ni, ali je Robotek FURS uporaben. Povsem mogoče je, da je z organizacijskega in uporabniškega vidika zelo koristen: razbremenjuje kontaktne kanale, pospešuje dostop do osnovnih informacij in uporabniku omogoča hitro začetno orientacijo. Toda pri javnem organu praktičnost sama po sebi ne zadošča. Kadar organ uporablja digitalni kanal za davčno informiranje, postanejo bistveni tudi konsistentnost odgovorov, njihova točnost, jasnost omejitev, sledljivost sprememb, notranji nadzor in pravni status podanih informacij.

Če sistem na vsebinsko enaka vprašanja enkrat odgovori, drugič vprašanje zavrne, tretjič pa poda drugačen vsebinski odgovor, se problem ne ustavi več na ravni tehnične kakovosti orodja. V takem položaju se odpre vprašanje pravne varnosti, predvidljivosti ravnanja organa, enakosti obravnave zavezancev in širše odgovornosti države, da komunikacijske kanale organizira tako, da pravice delujejo praktično in učinkovito, ne le navidezno. To je posebej občutljivo na davčnem področju, kjer napačna ali nekonsistentna informacija lahko vpliva na roke, davčne napovedi, uveljavljanje pravic in končno tudi na sam premoženjski položaj posameznika ali podjetja.

Na ravni prava Evropske unije je pomembno tudi to, da AI Act opredeljuje sistem umetne inteligence široko, 50. člen pa za določene sisteme, ki neposredno komunicirajo z ljudmi, določa transparentnostne obveznosti. Evropska komisija je pojasnila, da bodo obveznosti iz 50. člena začele veljati 2. avgusta 2026. Ali Robotek FURS pravno sodi v ta režim, ni mogoče korektno presoditi brez vpogleda v njegovo dejansko arhitekturo, vlogo morebitnih LLM-komponent, sistem omejitev, način logiranja, upravljanje sprememb in človeški nadzor. Prav zato je zahteva po ZDIJZ (predavatelj je vprašanje naslovil na FURS in do 26.3.2026 še ni prejel odgovora), s katero je predavatelj od FURS zahteval dokumente o pravilih delovanja, omejitvah, verzioniranju, kontroli kakovosti, sledljivosti in tehnični zasnovi Robotka, metodološko pravilno zastavljena s ciljem ugotoviti, ali je arhitektura »Robotka FURS« ustavno-pravno pravilno zasnovana (to je ključno pravno vprašanje).  

Dodatna pravna posebnost FURS je v tem, da ne deluje le v nacionalnem pravnem prostoru, ampak na pomembnem delu svojih nalog neposredno uporablja tudi pravo Evropske unije, zlasti na področjih DDV in carin. Zato vprašanje Robotka FURS ni zgolj vprašanje internega digitalnega orodja, ampak lahko postane tudi vprašanje standardov dobre uprave pri izvajanju prava EU. Če tak kanal na področjih uporabe prava Unije daje nekonsistentne, netočne ali nesledljive informacije, to ni le problem uporabniške izkušnje, ampak potencialno tudi problem zakonitosti in kakovosti upravnega ravnanja.

Bistvo tega predavanja je zato preprosto: Robotek FURS je lahko zelo koristen komunikacijski kanal, vendar njegova praktičnost sama po sebi še ne zadošča. Če sistem na vsebinsko enaka vprašanja odgovarja različno, odgovore zavrača brez jasne logike ali ne omogoča revizijske sledi, se odpre vprašanje, ali javni organ z uporabo takega orodja še zagotavlja zadostno stopnjo pravne varnosti, predvidljivosti, enakosti obravnave in učinkovitega varstva pravic plačnikov davkov.

V nadaljevanju je prikazana tabela ključnih pravic in pravnih načel, ki so lahko prizadeta, če Robotek FURS ne zagotavlja dovolj točnih, konsistentnih, preglednih in sledljivih odgovorov.

Tabela je strukturirana po petih ravneh: od širšega evropskega standarda pozitivnih obveznosti države po praksi ESČP, prek prava EU, ustavnega okvira Republike Slovenije in posebnih pravil davčnega postopka, do vidika pravic plačnikov davkov kot uporabniško najbolj razumljivega povzetka vseh teh jamstev. Namen tabele je pokazati, da vprašanje Robotka FURS ni le tehnično vprašanje kakovosti digitalnega orodja, temveč večnivojsko pravno vprašanje varstva pravic zavezancev.

 

 

Tabela pravic (ključne človekove pravice plačnikov davkov) – Robotek FURS

         

Nivo

Pravica / načelo

Pravna podlaga

Kako se pokaže pri Robotku FURS

Pomen za predavanje

I

Pozitivna obveznost države

ESČP standard pozitivnih obveznosti države

Če država vzpostavi digitalni kanal za davčno informiranje, ni dovolj, da kanal formalno obstaja; zagotoviti mora tudi, da deluje dovolj zanesljivo, predvidljivo in učinkovito…..če država sama vzpostavi digitalni kanal, prek katerega posameznik v praksi dostopa do informacij, pomembnih za uresničevanje svojih pravic in obveznosti, potem se lahko odpre vprašanje, ali je ta kanal organiziran tako, da pravice delujejo praktično in učinkovito, ne pa zgolj navidezno. ESČP namreč dosledno poudarja, da morajo biti pravice practical and effective, ne zgolj theoretical and illusory.

“Načelo pozitivne obveznosti države” pri ESČP ni ena samostojna, splošna pravica v enem členu Konvencije. Gre za doktrino sodne prakse, izpeljano predvsem iz 1. člena EKČP, po katerem morajo države vsakomur pod svojo jurisdikcijo zagotoviti pravice in svoboščine iz Konvencije. Bistvo je, da država ni dolžna le ne posegati v pravice, ampak mora v določenih primerih sprejeti tudi aktivne, učinkovite in praktične ukrepe, da te pravice v resnici delujejo..Težišče ni le v prepovedi napak, ampak v dolžnosti države, da sistem organizira tako, da pravice v praksi delujejo.

II

Pravica do dobre uprave

41. člen LEUTP v povezavi z 51. členom LEUTP, kadar FURS izvaja pravo EU

Če Robotek na področjih DDV, carin ali drugih EU-režimov odgovarja nekonsistentno, netočno ali nesledljivo, se odpre vprašanje, ali upravno ravnanje ostaja pošteno, nepristransko in dovolj pregledno.

Robotek ni samo tehnični vmesnik, ampak lahko postane del izvajanja prava EU.

II

Pravica do transparentne interakcije s sistemom UI

AI Act, zlasti 3. člen in 50. člen

Uporabnik mora vedeti, da komunicira s sistemom UI; pomembno je tudi, da so jasne meje sistema, omejitve in narava odgovorov.

Pri Robotku je to ključno za “kalibracijo zaupanja” uporabnika.

II

Pravica do pregledne in zakonite obdelave podatkov

GDPR, zlasti 5., 12. in 13. člen

Če Robotek sprejema vprašanja, jih beleži, hrani, analizira ali uporablja za optimizacijo, mora biti jasno, kaj se obdeluje, zakaj, koliko časa in kdo ima dostop.

Problem Robotka ni le pravilnost odgovora, ampak tudi zakonitost podatkovnega okolja.

II

Pravica do točnosti podatkovnega okolja in poštene obdelave

GDPR, 5. člen (točnost, zakonitost, poštenost, transparentnost)

Če sistem temelji na napačnih, zastarelih ali neustrezno upravljanih podatkih, lahko nastajajo netočni odgovori in posledično zavajajoče informiranje.

GDPR ni le “privacy” predpis, ampak tudi okvir kakovosti obdelave.

III

Načelo pravne države

2. člen Ustave RS

Če sistem enkrat odgovori A, drugič B, tretjič pa vprašanje zavrne, ravnanje organa za zavezanca ni več dovolj predvidljivo.

To je ustavnopravno jedro problema.

III

Enakost pred zakonom

14. člen Ustave RS

Dva zavezanca z vsebinsko enakim vprašanjem lahko prejmeta različen odgovor ali različno stopnjo pomoči.

AI ne sme proizvajati neenake obravnave zaradi formulacije vprašanja ali naključne poti odgovora.

III

Enako varstvo pravic

22. člen Ustave RS

Zavezanec, ki prejme nejasen, napačen ali protisloven odgovor, je v slabšem položaju pri razumevanju svojih pravic in obveznosti.

Posebej pomembno v davčnih “high-stakes” situacijah.

III

Pravica do pravnega sredstva

25. člen Ustave RS

Če zavezanec zaradi napačne informacije zamudi rok, napačno napove davek ali ne uveljavi pravice, je lahko njegovo pravno varstvo dejansko oslabljeno.

Ne gre več le za slab odgovor, ampak za možno procesno škodo.

IV

Načelo zakonitosti v davčnih zadevah

4. člen ZDavP-2

Robotek ne sme usmerjati zavezanca v ravnanje, ki ni skladno z zakonom.

Pri davkih približna pravilnost ni dovolj.

IV

Načelo materialne resnice v davčnih zadevah

5. člen ZDavP-2

Če sistem daje poenostavljene ali netočne odgovore brez ustrezne omejitve ali eskalacije, lahko popači dejanski pravni položaj.

Pomembno pri individualiziranih vprašanjih.

IV

Načelo gotovosti, seznanjenosti in pomoči

7. člen ZDavP-2

Zavezanec ima pravico biti vnaprej seznanjen s svojimi pravicami in obveznostmi; nekonsistenten Robotek to gotovost zmanjšuje.

To je najmočnejša posebna davčnopravna podlaga.

IV

Načelo pravilnega ravnanja organa in uporabe postopkovnih pravil

9. člen ZDavP-2 in sistemska načela davčnega postopka

Če Robotek daje napačna procesna navodila ali zavezanca usmerja v napačen kanal, se lahko oslabi pravilnost ravnanja organa.

Posebej občutljivo pri rokih, vlogah in pravnih sredstvih.

IV

Pravica do informiranja zavezanca za davek

13. člen ZDavP-2

Če informacijski kanal organa daje nezanesljive informacije, je vprašljivo, ali je pravica do informiranja učinkovito zagotovljena.

Robotek je del informacijskega režima FURS, ne nevtralna tehnična igrača.

V

Pravica do popolnih, natančnih, jasnih in pravočasnih informacij

Kodeks pravic plačnikov davkov – kot povzetek in standardizacija davčnopravnih jamstev; pri vas gre za normativno-strateški povzetek pravic, ne za državni zakon

Če so odgovori delni, napačni, preveč splošni ali med seboj konfliktni, ta standard ni izpolnjen.

To je najbolj uporaben “uporabniški prevod” vseh prejšnjih ravni.

V

Pravica do dosledne uporabe pravil

Kodeks pravic plačnikov davkov – povzetek načel pravne države, enakosti in davčne predvidljivosti

Če ista davčna norma v Robotku vodi do različnih rezultatov, zavezanec ne more predvideti ravnanja organa.

To je neposreden most med ustavo, ZDavP-2 in prakso Robotka.

V

Pravica do učinkovitega in odgovornega delovanja davčne uprave

Kodeks pravic plačnikov davkov kot sistemski povzetek; vsebinsko opira na ustavna, zakonska in evropska jamstva

Brez logov, verzioniranja, QA in revizijske sledi ni mogoče preveriti, zakaj je bil odgovor napačen in kdo nosi odgovornost.

Tu se pravni problem neposredno poveže s tehničnim governance sistemom.

V

Pravica plačati le toliko davka, kot ga določa zakon, in uveljaviti vse pravice, ki jih zakon daje

To je vsebinski povzetek načela zakonitosti, materialne resnice, pravne varnosti in davčne pomoči; v vašem PPD pristopu je to osrednji sintetizirani standard

Če Robotek zavezanca zavede v preplačilo, opustitev pravice, zamudo ali napačno pravno kvalifikacijo, je prizadet sam ekonomski smisel davčnih pravic.

 

 

 

 

Kazalo predavanj

1. Uvod: zakaj je Robotek FURS sploh pomemben?

Čas: 5 minut

1.1. Digitalizacija komunikacije med davčnim organom in zavezancem
1.2. Robotek kot praktično orodje za razbremenitev kontaktnih kanalov
1.3. Temeljno vprašanje predavanja:
Ali lahko organ uporablja AI-orodje za davčno informiranje, če ni dokazano, da so odgovori konsistentni, sledljivi in pravno dovolj varni?

Ključni poudarek za gradivo:
FURS robotek javno predstavlja kot informativni kanal, ki se še uči, obenem pa intervju kaže na velik obseg dejanske uporabe. Ravno zato pravna vprašanja niso teoretična, temveč operativna.

 

2. Kaj javno že vemo o Robotku FURS

Čas: 5 minut

2.1. Obstaja več vsebinskih robotkov FURS
2.2. Javno opozorilo: ne vpisujte osebnih podatkov in davčnih številk
2.3. Javno opozorilo: robotek se še uči
2.4. Odgovori so informativne narave
2.5. Za zanesljive informacije preverite uradne vire ali kontaktirajte FURS
2.6. Intervju: uporabljeno okolje Chatbase, možnost uporabe različnih LLM-modelov, obseg uporabe.

Smisel poglavja:
Predavatelj pokaže, da že iz javno objavljenih informacij izhaja visoka praktična uporabnost, hkrati pa tudi izrecno opozorilo, da odgovori niso zanesljiv uradni vir v klasičnem smislu.

 

3. Praktičnost Robotka FURS: zakaj je tak sistem za FURS privlačen

Čas: 7 minut

3.1. Dostopnost 24/7
3.2. Hitra orientacija uporabnika
3.3. Razbremenitev kontaktnega centra
3.4. Uporabniška prijaznost pri standardnih vprašanjih
3.5. Jedrnatost odgovorov kot prednost
3.6. Možnost standardizacije pojasnil
3.7. Velik obseg obdelanih vprašanj kot dokaz uporabne vrednosti

Jedro:
Problem ni v tem, da je robotek neuporaben, temveč v tem, da visoka uporabnost ne odpravlja zahteve po pravni in tehnični urejenosti.

 

4. Kje se začne pravni problem

Čas: 8 minut

4.1. Davčno področje je “high-stakes” okolje za uporabnika
4.2. Zavezanec od organa pričakuje točno, jasno, celovito in pravočasno informacijo
4.3. Pri javnem organu ni dovolj, da je odgovor “približno dober”
4.4. Če so odgovori nekonsistentni, nastane problem:

  • pravne varnosti,
  • predvidljivosti ravnanja organa,
  • enakosti obravnave,
  • možnosti učinkovitega uveljavljanja pravic

4.5. Posebej občutljivo je, če sistem:

  • enkrat odgovori,
  • drugič vprašanje zavrne,
  • tretjič poda vsebinsko drugačen odgovor

Jedro:
V zasebnem sektorju je chatbot lahko predvsem produktivnostno orodje. V davčnem kontekstu javnega organa pa je isto vprašanje hkrati vprašanje zaupanja v javno oblast. To je osrednja linija vašega predavanja.

 

5. Testni primer kot osrednja študija primera

Čas: 10 minut

5.1. Dejansko stanje testiranja
5.2. Isto oziroma vsebinsko enako vprašanje – trije različni odzivi:

  • zavrnitev odgovora,
  • vsebinsko napačen odgovor,
  • vsebinsko pravilen odgovor

5.3. Kaj ta primer dokazuje
5.4. Zakaj to ni zgolj “tehnična napaka”, ampak ustavnopravni problem
5.5. Meja med dopustno poenostavitvijo in nedopustno nekonsistentnostjo
5.6. Zakaj je pomembna revizijska sled: katera verzija, katera pravila, kateri model, kateri filter

Predlagani naslov podpoglavja v gradivu:
Od praktičnega asistenta do pravnega tveganja: ko isti organ na isto vprašanje odgovori trikrat različno

 

6. Pravna analiza: ustavnopravni in upravnopravni okvir

Čas: 10 minut

6.1. Načelo pravne države
6.2. Prepoved samovoljnega oziroma nepredvidljivega delovanja oblasti
6.3. Enakost pred zakonom in enako varstvo pravic
6.4. Pomen razumljive in predvidljive informacije v davčnem razmerju
6.5. Razlika med:

  • uradno odločbo,
  • uradnim pojasnilom,
  • informativnim AI-odgovorom

6.6. Ključno vprašanje:
Ali lahko organ sistemsko uporablja kanal, za katerega nima dokazljive kontrole nad konsistentnostjo odgovorov?

Pomembna predavateljska teza:
Disclamer “odgovori so informativne narave” sam po sebi še ne odpravi vseh pravnih vprašanj, če organ sistem uporablja kot dejanski množični informacijski kanal.

 

7. Tehnični vidik: zakaj AI-sistemi pogosto dajejo nekonsistentne odgovore

Čas: 7 minut

7.1. Razlika med klasičnim pravilnim sistemom in generativnim sistemom
7.2. Možni viri nekonsistentnosti:

  • klasifikacija vprašanja,
  • guardrails / vsebinske blokade,
  • različni prompti ali politike,
  • retrieval iz različnih virov,
  • menjava modela,
  • sprememba temperature ali druge nastavitve,
  • pomanjkljiv QA in regression testing

7.3. Zakaj brez change loga in logiranja ni mogoče ugotoviti vzroka
7.4. Zakaj je v javnem sektorju potreben dokazljiv governance, ne le “deluje dovolj dobro”

Povezava z intervjujem:
Ker je FURS javno navedel uporabo okolja Chatbase in različnih LLM-modelov, je vprašanje upravljanja različic in kontrol še toliko bolj konkretno, ne abstraktno.

 

8. AI Act: ali je Robotek FURS “AI system” in kaj to pomeni

Čas: 5 minut

8.1. Definicija AI sistema po AI Act
8.2. Transparentnost pri sistemih, ki komunicirajo z ljudmi
8.3. Pomen:

  • obvestila uporabniku,
  • sledljivosti,
  • governance,
  • nadzora človeka,
  • tehnične dokumentacije

8.4. Zakaj je ZDIJZ (po ZIJZ sem poslal vprašanje na FURS) zahtevek ključen za pravno kvalifikacijo
8.5. Kaj danes še ni javno dokazano:

  • dejanska arhitektura,
  • modelna veriga,
  • podatkovni tokovi,
  • logiranje,
  • QA režim,
  • odobravanje sprememb

Natančen poudarek:
Ni še mogoče kategorično trditi, kakšna je dokončna pravna kvalifikacija Robotka FURS po AI Act, dokler FURS ne razkrije relevantne tehnične in organizacijske dokumentacije. Lahko pa se zelo utemeljeno postavi vprašanje, ali sistem zaradi svoje narave in načina uporabe vsaj odpira obveznosti transparentnosti in governance.

 

9. ZDIJZ kot orodje za preverjanje pravne varnosti sistema

Čas: 5 minut

9.1. Zakaj je ZDIJZ pravilen procesni instrument
9.2. Kaj je treba zahtevati:

  • pravila delovanja,
  • omejitve,
  • seznam prepovedanih tem,
  • change log,
  • QA dokumente,
  • conflict detection,
  • logiranje,
  • retention,
  • RACI / odgovornosti,
  • pogodbe z zunanjimi izvajalci,
  • ocene tveganj,
  • tehnično dokumentacijo,
  • human oversight

9.3. Zakaj sta pravni in tehnični sklop neločljiva
9.4. Delni dostop kot realen in razumen pristop

Jedro:
Če FURS teh dokumentov nima ali jih ne zna pokazati, je to samo po sebi pomembna ugotovitev za oceno zrelosti sistema.

 

10. Sklep: praktičnost da, vendar ne brez dokazljive pravne in tehnične discipline

Čas: 3 minute

10.1. Robotek FURS je uporaben in verjetno organizacijsko koristen
10.2. Toda v davčnem okolju mora biti:

  • pravno predvidljiv,
  • tehnično obvladovan,
  • konsistenten,
  • sledljiv,
  • pod človeškim nadzorom

10.3. Bistvo predavanja v enem stavku:
Pri javnem organu ne zadostuje, da AI pogosto odgovarja dobro; organ mora znati dokazati, zakaj odgovarja pravilno, kdaj ne odgovarja, kdo to nadzira in kako se napake popravijo.

 

Namen predavanja: 

Predavanje obravnava klepetalnik »Robotek FURS« z dveh zornih kotov:

  1. z vidika njegove dejanske praktične uporabnosti za davčne zavezance in
  2. z vidika pravne ter tehnične varnosti njegove uporabe v javnem sektorju.

Izhodišče je preprosto: večja kot je dejanska uporaba takega sistema, večja mora biti tudi stopnja njegove konsistentnosti, sledljivosti, nadzora in odgovornosti.

Pri davčnem organu namreč ni odločilno le, da sistem hitro odgovarja, temveč da organ zagotavlja predvidljivo, enotno in preverljivo informiranje zavezancev.

Print

Number of views (6)/Comments (0)

Comments are only visible to subscribers.
Za funkcionalnost strani
uporabljamo piškotke,
ki ne hranijo osebnih podatkov.

Nekateri piškotki so bili
morda že servirani
v skladu z zakonodajo.

Z nadaljevanjem obiska strani soglašaš z njihovo uporabo.
Želim več informacij