UMETNA INTELIGENCA KOT JAVNA DIGITALNA INFRASTRUKTURA
Avtor: mag. Franc Derganc, 27.11.2025
Opomba: Članek je delo avtorja mag. Franc Derganc
Originalne vsebine članka:
Prispevek obravnava poskus iskanja ustreznih orodij za odgovorno in premišljeno uporabo orodja ChatGPT pri otrocih, ki kažejo znake anksioznosti (AI-Boter). Izhodišče članka temeljí na dosedanjih raziskavah, ki kažejo, da popolna prepoved uporabe družbenih omrežij ali umetne inteligence ni učinkovit pristop pri vzgoji otrok. Nasprotno, takšne prepovedi pogosto vodijo v dodatna tveganja in nerazumevanje dejanskih izzivov digitalnega okolja.
Hiter razvoj znanosti in tehnologije obenem poglablja vrzel v znanju zakonitih zastopnikov, zlasti staršev, kar jim otežuje, da bi svoje otroke učinkovito usmerjali in spremljali pri uporabi sodobnih digitalnih orodij. Prav ta informacijski razkorak postaja eden ključnih vzgojnih in družbenih izzivov.
Raziskovalni del članka je bil izveden s pomočjo orodja ChatGPT 5.1, pri čemer je bila pravna analiza področja zavestno omejena. Umetna inteligenca je bila uporabljena izključno za analizo veljavne zakonodaje in obstoječe sodne prakse, brez vključevanja vrednostnih ali normativnih presoj.
VGRADNJA VARUHA IN SISTEMSKE VAROVALKE ZA ANKSIOZNE OTROKE (vidik ustreznega odziva na množični pojav med mladostniki)
Razprava o umetni inteligenci pri otrocih je bila dolga leta omejena na raven posameznih aplikacij, starševskih nastavitev in splošnih priporočil o »odgovorni rabi«. Takšen okvir pa postane nezadosten v trenutku, ko se umetna inteligenca ne obravnava več kot tržni izdelek, temveč kot javna digitalna infrastruktura, ki jo država zagotovi v splošno in brezplačno uporabo. S to spremembo se bistveno preoblikuje tudi pravna in etična odgovornost države. Če država zagotavlja AI kot javno storitev, ne more več računati zgolj na zavestno in informirano ravnanje uporabnikov, temveč mora že v zasnovi sistema zagotoviti učinkovite varovalke, zlasti za mladoletnike in posebej za otroke s povečano psihosocialno ranljivostjo, med katere sodijo tudi anksiozni otroci.
V tem okviru ne gre za vprašanje vzgojnih stilov, psiholoških intervencij ali individualnih diagnoz, temveč za vprašanje infrastrukture. Tako kot država ne bi zagotovila javnega mostu brez varnostne ograje, tudi ne more zagotoviti javnega sistema umetne inteligence brez vgrajenih mehanizmov za preprečevanje predvidljive škode. Posebej problematična je raba umetne inteligence pri mladoletnikih v primerih, ko deluje kot individualiziran, zaprt in odnosni komunikacijski prostor, ki lahko nehote nadomešča vlogo staršev ali drugih odgovornih odraslih oseb.
Temeljno normativno izhodišče mora biti jasno razlikovanje med otrokom in sistemom. Država ne sme, ne more in ne potrebuje regulirati notranjih stanj otrok, njihove anksioznosti ali drugih duševnih značilnosti. Takšen pristop bi bil pravno nedoločljiv, potencialno diskriminatoren in v nasprotju z varstvom osebnih ter zdravstvenih podatkov. Pravilna pot je drugačna: regulirati je treba vedenje sistema umetne inteligence, ne stanja mladoletnika. Ključno vprašanje zato ni, ali je otrok anksiozen, temveč kako se mora sistem obnašati, kadar zazna ponavljajoče se komunikacijske vzorce, ki izražajo strah, negotovost, ruminacijo ali eksistencialno ogroženost, torej ob prehodu v varovalni način delovanja.
Če umetna inteligenca postane javna infrastruktura, mladoletnik ne more biti obravnavan kot samostojen in izključen uporabnik. Arhitektura sistema mora izhajati iz modela dvo-osebnega razmerja, v katerem obstajata otrok in varuh. Varuh, praviloma starš ali zakoniti zastopnik, ni zunanja opcija ali nastavitev, ki jo je mogoče poljubno izključiti, temveč sistemski element, vgrajen v samo delovanje AI. To pomeni, da umetna inteligenca za mladoletne ne deluje kot ekskluziven odnos med otrokom in sistemom, temveč vedno predpostavlja prisotnost in odgovornost odrasle osebe.
Vloga varuha v takem sistemu ni stalni nadzor vsake komunikacije in ne poseg v otrokovo intimnost, temveč zaščitna in preventivna funkcija. Varuh mora imeti možnost določiti okvir uporabe, biti obveščen o zaznanih rizičnih vzorcih in se vključiti takrat, ko je to nujno za varstvo koristi otroka. Ta vloga ne sme temeljiti na ročnih ali naknadnih postopkih, temveč mora biti vgrajena avtomatično. Varuh tako ne prejema nujno vsebine pogovorov, temveč informacijo, da se je v sistemu pojavil vzorec, ki presega običajno informativno rabo in lahko kaže na povečano stisko.
Pri anksioznih otrocih tveganje ne izhaja iz same informacije, temveč iz vrste in dinamike interakcije. Zato mora sistem umetne inteligence vsebovati poseben varovalni odzivni način, ki se samodejno aktivira ob zaznavi ponavljajočih se vprašanj, povezanih s strahom, smrtjo, zdravjem, zavračanjem ali trajno negotovostjo. V tem načinu umetna inteligenca ne sme prevzemati vloge terapevta, osebnega tolažnika ali čustvene opore, ne sme uporabljati personaliziranih zagotovil varnosti ali ustvarjati občutka ekskluzivnega odnosa. Njena naloga je omejena na razlago splošnih pojavov, umirjeno strukturiranje informacij in dosledno preusmerjanje otroka k resničnemu odnosu z odraslo osebo ali strokovno podporo v realnem okolju.
Bistveno je, da se v takšnih primerih varuh vključi samodejno, ne zgolj na pobudo otroka. Če bi bila vključitev odraslega vedno odvisna od otrokove odločitve, bi sistem odpovedal prav tam, kjer je tveganje največje. Zato mora biti normativno določeno, da sistem ob zaznavi določenih komunikacijskih vzorcev preklopi v varovalni način, otroku pojasni, da gre za tematiko, o kateri je pomembno govoriti z odraslo osebo, in o tem v skladu z vnaprej določenim režimom obvesti varuha. Takšna ureditev preprečuje, da bi umetna inteligenca postala »nočni sogovornik« ali nadomestek človeške regulacije stiske.
Vprašanje otrokove pravice do zasebnosti je legitimno, vendar je ni mogoče obravnavati absolutno. Rešitev je v stopenjskem in sorazmernem modelu, ki upošteva starost in zrelost mladoletnika. Mlajši otroci potrebujejo več zaščite in večjo vključenost varuha, starejši mladoletniki pa več vsebinske zasebnosti, ob tem da varuh še vedno prejme informacijo o obstoju tveganja, kadar je to nujno za zaščito koristi otroka. Takšno ravnovesje omogoča hkratno spoštovanje otrokovega razvoja in dolžnosti države ter staršev, da preprečijo sistemsko škodo.
Vgradnja varuha v javno umetno inteligenco tako ne pomeni omejevanja tehnologije, temveč njen civilizacijski minimum. Če država umetno inteligenco ponudi kot javno dobro, mora zagotoviti, da ta tehnologija nikoli ne deluje brez človeške odgovornosti, zlasti kadar je namenjena otrokom. Pri anksioznih otrocih mora biti vodilo jasno: umetna inteligenca ne sme nadomeščati odnosa, temveč ga mora sistemsko vračati v resnični svet.
Univerzalni varovalni mehanizem: AI boter kot nadomestni varuh znanja in digitalne presoje
Posebna pozornost je potrebna tudi pri otrocih, ki sicer odraščajo v stabilnih in funkcionalnih družinah, vendar njihovi starši ali skrbniki nimajo ustreznega znanja, digitalne pismenosti ali razumevanja delovanja umetne inteligence. Funkcionalnost družine sama po sebi namreč še ne pomeni funkcionalne zaščite otroka v digitalnem okolju. Pri hitro razvijajočih se tehnologijah pogosto nastane vrzel, v kateri starši kljub dobrim namenom nimajo realne zmožnosti prevzeti vloge varuha pri uporabi naprednih sistemov AI.
Zato je utemeljena uvedba univerzalnega nadomestnega varovalnega mehanizma, imenovanega AI boter. AI boter ni odziv na domnevno disfunkcionalnost družin, temveč sistemski odgovor na neskladje med hitrostjo tehnološkega razvoja in dejansko razpoložljivim znanjem odraslih oseb. Gre za odraslo, usposobljeno in preverjeno osebo, ki v okviru javnega sistema prevzame omejeno in jasno opredeljeno odgovornost za varstvo otrokovih interesov pri uporabi umetne inteligence, ne glede na socialni ali družinski položaj otroka.
Vloga AI botra se aktivira v primerih, ko starši uporabo umetne inteligence prepustijo zunanjim sistemom bodisi zaradi časovnih omejitev, pomanjkanja znanja ali nezmožnosti presojanja, kdaj interakcija z AI presega raven informativne rabe in začne ustvarjati tveganje za otrokov razvoj. AI boter starševske skrbi ne nadomešča, temveč zapolnjuje vrzel strokovne presoje v digitalnem okolju.
AI boter prevzame funkcijo sekundarnega uporabnika oziroma varuha v modelu dvo-osebnega sistema. Sistem omogoča vezavo mladoletnika na konkretnega botra, ki ima jasno določene pravice in obveznosti glede nastavitev uporabe, prejemanja obvestil o zaznanih rizičnih vzorcih in vključevanja v varovalni odzivni način. Ta vključitev ne temelji na ocenjevanju kakovosti starševstva, temveč izključno na objektivni potrebi po strokovni in odgovorni človeški prisotnosti.
Institut AI botra ne stigmatizira družin in ne implicira njihove nesposobnosti. Temelji na realističnem priznanju, da sodobne tehnologije presegajo splošno razpoložljivo znanje ter da je pravica otroka do varnosti pomembnejša od fikcije univerzalne digitalne kompetentnosti odraslih.
Zaključek: vidik človekovih pravic
Predlagani model vgradnje varuha in instituta AI botra v javno umetno inteligenco ni tehnična ali organizacijska izbira, temveč neposredna posledica obveznosti države na področju človekovih pravic. Ta obveznost izhaja iz Konvencije Združenih narodov o otrokovih pravicah (3., 12. in 19. člen), kot jo razlaga UN Committee on the Rights of the Child v General Comment No. 25 (2021), iz pozitivnih obveznosti države po 8. členu Evropske konvencije o človekovih pravicah, kot jih razvija European Court of Human Rights, ter iz Listine Evropske unije o temeljnih pravicah (7., 24. in 51. člen). Na nacionalni ravni so te zahteve dodatno potrjene z 14., 35., 54. in 56. členom Ustave Republike Slovenije.
V tem okviru vgradnja varuha v javni AI ne pomeni posega v družinsko avtonomijo, temveč uresničitev ustavne in mednarodnopravne dolžnosti države, da ob uvajanju novih javnih tehnologij prepreči sistemsko škodo ranljivim skupinam. Umetna inteligenca, ki jo država ponuja vsem, mora zato delovati v okviru, kjer je človeška odgovornost vedno sistemsko prisotna – ne kot izjema, temveč kot pravilo.
PRILOGA:
Obrazložitev uporabe 1. člena Protokola št. 1 k Evropski konvenciji o človekovih pravicah
Uporaba 1. člena Protokola št. 1 k Evropski konvenciji o človekovih pravicah v kontekstu javne umetne inteligence se ne opira na klasično razumevanje premoženja kot fizične lastnine. V ustaljeni sodni praksi European Court of Human Rights je pojem »premoženja« razložen širše in vključuje tudi pravno varovane položaje, ki imajo ekonomsko in socialno vrednost, če so dovolj določeni in priznani v pravnem redu. Mednje sodijo upravičeni zahtevki, legitimna pričakovanja ter dostop do javnih sistemov in storitev, kadar ti neposredno vplivajo na posameznikov pravni in dejanski položaj.
Evropsko sodišče za človekove pravice je v svoji praksi večkrat poudarilo, da kadar država ustvari določen javni sistem, ga ponudi pod enotnimi in splošnimi pogoji ter ima ta sistem pomembne posledice za posameznikovo življenje, razvoj ali pravni položaj, država pri njegovem oblikovanju in izvajanju ne sme ravnati arbitrarno niti brez ustreznih varovalk. V takih primerih namreč ne gre zgolj za diskrecijsko politično izbiro, temveč za urejanje javne oblasti, ki vpliva na mirno uživanje pravno varovanega položaja v smislu 1. člena Protokola št. 1.
Preneseno na področje javne umetne inteligence to pomeni, da AI, ki jo država zagotavlja kot javno digitalno infrastrukturo, ni nevtralna ali zgolj tehnična storitev. Tak sistem neposredno vpliva na dostop do znanja, izobraževalne priložnosti, razvoj kognitivnih in socialnih veščin ter na sposobnost posameznika, da se v prihodnosti enakopravno vključuje v družbo. Pri otrocih ima ta vpliv dolgoročne posledice, saj se učinki uporabe javnega AI sistema ne izčrpajo v trenutni koristi, temveč segajo v njihov prihodnji socialni in ekonomski položaj.
Pri anksioznih otrocih se ta vidik še dodatno zaostri. Neurejena ali neregulirana raba javnega sistema umetne inteligence lahko njihov položaj dejansko poslabša, bodisi zaradi krepitve psihosocialnih tveganj bodisi zaradi neenakega dostopa do zaščitnih mehanizmov, ki so v praksi pogosto odvisni od razpoložljive družinske podpore, znanja ali digitalnih kompetenc. Takšna razlika v dejanskem dostopu do koristi in zaščite lahko vodi v strukturno neenakost, ki ni zgolj socialni problem, temveč postane pravno relevantna z vidika varstva pravno priznane koristi oziroma pričakovanja.
V tem smislu ima 1. člen Protokola št. 1 v obravnavanem okviru vlogo dodatnega, podpornega argumenta. Ne predstavlja nosilne pravne podlage za varstvo anksioznih otrok pri uporabi umetne inteligence, temveč krepi argumentacijo, da država pri oblikovanju javne AI infrastrukture ne ureja le tehničnega orodja, temveč sistem, ki vpliva na pravno in dejansko izenačenost posameznikov. Skupaj z 8. členom Evropske konvencije o človekovih pravicah, Konvencijo o otrokovih pravicah in ustavnimi določbami o posebnem varstvu otrok tako prispeva k celoviti razlagi pozitivnih obveznosti države v digitalnem okolju.