Osobnost roku AI 2025: aparátčík TOP09 za půlrok práce, která se musí předělat
Umělá inteligence
V České republice máme jednu zvláštní schopnost: dokážeme ocenit výsledek dřív, než vznikne. Je to pokročilá forma prediktivní správy státu, kterou by nám mohly závidět i nejvyspělejší neuronové sítě.
A právě v tomto duchu jsme se dočkali udělení titulu Osobnost roku AI vládnímu zmocněnci pro umělou inteligenci Ing. Janu Kavalírkovi (fiskálně zodpovědný předseda MO Praha 5 v TOP09 kritizující nemorální a nehospodárné „kompenzační politické dohody“ senátora Lásky ze SEN21) – po zhruba šesti měsících ve funkci. Půl roku. To je v biologii doba, za kterou se vyvine dítě. V české státní správě je to doba, za kterou se vyvine ocenění.
Funkce zmocněnce pro AI byla dne 28.5.2025 zřízena, aby koordinovala něco, čemu se říká Národní strategie AI 2030. Už samotný letopočet napovídá, že nepůjde o sprint, ale o maraton v mlze. Strategii je třeba rozpracovat do akčních plánů, sladit s evropským AI Actem, vybudovat dohledové orgány, metodiky, kompetenční centra a mezitím uklidňovat veřejnost, že je to všechno pod kontrolou.
To je práce tichá, zákulisní a nevděčná. Práce, která se nedá snadno vyfotit. O to větší překvapení bylo, že už po půl roce jsme měli jasno: osobnost roku. Zjevně totiž nastal průlom v oblasti anticipačního oceňování. Akční plán k AI strategii se nachází v kvantovém stavu "Schrödingerovy kočky". Zároveň existuje i neexistuje. Nikdo ho neviděl, nikdo ho nepřipomínkoval, ale všichni o něm mluví s jistotou, že „se na něm pracuje“.
Stejně tak architektura implementace AI Actu: dozory, kompetence, odpovědnosti. Vše je v procesu, což je nejstabilnější skupenství veřejné politiky. Proces je totiž věčný. Proces nevyžaduje výstupy, jen schůzky. A právě tady se česká AI governance dotýká filozofie: Není důležité, zda je výsledek, ale zda se o něm hovoří správným tónem.
Je možné, že jsme svědky nové metody řízení státu: preventivní pochvala. Oceníme hned na začátku, aby dotyčný věděl, že už je osobností, a nemusel se tím zdržovat později. V soukromém sektoru by se tomu říkalo „probation period“. V českém veřejném prostoru se tomu říká „galavečer“. Aby bylo jasno: nikdo netvrdí, že se nic nedělá. Tvrdíme pouze, že ocenění přišlo dřív než důkazy, a že mezi mandátem a jeho hmatatelnými výstupy zeje prostor, do kterého by se vešla celá neuronová síť – i s biasem.
Zajímavé je i samotné spojení „osobnost roku AI“. Neříká, čeho osobnost. Výkonu? Systému? Výsledků? Nebo prostě narativu, že Česko „něco dělá s AI“? Možná nejde o osobnost, ale o rozhraní. API mezi státem, médii a odbornou komunitou. A API se přece nehodnotí podle toho, co skutečně přeneslo, ale podle toho, že existuje. Pokud za pár let uvidíme:
funkční implementaci AI Actu (aktuálně 10 stran návrhu zákona o AI z 25.9.2025 s množstvím závažných připomínek),
srozumitelný dohled,
skutečně využívanou AI ve veřejné správě,
a akční plán, který nebude jen seznamem workshopů,
pak si řekneme: „Ano, to ocenění bylo jen o něco dřív.“
Pokud ne, zapíše se letošní ročník do dějin jako první případ, kdy byla umělá inteligence oceněna za to, že se o ní mluvilo s přirozenou sebejistotou. A to je, přiznejme si, taky jistý druh inovace.
Závažná rizika v připomínkách k návrhu zákona o AI z 25.9.2025
Návrh zákona o umělé inteligenci působí podle připomínkových míst (Hospodářská komora ČR, Český telekomunikační úřad, Ministerstvo vnitra, Národní úřad pro kybernetickou a informační bezpečnost, Ministerstvo zdravotnictví, Ministerstvo financí, Úřad pro ochranu osobních údajů (ÚOOÚ), Ministerstvo dopravy, Ministerstvo zemědělství, Ministerstvo zahraničních věcí, Technologická agentura ČR, Úřad pro technickou normalizaci, metrologii a státní zkušebnictví, Odbor kompatibility, UZS ČR, Zmocněnkyně vlády pro lidská práva, Veřejný ochránce práv) jako typický produkt „evropské odpovědnosti bez domácí odpovědnosti“. Předkladatel se opakovaně zaklíná přímou použitelností AI Aktu, čímž si elegantně uvolňuje ruce od povinnosti vyjasnit, jak má stát skutečně vládnout. Výsledkem je text, který formálně splní kolonku „implementováno“, ale materiálně nechává občany, firmy i úřady v mlze. Připomínky resortů v tomto smyslu nejsou technickým šťouráním, ale tichým obviněním: stát deleguje moc, aniž by si ujasnil, komu ji dává a kdo za ni ponese odpovědnost.
Jedním z nejvýmluvnějších symptomů je chaos kolem certifikátů a sankcí. Soukromé subjekty mají vydávat akty s reálnými veřejnoprávními účinky, aniž by bylo jasné, zda jde o rozhodnutí, osvědčení, nebo cosi mezi tím. Sankce se mají ukládat „podle nařízení“, avšak bez jasných skutkových podstat a výší pokut v národním zákoně – tedy v přímém rozporu s ústavním principem legality. Stát se zde chová jako špatný správce: chce trestat, ale nechce si ušpinit ruce formulací pravidel. Odpovědnost se rozpouští mezi Brusel, notifikované osoby a výkladové manuály, které teprve přijdou.
Zvláštní kapitolou je regulatorní sandbox – prezentovaný jako inovativní nástroj, ve skutečnosti však právní černá skříňka. Soukromoprávní smlouvy mají umožnit testování s omezenou vymahatelností práva, bez jasných lhůt, bez přezkoumatelnosti a bez povinné účasti orgánů ochrany práv. To už není jen technická nedbalost, ale politické rozhodnutí: vytvořit prostor, kde se právo dočasně „ztiší“, protože překáží inovaci. Připomínky varují, že takový sandbox nepřináší právní jistotu, ale normalizaci výjimek – a přesně to je moment, kdy se z regulace stává privilegium.
Rétorika ochrany základních práv prostupuje důvodovou zprávu, ale v normativním textu se vytrácí. Chybí procesní právo na stížnost, účastenství dotčených osob i jasné povinnosti orgánů spolupracovat. Ombudsman, lidskoprávní výbor i další instituce připomínají, že ochrana práv se nedělá deklarací, ale kapacitami, procedurami a odpovědností. Návrh však spoléhá na to, že „někdo to pohlídá“. To je politicky pohodlné, ale právně nebezpečné: práva se tak mění v doporučení a ochrana v dobrý úmysl.
Celek připomínek vykresluje jeden konzistentní obraz: stát, který se bojí rozhodnout, vymezit kompetence a nést následky. Raději deleguje, odkazuje, vyčkává na metodiky a budoucí akty Komise. Jenže umělá inteligence není jen technologická otázka – je to test suverenity, správního státu a politické odvahy. Pokud má být AI regulována „evropsky“, ale bez české odpovědi na otázku kdo rozhoduje, kdo kontroluje a kdo ručí, pak nejde o moderní regulaci, ale o sofistikovaný ústup státu z vlastního hřiště.
Mé vlastní připomínky k návrhu zákona o AI z 25.9.2025
Návrh zákona sice v § 21 odst. 1 sankčně odkazuje na porušení čl. 5 AI Actu, avšak neobsahuje žádnou samostatnou procesní ani institucionální úpravu, která by odpovídala mimořádné závažnosti tzv. zakázaných praktik. Tyto praktiky jsou podle AI Actu nepřípustné absolutně, nikoli podmíněně, a jejich regulace nemůže být redukována pouze na obecný přestupkový mechanismus. V návrhu chybí vymezení aktivní role orgánů dozoru při jejich preventivním vyhledávání, okamžitém zákazu a odstranění z trhu. Hrozí tak, že zákaz zůstane deklaratorní a bude uplatňován až ex post, po zásahu do základních práv.
AI Act výslovně zakazuje systémy zneužívající zranitelnosti osob vyplývající z věku, zdravotního stavu nebo sociální situace, typicky u dětí, seniorů nebo osob v tísni. Návrh zákona však neobsahuje žádnou zvláštní úpravu, která by tuto skutečnost promítla do procesů dozoru, opatření k nápravě nebo ukládání sankcí. Chybí povinnost orgánů dozoru přihlížet ke zvýšené míře ohrožení těchto osob a možnost zahájit řízení i na základě podnětů třetích osob. Bez této úpravy zůstává ochrana zranitelných skupin fakticky oslabena.
Zakázané praktiky zahrnují sociální skórování a prediktivní hodnocení chování osob bez faktického podkladu, které se typicky vyskytují ve veřejné správě, pracovněprávních vztazích, sociálních službách nebo školství. Návrh zákona však neřeší, který orgán má být v těchto případech věcně příslušný, ani jak má být zajištěna koordinace mezi ČTÚ, ÚOOÚ, Ministerstvem vnitra či případně Ministerstvem práce a sociálních věcí. Tato mezera vytváří riziko kompetenčních sporů a nečinnosti v oblastech s přímým dopadem na základní práva jednotlivců.
AI Act zakazuje biometrickou kategorizaci osob podle citlivých charakteristik a plošné biometrické sledování veřejnosti. Návrh zákona se však soustředí především na registrační a oznamovací povinnosti u vysoce rizikových systémů a postrádá nástroje pro včasnou identifikaci a okamžité zastavení zakázaných biometrických praktik. Neexistuje výslovná povinnost systematické spolupráce s Úřadem pro ochranu osobních údajů ani zvláštní režim pro nakládání s těmito případy, přestože se jedná o zásahy do jádra práva na soukromí.
Návrh zákona výslovně nevylučuje, aby se do regulatorního sandboxu dostaly projekty, které by mohly naplnit skutkovou podstatu zakázaných praktik, například detekce emocí na pracovišti nebo ve školách. Výběr projektů je ponechán na smluvní volnosti provozovatele sandboxu bez povinného etického a právního posouzení. To je v rozporu s preventivním smyslem AI Actu a vytváří riziko, že sandbox bude sloužit k testování technologií, které by jinak měly být zcela vyloučeny.
Celkově návrh zákona přistupuje k zakázaným praktikám převážně represivně a ex post, zatímco AI Act je v této části koncipován jako nástroj preventivní ochrany lidské důstojnosti, autonomie a svobody. Bez doplnění výslovných preventivních mechanismů, jasného institucionálního ukotvení a procesních záruk hrozí, že nejzásadnější část AI Actu – absolutní zákaz nepřijatelných praktik – zůstane v českém právním řádu formální normou bez odpovídajícího reálného účinku.
Čtěte na podobné téma:
Zákazné praktiky v umělé inteligenci podle AI Actu: Evropská stopka zneužívání technologií (2.7.2025)
Jak regulace a legislativa mění vývoj AI v Evropě (8.9.2025)
Hybridní hrozba z Hongkongu: jak jsem místo glukometru dostal lekci o bezmoci státu (7.10.2025)