AI jako nástroj autoritářství: Proč potřebujeme bránit demokracii technickými prostředky

Umělá inteligence

Umělá inteligence dnes není jen o doporučování videí nebo předpovídání počasí. Stává se tichým motorem nové éry dohledu, v níž vládnoucí moc získává schopnosti dříve vyhrazené sci-fi dystopiím.


Text Toward Resisting AI-Enabled Authoritarianism od týmu vědců z Oxfordu a nezávislých výzkumníků varuje: AI se stala operačním systémem moderního autoritářství. A my zatím nemáme obranný firewall. Vědecký tým identifikuje čtyři technické vlastnosti dnešní AI, které umožňují zneužití státní mocí:

  • Masivní sběr dat v reálném čase.

  • Black-box inference – neprůhledné rozhodování, které nelze zpětně vysvětlit.

  • Automatizace rozhodování bez lidského dohledu.

  • Extrémní rychlost provádění.

Tyto rysy umožňují režimům nejen sledovat občany, ale i předvídat jejich chování – a preventivně zasahovat. V Číně je to realita. V Evropě budoucnost, která se už testuje. Autoři varují, že zneužívání AI není výsadou totalitních států. Ukazují, že i takzvané „liberální demokracie“ jako Nizozemsko, Dánsko nebo Austrálie implementují systémy, které obejdou soudní dohled a porušují základní práva. Příklady? Automatizované „pre-crime“ algoritmy, které penalizují rodiny na základě statistických pravděpodobností. Skryté skórovací systémy hodnotící rizikovost občanů. Nasazení rozpoznávání obličejů na demonstracích. A to vše bez souhlasu, vysvětlení a někdy i bez vědomí parlamentů.

Problém není jen v technice, ale v asymetrii: stát má víc dat, víc zdrojů, víc právních výjimek. Když AI pomáhá koncentraci moci, občan ztrácí možnost kontroly. A právě zde autoři navrhují změnu: ML (machine learning) komunita musí přestat být jen nástrojem moci a začít vyvíjet nástroje odporu. Navržená obranná strategie stojí na třech pilířích:

  • Scalable Privacy – tedy ochrana soukromí pomocí nástrojů jako diferenciální soukromí či federované učení. Cíl: znemožnit masový sběr dat bez ztráty výkonu modelu.

  • Formální interpretovatelnost – vývoj metod, které umožní vysvětlit rozhodnutí AI (např. proč vás systém označil jako rizikového).

  • Adversariální nástroje pro občany – např. nástroje na skrytí obličeje před kamerami nebo maskování datového provozu. Ne proto, že občan má něco skrývat, ale protože má právo nebýt sledován.

Kritici mohou namítat, že technická řešení legitimizují nelegitimní systémy. Ale autoři přesvědčivě odpovídají: v realitě, kde zákony zaostávají, technické zbraně nejsou volitelné, ale nezbytné. Neřeší vše, ale bez nich není žádný prostor pro odpor, osvětu ani politickou změnu.

Zatímco se vývojáři předhánějí v nových generativních modelech, výzkum obrany proti jejich zneužití stagnuje. To je nutné změnit. NeurIPS, ICML i ICLR – přední konference strojového učení – by měly zavést sekce zaměřené na „obranné ML“. Výzkumné granty by měly cílit na nástroje, které nebudují sílu režimu, ale autonomii jednotlivce.

V éře AI není neutralita možná. Každý algoritmus je politický. A každé kliknutí vývojáře je buď cihlou ve zdi dohledu – nebo trhlinou v ní.

AI jako nástroj autoritářství
AI jako nástroj autoritářství · Foto: Zbořil/ChatGPT
  • Sdílet: