Zákazné praktiky v umělé inteligenci podle AI Actu: Evropská stopka zneužívání technologií

Umělá inteligence

Evropská unie udělala v roce 2025 výrazný krok směrem k etičtějšímu, bezpečnějšímu a zodpovědnějšímu využívání umělé inteligence. V únoru 2025 vstoupila v platnost první část tzv. AI Actu, která zakazuje tzv. nepřijatelné praktiky v oblasti AI. A není to jen formální gesto: od 2. srpna 2025 začínají platit přísné sankce – až 35 milionů eur nebo 7 % globálního obratu za porušení zákazu. Ale co to vlastně znamená? A koho se to týká? Tento blogový článek shrnuje zásadní body a mapuje konkrétní případy nepřijatelných praktik, navrhuje cesty k nápravě a upozorňuje na rizika nejen právní, ale i reputační.


AI Act staví na přístupu založeném na hodnocení rizika, přičemž nejvyšší riziko představují tzv. zakázané praktiky. Ty jsou natolik závažné, že nemohou být povoleny ani za přísných podmínek. Jde o následující oblasti:

  • Subliminální manipulace – například reklamy, které využívají podprahové signály pro manipulaci bez vědomí uživatele.

  • Sociální skórování – algoritmy, které hodnotí občany podle jejich chování nebo charakteristik, čímž dochází k diskriminaci (např. odepření půjčky na základě chování na sociálních sítích).

  • Zneužívání zranitelnosti – typicky cílená manipulace na děti, seniory nebo lidi v tísni.

  • Biometrická kategorizace – AI, která na základě rysů obličeje nebo jiných biometrických údajů určuje např. náboženské či politické postoje.

  • Reálné sledování veřejnosti policií pomocí biometrie – například rozpoznávání obličejů na demonstracích.

  • Detekce emocí ve školách a na pracovištích – s výjimkou zdravotních a bezpečnostních důvodů.

  • Shromažďování tváří z internetu bez souhlasu – tzv. image scraping.

  • Prediktivní policejní systémy bez faktického podkladu – například AI, která "odhadne" budoucí trestný čin na základě osobnostního profilu.

Nejde přitom o sci-fi. Mnoho těchto praktik je už dnes reálných nebo se k nim blíží. Sociální sítě přizpůsobují obsah tak, aby u mladistvých vyvolával specifické emoce a zvyšovaly závislost. Aplikace pro hazardní hry využívají data o chování uživatelů k maximalizaci zisku i za cenu udržování hráčské závislosti. Systémy hodnocení zaměstnanců sledují sociální chování i mimo pracovní dobu. AI koučové ve fitness mohou podporovat poruchy příjmu potravy a nerealistické ideály krásy. Dopady? Diskriminace, narušení soukromí, psychologická újma, ale také ekonomická újma – například při nespravedlivém zamítnutí úvěru nebo pojistky. Je tedy žádoucí upravit AI systémy, aby splňovaly požadavky AI Act. EU firmám neříká jen "co nedělat", ale i jak se připravit, např.:

  • Audit AI systémů – co používáte, kde a jak.

  • Identifikace rizik – kdo může být ohrožen, jaké údaje se používají.

  • Vzdělávání zaměstnanců – nejen techniků, ale i managementu.

  • Zřízení etické AI komise – s právníky, IT odborníky i zástupci veřejnosti.

  • Pravidelné kontroly – interní i externí, včetně mechanismů zpětné vazby.

Nepřijatelné AI praktiky už nejsou jen etickým problémem. Staly se i právním a reputačním rizikem. V éře transparentnosti může být horší než pokuta právě ztráta důvěry zákazníků, zaměstnanců nebo investorů. AI je nástroj – může být mocný spojenec, nebo destruktivní síla. EU se rozhodla říct jasné „ne“ systémům, které ničí důstojnost člověka, zneužívají slabší nebo manipulují s našimi emocemi. Firmy teď stojí před výzvou: nejen přizpůsobit technologie, ale i přenastavit hodnoty. A to je možná to největší „compliance“, jaké se od nás všech očekává.

Nejde tedy jen o právní předpis, který „otravuje byznys“. AI Act je pokus o návrat důvěry v technologie. Ve světě, kde lidé stále častěji mluví o „digitálním vyhoření“, „ztrátě autonomie“ nebo „manipulaci algoritmem“, přichází Evropa s jasným signálem: „AI musí být naším nástrojem – ne naším pánem.“ Společnosti, které se přizpůsobí včas, nezískají jen razítko od regulátora. Získají něco mnohem cennějšího – respekt uživatelů a zákazníků, kteří konečně vědí, co mohou od AI čekat.

  • Sdílet: