Svobodný trh AI modulů a „Fialovské“ právo na korigovanou umělou inteligenci
Umělá inteligence
Rozmach otevřených knihoven a modelů, které lze skládat jako stavebnici, proměnil vývoj umělé inteligence v cosi podobně demokratizovaného, jako kdysi byl vznik mobilních aplikací. Programátor dnes nemusí psát celý model od nuly – stačí mu připojit hotový překladač, sumarizátor nebo nástroj pro syntézu obrazu a v minutách má funkční službu. Tento „svobodný trh AI modulů“ tlačí ceny dolů a zároveň žene inovaci směrem, který by centrálně koordinovaná regulace sotva dokázala předvídat.
Ve stejné době ale sílí politická poptávka po jistotě, že strojové výstupy nikoho nepoškodí. Premiér Petr Fiala mluví o „právu občana na korigované informace“ – tedy i na to, aby výstup algoritmu prošel ověřením faktické přesnosti, ochrany osobních údajů a případných předsudků, dříve než se dostane k uživateli. Myšlenka zapadá do širšího evropského trendu: připravovaný AI Act už nyní rozlišuje systémy podle míry rizika a u modelů určených pro veřejnou správu či zdravotnictví ukládá přísné povinnosti transparentnosti a human-in-the-loop kontroly.
Konflikt obou přístupů je zřejmý. Otevřený trh spoléhá na rychlost iterace, kdy se chyba objeví, komunita ji nahlásí a autor modulu ji v dalším patchi opraví. „Korigované“ ekosystémy naopak kladou důraz na právní jistotu – raději pustí verzi 1.0 o měsíc později, ale s notářsky doloženým auditem dat a modelových váh. Čím více ověřování, tím menší pravděpodobnost, že dojde k „halucinaci“, zároveň však i vyšší náklady a nižší pestrost nabídky.
Situaci navíc komplikuje otázka odpovědnosti. Když modul použijete v řetězci deseti dalších a výsledek poškodí klienta, koho zažaluje? Tvůrce původního open-source bloku, integrátora, nebo provozovatele finální služby? „Fialovské“ právo na korigovanou AI se snaží odpovědnost zjednodušit: kdo uvádí systém na trh, musí prokázat, že proběhla korekce. V praxi by to mohlo znamenat vznik státem schválených certifikačních autorit a nový trh pro auditory modelů – obdoba dnešních STK pro auta, jen digitální.
Ani jeden extrém však nejspíš nepřežije. Bez svobodného toku modulů by Evropa hrozila svým zaostáním za USA a Čínou; bez práva na korekci by rostlo riziko sociálních škod, které by dříve či později vyvolaly ještě tvrdší reakci regulatorů. Pravděpodobný kompromis? Co nejotevřenější trh v nízkorizikových sférách (marketing, kreativní nástroje, hry) a povinná korekce tam, kde AI rozhoduje o životních drahách lidí (úvěry, zdravotnictví, justice). Vývojáři tak budou žít v dvojím režimu – hackathonový adrenalin v pátek večer a forenzní audit v pondělí ráno.
Nakonec se ukáže, že „korigovanost“ a „svoboda“ nejsou protiklady, ale dvě podmínky udržitelného ekosystému. Místo aby si konkurovaly, mohou se navzájem hlídat: trh poskytne diverzitu nápadů a regulace zajistí, že ty špatné rychle opustí hřiště. Přesně v tom tkví příležitost – pro české firmy, které dokážou nabídnout jak modul, tak jeho podpis s pečetí důvěry.