- Veronika Beňová
V posledních letech se umělá inteligence stala nejen nástrojem inovací, ale i tématem intenzivní právní debaty. S tím, jak roste její vliv na společnost, trh i základní práva lidí, Evropská unie přijala první komplexní regulaci v této oblasti – Nařízení o harmonizovaných pravidlech pro umělou inteligenci, známé hlavně jako AI Act. V článku si projdeme, jak AI Act mění pravidla pro vývoj a používání AI technologií, jaké principy zavádí a co v praxi znamená pro různé oblasti.
Co je to AI Act?
AI Act je evropské nařízení, které začalo platit v srpnu 2024. Jeho cílem je nastavit jednotná pravidla pro vývoj, uvádění na trh a používání systémů umělé inteligence (AI systémů) v rámci EU.
AI systém je potom software nebo zařízení, které samostatně plní úkoly na základě práce s daty, vzorci a modely – tedy činnosti, kde by jinak rozhodoval člověk. Typicky sem patří rozpoznávání řeči a obrazu, překladače, chatboti, doporučovací algoritmy na e-shopech, diagnostické nástroje ve zdravotnictví nebo systémy pro hodnocení bonity klientů.
Hlavním cílem AI Act je, aby tyto systémy:
- fungovaly bezpečně a transparentně,
- nikoho nediskriminovaly a rozhodovaly spravedlivě,
- respektovaly právo EU a základní lidská práva.
Jaké povinnosti už podle AI Act platí?
Hlavní části nařízení budou účinné a začnou tedy dopadat na firmy od srpna 2026. Některé povinnosti ale platí už teď:
Uživatelé musí vědět, že komunikují s AI. Pokud na svůj web nasadíte chatbota, jasně ho označte, aby bylo jasné, že na druhé straně nesedí člověk.
Některé AI systémy EU rovnou zakázala. Typicky biometrickou identifikaci osob v reálném čase ve veřejném prostoru (až na velmi omezené zákonné výjimky) nebo systémy, které hodnotí děti či jiné zranitelné skupiny.
Firmy a vývojáři se musí začít připravovat. Dává smysl už teď dokumentovat, jak jejich AI systémy fungují, jak pracují s daty a jak řídí rizika, aby od srpna 2026 splnily všechny požadavky bez stresu na poslední chvíli.
Koho se AI Act týká?
AI Act dopadá na všechny, kdo se podílí na vývoji, uvádění na trh nebo používání AI systémů v EU, a to bez ohledu na to, jestli sídlí v EU, nebo mimo ni. Rozhoduje dopad na unijní trh, ne adresa společnosti.
Nejde jen o vývojáře a poskytovatele, kteří AI systémy vytvářejí. Nařízení počítá i s uživateli (tzv. zavádějícími subjekty), kteří systémy nasazují do praxe. Dále se týká distributorů, dovozců, výrobců produktů s AI funkcemi i zplnomocněných zástupců, kteří jednají jménem firem mimo EU.
Zjednodušeně řečeno: pokud nějakým způsobem uvádíte AI systém na trh, dodáváte ho, nebo ho provozujete v rámci EU, AI Act se vás týká.
Klasifikace systémů umělé inteligence podle míry rizika
Jedním ze základních principů AI Actu je tzv. přístup založený na riziku (risk-based approach), který dělí AI systémy do čtyř kategorií podle toho, jaký dopad mohou mít na bezpečnost, zdraví, základní práva nebo veřejný zájem.
Nepřijatelné riziko
Nepřijatelné riziko představují systémy, které EU rovnou zakázala. Patří sem například biometrická identifikace osob v reálném čase na veřejnosti, sociální skórování nebo AI, která cíleně manipuluje zranitelné skupiny jako jsou děti nebo osoby se zdravotním postižením.
Vysoké riziko
Vysoké riziko zahrnují systémy, které mohou zásadně ovlivnit život jednotlivce nebo fungování společnosti, zejména pokud se používají při rozhodování s reálnými dopady. Tyto systémy podléhají přísným pravidlům. Musí mít tzv. prohlášení o shodě a být registrovány. Riziko se vždy posuzuje podle účelu, kontextu a způsobu použití. Patří sem například AI pro výběr zaměstnanců, zdravotní diagnostiku, přidělování veřejných služeb nebo hodnocení bonity klientů.
Omezené riziko
Omezené riziko se týká systémů, které samy o sobě nerozhodují o zásadních věcech. U těchto systémů nařízení klade důraz hlavně na transparentnost vůči uživatelům. Uživatel musí jasně vědět, že komunikuje s AI, nikoliv s člověkem (např. chatboti).
Minimální riziko
Minimální riziko zahrnuje většinu běžných AI nástrojů jako jsou doporučovací algoritmy na e-shopech nebo automatické překladače. Tyto systémy nepodléhají zvláštním regulatorním požadavkům.
AI ve firmách podle AI Act
Dopad na organizace
Pokud váš AI systém spadá do kategorie vysokého rizika, musíte splnit konkrétní povinnosti. Nařízení jde poměrně do detailu, zejména v těchto oblastech:
- Systém navrhnete tak, aby předcházel chybám a minimalizoval negativní dopady.
- Zajistíte dohledatelnost použitých dat i rozhodnutí, která systém generuje.
- Ověříte, že systém funguje spolehlivě, stabilně a bezpečně i v nestandardních podmínkách.
- Udržíte si přehled o vývoji, fungování i změnách systému během životního cyklu.
- Nastavíte lidský dohled, tzn. rozhodování AI musí být pod kontrolou a v případě potřeby musí být možné zasáhnout.
Součástí režimu je také povinnost označení CE u vysoce rizikových AI systémů uváděných na trh, podobně jako u jiných regulovaných technologií.
AI Act zároveň myslí na malé a střední podniky. Zavádí tzv. regulatorní sandboxy – kontrolovaná testovací prostředí, kde firmy mohou vyvíjet a testovat AI pod dohledem úřadů ještě před uvedením na trh, aniž by jim hrozily sankce za případné nedostatky.
Jak se Česko připravuje na AI Act?
V roce 2025 vláda schválila návrh zákona o umělé inteligenci, který doplňuje AI Act na národní úrovni. Zákon určuje, kdo bude dohlížet na dodržování pravidel, jak poběží regulatorní sandbox a jaké budou sankce při porušení pravidel.
Národní zákon o umělé inteligenci zatím Parlament neschválil. Prochází legislativním procesem a jeho finální podoba se ještě může změnit. Regulatorní sandbox vláda schválila jako projekt, ale detailní pravidla účasti a fungování zatím zákon pevně nestanovil. Úřady teď připravují metodiky a upřesňují konkrétní podmínky.
Kdo má jakou roli?
MPO
ČTÚ
ČNB
ÚOOÚ
ÚNMZ
ČAS
Co si z článku odnést?
AI Act představuje zásadní krok směrem k regulaci umělé inteligence v Evropě. Nastavuje pravidla pro vývoj a používání AI systémů podle míry rizika a přináší větší právní jistotu nejen poskytovatelům a vývojářům, ale i uživatelům.
Některé povinnosti zvýší administrativní i finanční nároky. Na druhou stranu dávají jasnější mantinely, posilují bezpečnost, transparentnost a ochranu základních práv. Pro firmy to znamená hlavně to, že umělou inteligenci nemůžou brát jenom jako technologické téma, které si žije vlastním životem, ale jako otázku řízení rizik a odpovědnosti.