AI Act – vše o nových pravidlech pro umělou inteligenci v EU

robot-represents-european-union-future-technology-artificial-intelligence-embraces-european-flag

V posledních letech se umělá inteligence stala nejen nástrojem inovací, ale i tématem intenzivní právní debaty. S tím, jak roste její vliv na společnost, trh i základní práva lidí, Evropská unie přijala první komplexní regulaci v této oblasti – Nařízení o harmonizovaných pravidlech pro umělou inteligenci, známé hlavně jako AI Act. V článku si projdeme, jak AI Act mění pravidla pro vývoj a používání AI technologií, jaké principy zavádí a co v praxi znamená pro různé oblasti.

Co je to AI Act?

AI Act je evropské nařízení, které začalo platit v srpnu 2024. Jeho cílem je nastavit jednotná pravidla pro vývoj, uvádění na trh a používání systémů umělé inteligence (AI systémů) v rámci EU.

AI systém je potom software nebo zařízení, které samostatně plní úkoly na základě práce s daty, vzorci a modely – tedy činnosti, kde by jinak rozhodoval člověk. Typicky sem patří rozpoznávání řeči a obrazu, překladače, chatboti, doporučovací algoritmy na e-shopech, diagnostické nástroje ve zdravotnictví nebo systémy pro hodnocení bonity klientů.

Hlavním cílem AI Act je, aby tyto systémy:

  • fungovaly bezpečně a transparentně,
  • nikoho nediskriminovaly a rozhodovaly spravedlivě,
  • respektovaly právo EU a základní lidská práva.

Jaké povinnosti už podle AI Act platí?

Hlavní části nařízení budou účinné a začnou tedy dopadat na firmy od srpna 2026. Některé povinnosti ale platí už teď:

Uživatelé musí vědět, že komunikují s AI. Pokud na svůj web nasadíte chatbota, jasně ho označte, aby bylo jasné, že na druhé straně nesedí člověk.

Některé AI systémy EU rovnou zakázala. Typicky biometrickou identifikaci osob v reálném čase ve veřejném prostoru (až na velmi omezené zákonné výjimky) nebo systémy, které hodnotí děti či jiné zranitelné skupiny.

Firmy a vývojáři se musí začít připravovat. Dává smysl už teď dokumentovat, jak jejich AI systémy fungují, jak pracují s daty a jak řídí rizika, aby od srpna 2026 splnily všechny požadavky bez stresu na poslední chvíli.

Koho se AI Act týká?

AI Act dopadá na všechny, kdo se podílí na vývoji, uvádění na trh nebo používání AI systémů v EU, a to bez ohledu na to, jestli sídlí v EU, nebo mimo ni. Rozhoduje dopad na unijní trh, ne adresa společnosti.

Nejde jen o vývojáře a poskytovatele, kteří AI systémy vytvářejí. Nařízení počítá i s uživateli (tzv. zavádějícími subjekty), kteří systémy nasazují do praxe. Dále se týká distributorů, dovozců, výrobců produktů s AI funkcemi i zplnomocněných zástupců, kteří jednají jménem firem mimo EU.

Zjednodušeně řečeno: pokud nějakým způsobem uvádíte AI systém na trh, dodáváte ho, nebo ho provozujete v rámci EU, AI Act se vás týká.

Klasifikace systémů umělé inteligence podle míry rizika

Jedním ze základních principů AI Actu je tzv. přístup založený na riziku (risk-based approach), který dělí AI systémy do čtyř kategorií podle toho, jaký dopad mohou mít na bezpečnost, zdraví, základní práva nebo veřejný zájem.

Nepřijatelné riziko

Nepřijatelné riziko představují systémy, které EU rovnou zakázala. Patří sem například biometrická identifikace osob v reálném čase na veřejnosti, sociální skórování nebo AI, která cíleně manipuluje zranitelné skupiny jako jsou děti nebo osoby se zdravotním postižením.

Vysoké riziko

Vysoké riziko zahrnují systémy, které mohou zásadně ovlivnit život jednotlivce nebo fungování společnosti, zejména pokud se používají při rozhodování s reálnými dopady. Tyto systémy podléhají přísným pravidlům. Musí mít tzv. prohlášení o shodě a být registrovány. Riziko se vždy posuzuje podle účelu, kontextu a způsobu použití. Patří sem například AI pro výběr zaměstnanců, zdravotní diagnostiku, přidělování veřejných služeb nebo hodnocení bonity klientů.

Omezené riziko

Omezené riziko se týká systémů, které samy o sobě nerozhodují o zásadních věcech. U těchto systémů nařízení klade důraz hlavně na transparentnost vůči uživatelům. Uživatel musí jasně vědět, že komunikuje s AI, nikoliv s člověkem (např. chatboti).

Minimální riziko

Minimální riziko zahrnuje většinu běžných AI nástrojů jako jsou doporučovací algoritmy na e-shopech nebo automatické překladače. Tyto systémy nepodléhají zvláštním regulatorním požadavkům.

AI ve firmách podle AI Act

V Cybrela akademii jsme pro vás připravili online kurz, který vás provede světem AI Actu krok za krokem. Zjistíte, co přesně vaše firma musí splnit, jak ošetřit smlouvy s dodavateli AI nebo jak nastavit interní pravidla tak, aby AI byla přínosem, nikoliv právní hrozbou. Pusťte se do studia a mějte v pravidlech jasno dřív, než začnou platit úplně.
ONLINE KURZ

Dopad na organizace

Pokud váš AI systém spadá do kategorie vysokého rizika, musíte splnit konkrétní povinnosti. Nařízení jde poměrně do detailu, zejména v těchto oblastech:

Součástí režimu je také povinnost označení CE u vysoce rizikových AI systémů uváděných na trh, podobně jako u jiných regulovaných technologií.

AI Act zároveň myslí na malé a střední podniky. Zavádí tzv. regulatorní sandboxy – kontrolovaná testovací prostředí, kde firmy mohou vyvíjet a testovat AI pod dohledem úřadů ještě před uvedením na trh, aniž by jim hrozily sankce za případné nedostatky.

Jak se Česko připravuje na AI Act?

V roce 2025 vláda schválila návrh zákona o umělé inteligenci, který doplňuje AI Act na národní úrovni. Zákon určuje, kdo bude dohlížet na dodržování pravidel, jak poběží regulatorní sandbox a jaké budou sankce při porušení pravidel.

Národní zákon o umělé inteligenci zatím Parlament neschválil. Prochází legislativním procesem a jeho finální podoba se ještě může změnit. Regulatorní sandbox vláda schválila jako projekt, ale detailní pravidla účasti a fungování zatím zákon pevně nestanovil. Úřady teď připravují metodiky a upřesňují konkrétní podmínky.

Kdo má jakou roli?

MPO

Ministerstvo průmyslu a obchodu
Národní koordinátor AI Actu. Řídí celou agendu a zajišťuje spolupráci mezi úřady.

ČTÚ

Český telekomunikační úřad
Hlavní dozorový orgán pro většinu AI systémů. Slouží také jako kontaktní místo pro hlášení a mezinárodní spolupráci.

ČNB

Česká národní banka
Dohlíží na využívání AI ve finančním sektoru.

ÚOOÚ

Úřad pro ochranu osobních údajů
Kontroluje, jak při používání AI chráníte osobní údaje a základní práva.

ÚNMZ

Úřad pro technickou normalizaci, metrologii a státní zkušebnictví
Jmenuje tzv. oznámené subjekty pro posuzování shody AI systémů a kontroluje jejich činnost.

ČAS

Česká agentura pro standardizaci
Provozuje regulatorní sandbox, poskytuje metodickou podporu a pomáhá při zavádění evropských norem pro AI.

Co si z článku odnést?

AI Act představuje zásadní krok směrem k regulaci umělé inteligence v Evropě. Nastavuje pravidla pro vývoj a používání AI systémů podle míry rizika a přináší větší právní jistotu nejen poskytovatelům a vývojářům, ale i uživatelům.

Některé povinnosti zvýší administrativní i finanční nároky. Na druhou stranu dávají jasnější mantinely, posilují bezpečnost, transparentnost a ochranu základních práv. Pro firmy to znamená hlavně to, že umělou inteligenci nemůžou brát jenom jako technologické téma, které si žije vlastním životem, ale jako otázku řízení rizik a odpovědnosti.

Pomůžeme Vám s AI Act

Nejste si jistí, jak AI Act dopadne na vaše procesy. Podíváme se na vaše konkrétní využití AI a poradíme, jak postupovat.

Další články

Co přináší AI Act? Přehledný průvodce novou regulací umělé inteligence v EU. Zjistěte, jaká pravidla přináší pro firmy a co se mění v roce 2026.
Vyrábíte nebo poskytujete chytrá zařízení nebo cloudové služby? Přečtěte si přehled povinností a tipy, jak být v souladu s EU Data Act.
Jaká bezpečnostní opatření vyžaduje zákon o kybernetické bezpečnosti? Přehled a vysvětlení opatření ve vyšším a nižším režimu.

Newsletter

Chcete mít jistotu, že Vaše firma je chráněna před kybernetickými hrozbami a zároveň být v souladu s platnou legislativou? Přihlaste se k odběru newsletteru a získejte praktické rady od našich konzultantů s právním vzděláním.

Kliknutím na odebírat vyjadřujete souhlas se zpracováním osobních údajů pro marketingové účely.