AI Act přichází: Jste připraveni na nové povinnosti v oblasti umělé inteligence?
26. 6. 2025
Evropská unie se stala první velkou jurisdikcí, která přijala komplexní regulaci systémů umělé inteligence. Nové nařízení o AI (tzv. AI Act) vstoupilo v platnost v srpnu 2024 a jím zavedené povinnosti budou nabývat účinky postupně v průběhu několika následujících let. AI Act zásadně ovlivní vývoj i používání umělé inteligence v evropském podnikatelském prostředí a pro využití systémů AI ze strany podniků stanovuje řadu nových povinností a omezení.
Co je AI Act a koho se týká
AI Act zavádí právní rámec pro vývoj, nasazování a používání systémů umělé inteligence v Evropské unii. Zaměřuje se zejména na ochranu základních práv občanů, bezpečnost a transparentnost.
Týká se nejen vývojářů AI, ale i firem, které AI systémy využívají ve svém podnikání – ať už jde o zákaznický servis, HR nástroje, automatizované rozhodování nebo například prediktivní analytiku.
Klíčová novinka – klasifikace rizika
Základní koncepcí AI Actu je klasifikace systémů AI podle míry jejich rizika. Každá firma by proto měla nejprve zjistit, do které kategorie spadá konkrétní využívaný AI nástroj, a podle toho nastavit odpovídající compliance procesy.
1. Zakázané systémy (např. manipulativní techniky, sociální scoring pro orgány veřejné správy, biometrická identifikace na dálku pro účely policejní kontroly a predikce zločinů, apod.).
- Jsou zcela nepřípustné a nesmí být v EU používány ani nabízeny.
2. Vysoce rizikové systémy (např. AI používaná při náboru a hodnocení zaměstnanců nebo přístupu ke službám nebo AI v oblasti zdravotnictví a vymáhání práva).
- Regulace těchto systémů je nejdůležitější součástí AI Actu.
- Pro vysoce rizikové AI systémy je nutné zajistit systém řízení rizik, vytvořit technickou dokumentaci, vést záznamy o provozu (logování), implementovat opatření kybernetické bezpečnosti a nastavit lidský dohled nad fungováním systému.
- Firmy musí zároveň u vysoce rizikových systémů zajistit posouzení shody a systém registrovat.
3. Systémy s omezeným rizikem (např. chatboty nebo generativní AI, u kterých hrozí manipulace uživatelů)
- Podléhají především povinnosti informovat uživatele o tom, že interagují se systémem AI, a označit generovaný AI obsah.
4. Nízkorizikové systémy (většina současných AI nástrojů využívaných v EU).
- Nejsou přímo regulovány, ale doporučuje se dobrovolné dodržování etických zásad a sestavení odpovídající dokumentace.
Na co si dát pozor v praxi
AI nástroje pro HR
- Systémy pro výběr uchazečů nebo hodnocení zaměstnanců budou pravděpodobně spadat mezi vysoce rizikové.
Generativní AI (např. ChatGPT nebo Gemini)
- Pokud ji používáte k vytváření obsahu nebo odpovědí, musíte informovat uživatele o tom, že interagují s AI.
Automatizovaná rozhodnutí (např. v bankovnictví, pojišťovnictví nebo e-commerce)
- Mohou podléhat přísným pravidlům a omezením.
Školení zaměstnanců
- Je nutné zajistit, aby osoby pracující s jakýmkoli AI systémem rozuměly jeho omezením a rizikům.
Doporučení pro podniky
- Proveďte interní audit využívaných AI systémů (ideálně ještě před jejich začleněním do provozu).
- Zaveďte compliance procesy odpovídající klasifikaci rizika u daného AI systému dle AI Actu.
- Sledujte vývoj sekundární legislativy a implementačních pokynů, které upřesní řadu povinností stanovených AI Actem.
- Zajistěte proškolení svých zaměstnanců.
Závěr
AI Act zásadně mění pravidla pro vývoj a používání umělé inteligence v Evropské unii. Firmy musí nově posoudit, do jaké rizikové kategorie jejich AI nástroje spadají, a podle toho upravit interní procesy a dokumentaci. Nejvíce povinností dopadne na systémy s vysokým rizikem. Rovněž běžné nástroje typu chatbot nebo generativní AI ale budou podléhat jasně definovaným pravidlům. Včasná orientace v požadavcích AI Actu tak pomůže firmám předejít možným sankcím a nesprávné implementaci AI do firemních procesů, jejíž zpětná náprava může znamenat velké náklady a provozní problémy.
Lukáš Závozda
l.zavozda@roseeurope.eu
+420 720 659 070