Dne 1. srpna 2024 vstoupil v platnost světově první právní rámec zaměřený na regulaci umělé inteligence, známý jako AI Act (nařízení Evropského parlamentu a Rady (EU) č. 2024/1689). Toto nařízení má za cíl zajistit ochranu základních práv evropských občanů a podniků a zvýait bezpečnost prostřednictvím regulace systémů umělé inteligence na základě jejich rizikového potenciálu.
Koho se nařízení dotkne?
AI Act se aplikuje na celý u~ivatelský a vývojový řetězec umělé inteligence. Povinnosti se vaak výrazně liaí podle role, kterou subjekt v hodnotovém řetězci zastává. Nejpřísnějaí regulace se týkají poskytovatelů a u~ivatelů vysoce rizikových systémů umělé inteligence. Příkladem mohou být vývojáři systémů pro biometrickou identifikaci, ale i bě~né společnosti pou~ívající AI při své činnosti, například při náboru zaměstnanců a analýze ~ivotopisů. Ze sektorového pohledu bude kromě vývoje moderních technologií AI Act klást zvýaené nároky předevaím na oblast sociálních sítí, digitální marketingové společnosti nebo finanční a pojiaťovací sektor
Klasifikace rizik
AI Act rozliauje u systémů AI čtyři úrovně rizika:
Zakázané postupy
Postupy v oblasti AI, které
představují zvláatě akodlivé
způsoby vyu~ití AI, jsou zakázané. Do
této kategorie patří například
systémy sociálního hodnocení,
manipulaci s lidským chováním a
hromadný scraping obličejů pro
vytváření databází pro
rozpoznávání obličejů.
Vysoce rizikové
systémy
Tyto systémy mohou negativně ovlivnit bezpečnost
lidí nebo jejich základní práva.
Patří sem systémy pou~ívané v
kritické infrastruktuře,
vzdělávání,
zaměstnání, řízení
pracovníků, přístupu k
základním veřejným slu~bám,
prosazování práva nebo biometrické
identifikaci.
Začíná nová éra regulace umělé inteligence
Systémy s omezeným
rizikem
Typicky zahrnují chatovací roboty nebo
generativní AI, kde regulace klade důraz zejména
na transparentnost.
Systémy s minimálním
rizikem
Větaina systémů AI pou~ívaných v EU
spadá do této kategorie, například AI ve
hrách nebo spamové filtry. V těchto
případech mohou subjekty splňovat po~adavky
regulace dobrovolně.
Povinnosti poskytovatelů vysoce rizikových
systémů
Ne~ poskytovatel uvede na evropský trh vysoce
rizikový systém AI, musí provést
posouzení shody, které ověřuje, ~e
systém splňuje stanovené po~adavky na
důvěryhodnou umělou inteligenci. To zahrnuje
zejména kvalitu dokumentace, transparentnost, lidský
dohled a kybernetickou bezpečnost. Poskytovatelé
musí také zavést systémy
řízení kvality a rizik a zapsat vysoce
rizikové systémy AI do evropské
databáze.
Poskytovatelé systémů AI určených ke komunikaci s lidmi musí zajistit, ~e lidé budou vědět, ~e jejich protějakem je stroj. Poskytovatelé systémů generujících mediální obsah mají povinnost postarat se o to, aby výstupy z těchto systémů byly označeny jako uměle vytvořené nebo manipulované. Poskytovatelé obecných modelů AI musí zpřístupnit určité informace poskytovatelům navazujících systémů a zajistit, aby při trénování jejich modelů bylo dodr~ováno autorské právo.
V praxi to znamená zvýaené náklady na vývoj a implementaci compliance procedur, co~ mů~e být pro mnoho společností, zejména těch středních, významným zdrojem časového i finančního tlaku.
Sankce za poruaení
Přesto~e je AI Act poměrně rozsáhlý
(má přes sto čtyřicet stran
právního textu), neodpovídá na vaechny
klíčové otázky související
s AI, zejména v oblastech práva duaevního
vlastnictví nebo odpovědnosti za akodu způsobenou
systémy AI. AI Act vaak nebude jediným předpisem
EU v oblasti umělé inteligence. V současné
době je předmětem debat konkrétní
obsah směrnice o odpovědnosti za umělou inteligenci,
která by měla v rámci EU harmonizovat pravidla
občanské odpovědnosti.
AI Act přináaí standardní re~im sankcí za poruaení evropských pravidel. Sankce mohou dosáhnout a~ 7 % ročního celosvětového obratu nebo 35 milionů eur za poruaení pravidel zakázané AI. Méně záva~ná poruaení jsou sankcionována zhruba polovičně.
Doporučení
závěrem
AI Act bude plně pou~itelný od 1. srpna 2026,
nicméně jeho povinnosti vstupují v platnost
postupně, počínaje zákazem vysoce
rizikových systémů v únoru
příatího roku a pravidly pro obecné
umělé inteligence v srpnu. Zavést
odpovídající pravidla a po~adavky bude pro
větainu společností časově
náročné, s přípravou tak
doporučujeme neotálet.
Změna pravidel pro digitální platformy
Nově přijatá směrnice o platformové práci má za cíl zlepait pracovní podmínky pracovníků, jejich~ činnost je řízena prostřednictvím digitálních platforem (v praxi často taxi, kurýrní nebo donáaková slu~ba apod.). Z pohledu zaměstnavatelů v oblasti digitálních platforem přináaí směrnice povinnost přehodnotit právní vztah s pracovníky a jasně definovat, zda jsou to zaměstnanci, či osoby samostatně výdělečně činné (směrnice přináaí vyvratitelnou domněnku zaměstnaneckého statusu). Firmy by měly také upravit své procesy algoritmického řízení a zajistit, ~e budou plnit nové po~adavky na ochranu osobních údajů a monitoring zaměstnanců.
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.