S rychlým nástupem umělé inteligence (AI) vyvstává spousta otázek ohledně etiky, ochrany práv a odpovědnosti v souvislosti s jejím používáním. Část z nich zodpoví tzv. AI Act – nařízení EU o umělé inteligenci, které má ambici stát se první ucelenou regulací AI na světě. Návrh nařízení dělí AI do čtyř kategorií podle míry rizika, a přiměřeně tomuto riziku stanovuje povinnosti pro celou řadu subjektů. Finální podobu AI Act bychom mohli znát začátkem roku 2024. Zorientujte se včas v povinnostech, které přinese nové nařízení, za jehož porušení hrozí pokuty až 6 % ročního celosvětového obratu. 

Cílem nařízení je především zajistit bezpečnost a zvýšit transparentnost rychle se rozvíjející AI. Jelikož četnost práce s AI exponenciálně roste, předpokládáme, že se nové povinnosti dotknou minimálně tisíců společností, ať už budou AI vyvíjet, nebo pouze užívat. Pokud patříte mezi subjekty, které plánují systémy AI dodávat na unijní trh nebo je využívat při své činnosti, musíte brzy počítat s povinnostmi odstupňovanými podle toho, do které ze čtyř kategorií rizika váš systém AI spadá. 

spadá. 

Nepřijatelné riziko

AI Act definuje několik systémů AI, jejichž využití představuje potenciální hrozbu pro lidská práva, která je neslučitelná s evropskými hodnotami. Z tohoto důvodu bude jejich používání a dovážení na území EU až na výjimky zcela zakázáno. Podle dosavadního legislativního vývoje by do této kategorie měly patřit např. systémy určené pro tzv. social scoring nebo biometrickou identifikaci na dálku a v reálném čase.

Vysoké riziko

Systémy představující vysoké riziko bude možné používat a dovážet na trh EU pouze v případě, že budou splňovat požadavky nařízení. AI Act dělí tyto systémy na dvě skupiny:

1. Systémy, jež jsou určeny k použití jako bezpečnostní součást výrobku nebo jsou samy výrobkem, na který se vztahuje posouzení shody třetí stranou podle jiných předpisů EU (strojní zařízení, hračky, zdravotnické prostředky atd.).

2. Systémy AI spadající do jedné z následujících osmi oblastí: 

  • biometrická identifikace a kategorizace fyzických osob;
  • řízení a provoz kritické infrastruktury;
  • vzdělávání a odborná příprava;
  • zaměstnanost, řízení pracovní síly a přístup k samostatné výdělečné činnosti;
  • přístup k základním soukromým a veřejným službám a dávkám a jejich využívání;
  • vymáhání práva;
  • řízení migrace, azylu a hraničních kontrol;
  • pomoc soudnictví s právním výkladem.

S používáním vysoce rizikových systémů AI se pojí značné množství povinností, které dopadnou nejen na jejich výrobce, ale i poskytovatele, distributory, dovozce a uživatele. Vysoce rizikové systémy budete muset navrhnout tak, aby např. automaticky zaznamenávaly incidenty, fungovaly dostatečně transparentně a dosahovaly určité míry přesnosti a kyberbezpečnosti.

Před uvedením systému na trh EU budete muset také vypracovat technickou dokumentaci, která prokáže, že systém splňuje požadavky AI Act. U systémů, které jsou trénovány na základě souborů dat, budete muset rovněž ohlídat splnění kritérií na kvalitu těchto tréninkových dat.

Omezené nebo minimální riziko

Pro tuto kategorii stanoví AI Act pouze omezené požadavky na transparentnost systémů. U nich bude vaší povinností jen informovat uživatele, že používají aplikaci s AI, např. chatbota.

Foundation modely a generativní AI

V reakci na ChatGPT a jemu podobné nástroje by se povinnosti měly vztahovat i na tzv. foundation modely (velké modely AI trénované na obrovském množství dat, které lze přizpůsobit široké škále úkolů) a generativní AI. Ranými příklady těchto modelů jsou GPT-3, BERT nebo DALL-E 2. EU navrhuje, že poskytovatelé generativní AI budou muset:

1. zajistit informovanost svých uživatelů o tom, že výstupy jsou produktem AI,

2. navrhnout model AI tak, aby nevytvářel nezákonný obsah,

3. dokumentovat a zveřejňovat podrobné shrnutí tréninkových dat, která jsou chráněna autorským zákonem. 

Soulad s pravidly zajistí služba Responsible AI

Za nedodržení nových povinností jsou navrhovány pokuty až do výše 30 milionů eur nebo 6 % celosvětového obratu. Také proto doporučujeme začít s přípravou na novou regulaci už teď.

Pokud tápete v tom, jakým rizikům čelíte a jak nastavit vnitřní procesy v souladu s aktuálními i nadcházejícími předpisy, bude naše služba Responsible AI tím pravým řešením. Abyste AI využívali zodpovědně a bez zbytečných rizik, pomůžeme vám získat přehled o všech systémech AI, které používáte, a nastavit potřebné procesy po stránce technické, právní i etické.