Dnem 1. 8. 2024 vstoupilo v platnost evropské nařízení AI Act o využívání umělé inteligence. Účinnosti bude nabývat postupně, ale už teď je dobré, aby mu zaměstnavatelé věnovali pozornost.
Stále častěji se v oblasti personálního řízení (dále jen "HR") setkáváme s nástroji a systémy, které využívají nějakou formu umělé inteligence (dále jen "AI") ke svému fungování (nebo minimálně to o sobě tvrdí). Do oblasti umělé inteligence ovšem již brzo vstoupí nové nařízení EU o umělé inteligenci (dále jen "Nařízení"), které některé způsoby použití AI zcela zakáže a další podrobí relativně přísné regulaci a dohledu. Oblast HR je poměrně citlivá na zajištění soukromí a možnou diskriminaci, Nařízení do rizikových kategorií použití AI proto zařazuje právě i některá využití AI v HR oblasti.
Nařízení je platné již od 1. 8. 2024 a účinnosti bude nabývat postupně od 1. 2. 2025 do roku 2027.
VÝCHODISKA A CÍLE NAŘÍZENÍ
Cílem Nařízení je regulovat takové užití umělé inteligence, které by mohlo mít negativní dopady na práva osob, veřejné zájmy a bezpečnost, a rovněž podpořit rozvoj etické a důvěryhodné AI v EU. Jestli je Nařízení způsobilé skutečně dosáhnout vytyčených cílů a zda nebude spíše brzdou rozvoje umělé inteligence v EU oproti zbytku světa, ať si každý odpoví sám (nakonec již zde je několik případů, kdy i z důvodu právní regulace nejsou nejlepší AI nástroje v EU dostupné).
Jedná se ale nepochybně o právní předpis, který je poměrně dlouhý, komplikovaný a svým obsahem relativně dost technický. Jako obvykle, mnoho pojmů a povinností zůstane evropským a českým dozorovým orgánům k bližšímu vymezení. V jistém smyslu lze toto nařízení přirovnat k GDPR, které je ovšem stále o něco srozumitelnější a čtivější než toto Nařízení.
DEFINICE UMĚLÉ INTELIGENCE
Jedním ze základních problémů evropského zákonodárce bylo umělou inteligenci vůbec legislativně definovat a odlišit ji tak od jiných (jednodušších) systémů, na které Nařízení nedopadá. Nařízení definuje AI poměrně složitě, zjednodušeně řečeno však jde o strojový systém navržený tak, aby fungoval s různými úrovněmi autonomie. Zároveň AI může vykazovat adaptabilitu a z obdržených vstupů (instrukcí) umí odvodit, jak generovat výstupy, jako jsou predikce, obsah, doporučení nebo rozhodnutí, která mohou ovlivnit fyzická nebo virtuální prostředí.
V tomto smyslu je třeba odlišovat takto definovanou AI od běžných algoritmů. Ty totiž fungují na mnohem jednodušším principu, který se dá popsat jako: "pokud podmínka, tak akce", čímž jsou výstupy, které tyto algoritmy generují, velmi předvídatelné. Naopak u AI není možné zjistit, jakým způsobem AI k danému výsledku dospěla. Stejně tak disponuje AI (na rozdíl od běžného algoritmu) schopností autonomního odvozování výsledků, což v konečném důsledku znamená, že AI nemusí od svého uživatele dostat přesně definovaný vstup, protože výsledek si dokáže dovodit z různých vstupů.
Právě tyto vlastnosti AI, tedy určitá nepředvídatelnost výstupu a schopnost odvozování, jsou to, proč umělá inteligence představuje riziko pro práva osob a je potřeba ji z pohledu EU blíže regulovat.
ZAKÁZANÉ VYUŽITÍ AI
Mezi zcela zakázané způsoby využití umělé inteligence dle nového Nařízení budou patřit následující případy, které by mohly (teoreticky) najít své uplatnění i v HR oblasti:
-
systémy využívající podprahových technik mimo vědomí osob nebo záměrně manipulativních či klamavých technik,
-
systémy využívající zranitelnosti fyzických osob nebo určité skupiny osob v důsledku jejich věku, zdravotního postižení nebo specifické sociální nebo ekonomické situace,
-
systémy hodnocení nebo klasifikace fyzických osob nebo skupin osob v určitém časovém úseku na základě jejich sociálního chování nebo známých, odvozených nebo předvídaných osobních či osobnostních vlastností (tzv. sociální kredit),
-
systémy pro posuzování rizik fyzických osob s cílem posoudit nebo předvídat riziko, že fyzická osoba spáchá trestný čin, a to výhradně na základě profilování fyzické osoby nebo posouzení jejich osobnostních znaků a vlastností,
-
systémy, které vytvářejí nebo rozšiřují databáze rozpoznávání obličeje prostřednictvím necíleného získávání zobrazení obličeje z internetu nebo kamerových záznamů,
-
systémy s cílem odvodit emoce fyzické osoby na pracovišti a ve vzdělávacích institucích (např. analýza e-mailové komunikace zaměstnance za účelem zjištění spokojenosti se zaměstnáním).
Zaměstnavatelé tak musejí zcela zapomenout na tyto způsoby použití AI, a pokud by v současnosti takový AI systém používali, musí od něj nejpozději do 1. 2. 2025 upustit.
VYSOCE RIZIKOVÉ VYUŽITÍ AI
Některé způsoby použití AI sice nebudou automaticky zakázané, ale kvůli jejich možným závažným dopadům na práva a soukromí fyzických osob jsou Nařízením stanoveny poměrně přísné podmínky jejich používání.
Mezi takové vysoce rizikové systémy a způsoby použití AI v oblasti HR (celkový výčet vysoce rizikových systémů je podstatně delší) mohou patřit například:
-
systémy AI určené k použití za účelem náboru nebo výběru fyzických osob, zejména pokud jde o zveřejňování cílených nabídek zaměstnání, k analýze a třídění žádostí o zaměstnání a k hodnocení uchazečů,
-
systémy AI určené k použití za účelem rozhodování s dopadem na podmínky pracovněprávních vztahů, postup v zaměstnání nebo ukončení smluvních pracovněprávních vztahů, za účelem přidělování úkolů na základě individuálního chování, osobnostních rysů nebo charakteristik nebo za účelem sledování a hodnocení výkonnosti a chování osob v rámci těchto vztahů.
Lze tedy shrnout, že za vysoce rizikové budou považovány v HR oblasti takové AI systémy, které budou přímo zapojeny do rozhodování (např. o přijetí, o povýšení, o přiznání osobního ohodnocení či o propuštění).
Se zavedením vysoce rizikových AI systémů je spojeno velké množství povinností. Předně musí být zaveden, uplatňován, zdokumentován a udržován systém řízení rizik. V jeho rámci je třeba zejména zkoumat, jaké dopady může mít použití takového vysoce rizikového systému na práva zaměstnanců, jaká rizika mohou v souvislosti s použitím takového systému vzniknout a jaká opatření je nutné přijmout k jejich odstranění či minimalizaci.
Dále je nutné zajistit, aby k trénování příslušných systémů byla použita data, která splňují požadavky kvality stanovené Nařízením. Jde zejména o to, aby použitá tréninková data byla dostatečně reprezentativní, úplná, bezchybná a aby případná zkreslení v těchto tréninkových datech nevedla k diskriminaci. Své o tom ví například Amazon, který v minulosti použil pro trénink HR nástroje hodnotící CV uchazečů data převážně mužských kandidátů, což ve výsledku vedlo k preferenci mužských uchazečů ze strany AI.
K vysoce rizikovému systému musí být vypracována i technická dokumentace a musejí k němu být vedeny…