EU unveils world's first comprehensive proposal to regulate artificial intelligence

Európska komisia („Komisia“) predstavila tzv. Akt o umelej inteligencii (Artificial Intelligence Act, „AIA“), čím nadviazala na predchádzajúce iniciatívy v oblasti umelej inteligencie („UI“), ktoré začali v r. 2018 oznámením Komisie „Umelá inteligencia pre Európu“ (Artificial Intelligence for Europe) a následným zriadením Expertnej skupiny na vysokej úrovni pre UI. Výsledkom práce z dielne tejto skupiny bolo niekoľko odporúčaní a etických pokynov, ktoré Komisia prijala prostredníctvom tzv. „Bielej knihy o umelej inteligencii“.

Európsky parlament počas plenárneho zasadnutia dňa 14.6.2023 odštartoval poslednú fázu medzi inštitucionálnych rokovaní o konečnom znení AIA s Komisiou a Radou Európskej únie v rámci tzv. trialógu. Nakoľko európsky zákonodarca zvolil formu nariadenia, AIA bude predstavovať priamo aplikovateľný právny akt na území členských krajín Európskej únie vrátane Slovenskej republiky.

Cesta k dôveryhodnej umelej inteligencii

V kontexte intenzívneho technologického rozvoja je hlavným cieľom návrhu AIA dosiahnuť v európskom priestore rovnováhu medzi budovaním dôvery občanov v systémy UI a podporou ich ďalšieho vývoja, keďže tieto systémy môžu priniesť široké spektrum hospodárskych a spoločenských výhod, no súčasne môžu priniesť aj nové riziká alebo negatívne dôsledky pre jednotlivcov či spoločnosť. Európska únia tieto hrozby rozpoznala a vážne sa pokúša o prvý komplexný predpis o UI na svete.

Predstavené nariadenie je tak v zmysle návrhu postavené na klasifikačnom systéme určujúcom úroveň rizika, ktoré by technológia UI mohla predstavovať pre zdravie, bezpečnosť a základné práva osôb. Rámec zahŕňa štyri úrovne rizika, a to i) neprijateľné riziko; ii) vysoké riziko; iii) nízke riziko a iv) minimálne alebo žiadne riziko.

Na tomto mieste je vhodné podotknúť, že AIA má podrobne regulovať systémy UI predstavujúce neprijateľné a vysoké riziko a pre kategóriu systémov nízkeho, resp. minimálneho, rizika stanovuje len isté požiadavky na transparentnosť či potrebu prijatia vnútroštátnych etických kódexov pre dôveryhodnú UI. Má sa tak zabezpečiť, aby systémy UI boli bezpečné, transparentné, spravodlivé a šetrné k životnému prostrediu.

 

Zakázané systémy UI

Na vrchole regulácie AIA sa nachádzajú systémy UI, ktoré sa zákonodarca rozhodol zakázať z dôvodu, že predstavujú neprijateľné riziko a sú v zjavnom rozpore so základnými hodnotami EÚ. AIA by tak mal výslovne zakazovať napr. systém UI, ktorý:

 

i)   „s cieľom podstatne narušiť správanie osoby využíva podprahové techniky mimo vedomia osoby tak, že tejto alebo inej osobe spôsobí alebo by mohol spôsobiť fyzickú alebo psychickú ujmu;“
     ako príklad možno uviesť využívanie zvukových podprahových techník, ktoré udržia zamestnancov vo vyššej výkonnosti s potenciálom škody na mentálnom alebo fyzickom zdraví;

ii)  „s cieľom podstatne narušiť správanie osoby patriacej do konkrétnej skupiny osôb využíva
     ktorúkoľvek zo zraniteľností tejto skupiny osôb vyplývajúcich z ich veku, fyzického alebo
     duševného postihnutia tak, že tejto alebo inej osobe spôsobí alebo by mohol spôsobiť fyzickú
     alebo psychickú ujmu;“ ako príklad možno uviesť inteligentné hračky pre maloletých prezentujúce nevhodný a/alebo nebezpečný obsah;

iii)  „by orgánmi verejnej moci evidoval sociálne skóre fyzických osôb počas určitého obdobia na základe ich spoločenského správania alebo známych či predpokladaných osobných alebo osobnostných charakteristík, pričom takto získané sociálne skóre by             viedlo k škodlivému alebo nepriaznivému zaobchádzaniu s určitými fyzickými osobami alebo celými skupinami fyzických osôb v sociálnych kontextoch;“ po vzore čínskeho hodnotenia obyvateľov (tzv. credit scoring), na základe ktorého osobám v prípade         obdržania nízkeho skóre hrozia sankcie v podobe prepustenia z práce, nemožnosti využívania hromadnej dopravy či prístupu k vzdelávacím inštitúciám;

iv)  „slúži na používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch“ s výnimkou presadzovania práva na účely trestného stíhania závažných trestných činov na základe predchádzajúceho súdneho                   povolenia. Orgány činné v trestnom konaní by v takom prípade mohli systémy diaľkovej biometrickej identifikácie (kamery s funkciou rozpoznávania tváre) použiť;

v)  „vytvára alebo rozširuje databázy na rozpoznávanie tváre prostredníctvom necielenej extrakcie podôb tváre z internetu alebo zo záznamov CCTV“ t.j. z bezpečnostných kamier;

vi)  „slúži na odvodzovanie emócií fyzickej osoby v oblastiach presadzovania práva, riadenia hraníc, na pracovisku a vo vzdelávacích inštitúciách;“ ako príklad možno uviesť analýzu emócii za účelom rozpoznania hrozby agresie.

 

Vysokorizikové systémy UI

V súlade s prístupom založeným na riziku by mali byť vysokorizikové systémy UI povolené v európskom priestore za predpokladu, že spĺňajú určité záväzné požiadavky v rámci tzv. posudzovania zhody (conformity assasment) ešte pred uvedením na trh (ex ante). Ako príklad možno uviesť požiadavky na správnosť, transparentnosť a reprezentatívnosť údajov resp. obsahu, ktorý systém UI generuje. Ďalšie požiadavky sa týkajú vyhotovenia technickej dokumentácie či vedenia záznamov z tzv. „logovania“ systému UI.

Po úspešnom posúdení zhody bude ďalšou fázou registrácia systému UI v databáze Európskej únie, ktorej spravovanie má byť zverené Komisii v spolupráci s členskými štátmi Európskej únie a následné uvedenie systému UI na trh.

Ex post monitorovanie vysokorizikových systémov UI bude po uvedení na trh zverené príslušným vnútroštátnym orgánom, čo v podmienkach Slovenskej republiky znamená i) vytvorenie nového orgánu verejnej moci na výkon dozoru nad dodržiavaním AIA alebo ii) pridelenie právomocí už existujúcemu úradu. Návrh AIA zároveň predpokladá vytvorenie Európskeho úradu pre umelú inteligenciu (European Union Artificial Intelligence Office), ktorého úlohou bude spolupracovať s členskými štátmi, vnútroštátnymi dozornými orgánmi, Komisiou a inými inštitúciami pri poskytovaní poradenstva vo všetkých otázkach súvisiacich s vykonávaním nariadenia.

Medzi oblasti vysokého rizika systémov UI by mali patriť:

1.  biometrická identifikácia a kategorizácia fyzických osôb; 

2.  riadenie a prevádzka kritickej infraštruktúry; 

3.  vzdelávanie a odborná príprava; 

4.  zamestnanosť, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti; 

5.  prístup k základným súkromným a verejným službám či dávkam a ich využívanie; 

6.  presadzovanie práva; 

8.  výkon spravodlivosti a demokratické procesy.

 

Nižšie bližšie špecifikujeme aspoň niektoré oblasti vysokorizikových systémov UI.

 

Oblasť vzdelávania a odbornej prípravy zahŕňa:

o   systémy UI, ktoré sa majú používať na hodnotenie študentov vo vzdelávacích inštitúciách a inštitúciách odbornej prípravy a na hodnotenie účastníkov skúšok, ktoré sa bežne vyžadujú na prijatie do vzdelávacích inštitúcií.

Oblasť zamestnanosti zahŕňa:

o   systémy UI určené na nábor alebo výber fyzických osôb, najmä na inzerovanie voľných pracovných miest, preverovanie alebo filtrovanie žiadostí, hodnotenie uchádzačov počas pohovorov alebo skúšok; 

o   systémy UI, ktoré sa majú používať pri rozhodovaní o postupe v zamestnaní a ukončení zmluvných pracovných vzťahov, pri prideľovaní úloh a monitorovaní a hodnotení výkonnosti.

 

Oblasť presadzovania práva zahŕňa:

o   systémy UI, ktoré majú používať orgány presadzovania práva na hodnotenie spoľahlivosti dôkazov v priebehu vyšetrovania alebo stíhania trestných činov;

o   systémy UI, ktoré majú používať orgány presadzovania práva s cieľom posúdiť riziko, ktoré fyzická osoba predstavuje z hľadiska (opakovaného) páchania trestnej činnosti, alebo riziko pre potenciálne obete trestných činov.

 

Oblasť výkonu spravodlivosti a demokratických procesov:

o   systémy UI určené na pomoc súdnemu orgánu pri skúmaní a interpretácii faktov a práva a pri uplatňovaní práva na konkrétny skutkový stav;

o   systémy určené na ovplyvňovanie výsledkov volieb/referenda alebo správania jednotlivcov pri hlasovaní vo voľbách a referende.

 

Povinnosť transparentnosti a boj proti nelegálnemu obsahu

Povinnosť transparentnosti pre generatívne systémy UI (ako napríklad ChatGPT alebo Bard) je vyjadrená v čl. 52 návrhu AIA a v princípe pojednáva o povinnosti poskytovateľa „zabezpečiť, aby boli fyzické osoby informované o tom, že komunikujú so systémom umelej inteligencie, pokiaľ to nie je zrejmé z okolností a kontextu používania“, pričom výnimka sa uplatní v prípade systémov UI, ktoré sa podľa zákona môžu používať na odhaľovanie, prevenciu, vyšetrovanie a stíhanie trestných činov.

Ustanovenia o transparentnosti sa vzťahujú aj na systémy generujúce tzv. „deep fake“ obsah a stanovujú povinnosť informovať o tom, že prezentovaný obsah je umelo vytvorený alebo zmanipulovaný.

Treba však podotknúť, že ambíciou AIA je vytvoriť aj iné zodpovednosti poskytovateľov za prevádzkovanie ich systémov UI a to aj pod hrozbou výraznej finančnej pokuty. Poskytovatelia by tak mali byť schopní napr. transparentne uvádzať „tréningová dáta“, na ktorých sú systémy UI cvičené, či zamedziť tvorbe nezákonného obsahu systémami UI.  

V súčasnosti prebiehajú rokovania o konečnej podobe AIA s cieľom dosiahnuť dohodu do konca tohto roka. Zdôrazňujeme však, že AIA by nemala nadobudnúť účinnosť skôr ako v roku 2026 a napriek tomu, že ide o dobrý nápad, svet UI bude v roku 2026 zrejme úplne inde. Je tak otázne, či AIA nebude zaostávať. Tejto téme sa preto budeme aj ďalej venovať a pozorne ju sledovať.

 

Mgr. Ján Piešťanský a Bc. Hedviga Michalovová, advokátska kancelária Škubla & Partneri s. r. o.

 

Zdroje:

Návrh nariadenia Európskeho parlamentu a Rady, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie (akt o umelej inteligencii) a menia niektoré legislatívne akty únie (dostupné v elektronickej verzii na: EUR-Lex - 52021PC0206 - EN - EUR-Lex (europa.eu))

Biela kniha o umelej inteligencii – európsky prístup k excelentnosti a dôvere (dostupné v elektronickej verzii na: BIELA KNIHA o umelej inteligencii – európsky prístup k excelentnosti a dôvere - Publications Office of the EU (europa.eu))

Stratégia pre umelú inteligenciu – Umelá inteligencia pre Európu (dostupné v elektronickej verzii na: EUR-Lex - 52018DC0237 - EN - EUR-Lex (europa.eu))

Správa o návrhu nariadenia Európskeho parlamentu a Rady, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie (akt o umelej inteligencii) a menia niektoré legislatívne akty Únie (dostupné v elektronickej verzii na: SPRÁVA o návrhu nariadenia Európskeho parlamentu a Rady, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie (akt o umelej inteligencii) a menia niektoré legislatívne akty Únie | A9-0188/2023 | Európsky parlament (europa.eu))

Zákon  o AI: prvá regulácia umelej inteligencie (dostupné na: Zákon o AI: prvá regulácia umelej inteligencie | Spravodajstvo | Európsky parlament (europa.eu))

Expertná skupina na vysokej úrovni pre umelú inteligenciu: Etické usmernenia pre dôveryhodnú umelú inteligenciu (dostupné v elektronickej verzii na: Etické usmernenia pre dôveryhodnú umelú inteligenciu - Publications Office of the EU (europa.eu))

Business Insider: China's 'social credit' system ranks citizens and punishes them with throttled internet speeds and flight bans if the Communist Party deems them untrustworthy. (dostupné na: Explained: China Social Credit System, Punishments, Rewards (businessinsider.com))

National Law Review: NYC Proposes Rules in Advance of 2023 Automated Decision Tools Law (dostupné na: Automated Employment Decision Tools To Be Heavily Regulated in NYC (natlawreview.com))