
ČESKO – Ještě v době, kdy bylo Česko předsednickou zemí EU, vznikl poměrně rozsáhlý návrh týkající se regulace dalšího vývoje umělé inteligence (AI). Zahrnoval dlouhý seznam oblastí, které měly být výslovně zakázány – nyní však poslanci Evropského parlamentu přistoupili k přijetí návrhu, který v podstatě zakazuje jen zlomek původních navržených aktivit. A nakonec vlastně říká, že možná ani ty nebude nutné přímo omezovat. V každém případě by se ale i tak mělo jednat o první komplexní regulaci daného odvětví na světě. Co by tedy mělo být zakázáno?
K užití a vývoji umělé inteligence se samozřejmě pojí celá řada sporných otázek. Zejména v posledním roce přitom celá oblast pokročila velmi výrazně kupředu. Není tedy divu, že i sami odborníci, kteří se AI věnují, začali volat po zastavení či regulacích vývoje. I proto tedy poslanci Evropského parlamentu schválili návrh pravidel, která budou muset v Evropě firmy vyvíjející umělou inteligenci dodržovat.
Jak regulovat vývoj AI?
Podle nové normy by nemělo být možné užívat AI pro sledování a identifikaci občanů dle jejich chování nebo je identifikovat dle biometrických údajů ve veřejných prostorech – třeba pomocí automatického rozpoznávání obličejů. To by mělo být povoleno pouze zpětně pro účely trestního stíhání, a to navíc jen s povolením soudu. Neměla by být umožněna ani biometrická kategorizace dle rasy, pohlaví ad. Dále by užití AI nemělo být umožněno ani v rámci policejních systémů, které „umí“ předpovídat kriminalitu, v systémech k rozpoznávání emocí (na pracovištích, ve školách) a také by mělo být zapovězeno shromažďování fotografií a videí lidí z internetu nebo kamerových systémů. Návrh také zahrnuje povinné označení toho, co vytvořila AI.
Původní návrh z dob českého předsednictví přitom zahrnoval dlouhý seznam různých zákazů – k naplnění však nedošlo. Podle Jakuba Marečka z Centra umělé inteligence ČVUT se např. ještě před počátkem války na Ukrajině hovořilo o zákazu užívání AI ve zbraňových systémech. Aktuálně se ale odborníci spíše přiklánějí k tomu, že tato praxe by se naopak mohla stát možnou výhodou, která by mohla být ku prospěchu věci.
Zákazy vs. rizika
Zatímco zákazy byly zúženy, naopak k rozšíření došlo v případě aktivit klasifikovaných jako „vysoce rizikové“. Dle Marečka tak „seznam obsahuje věci poměrně logické a třeba se o nich uvažovalo i v kontextu zákazu – např. užití v soudnictví pro odhad výše trestu, užití v systémech kritické infrastruktury, dispečinku IZS, automatizaci řízení lidských zdrojů ad.,“ vysvětlil.
Do rizikové kategorie by ale mělo spadat také doporučování obsahu na sociálních sítích – firmy budou pod drobnohledem a pokuty, které mohou hrozit, jsou velké. Na druhou stranu rozsah a přístupnost dat je relativně malý, takže vyhodnocovat drobné systematické chyby může být i dle Marečka docela obtížné. A tatáž situace nastane také v případě odlišování děl AI od těch lidských. Např. v případě generování textu jsou snahy, aby byl obsažen snadno identifikovatelný vzor, díky němuž by text vytvořený AI bylo možné rozpoznat (to dělá např. CHAT GPT). Jsou ale i jiné modely, které generují text – a ten bude obtížně dohledatelný. To je pak samozřejmě problematické např. i z hlediska generování dezinformací.
Jako problematická se minimálně zatím jeví také vymahatelnost zaváděných nařízení. Ačkoliv samotný návrh obsahuje silnou podporu pro vymáhání např. v podobě pokut, odhalení drobných prohřešků bude trvat ještě velmi dlouho.