Ramy prawne dla AI mają zapewnić, że będzie ona ukierunkowana na człowieka, godna zaufania, etyczna i zapewniająca poszanowanie praw Europejczyków.
Proponowane regulacje zakładają wprowadzenie czterech kategorii oceny poziomu ryzyka związanego z wykorzystaniem sztucznej inteligencji – od technologii uznanych za niebezpieczne po takie, których zastosowanie wiąże się z minimalnym ryzykiem.
Zgodnie z zaprezentowanymi przez KE przepisami zastosowania AI sklasyfikowane jako niebezpieczne, czyli zaklasyfikowane do kategorii „niedopuszczalne ryzyko”, byłyby zakazane w UE. Do tej grupy zaliczono np. technologie tak zwanej „zdalnej identyfikacji biometrycznej” wykorzystywanej na przykład do wybierania ludzi z tłumu w czasie rzeczywistym dzięki zastosowaniu rozpoznawania twarzy na żywo. „W naszym społeczeństwie nie ma miejsca na masową inwigilację” – stwierdziła Margrethe Vestager, wiceprzewodnicząca Komisji Europejskiej ds. Ery cyfrowej.
Zgodnie z przedstawionymi przez KE propozycjami niedopuszczalne zastosowania sztucznej inteligencji obejmowałyby również manipulowanie zachowaniem, wykorzystywanie słabych punktów dzieci lub stosowanie technik podprogowych. „Może to być przypadek, w którym zabawka wykorzystuje systemy głosowe, aby zmusić dziecko do zrobienia czegoś niebezpiecznego - powiedziała Margrethe Vestager na konferencji prasowej. - Na takie zastosowania nie ma miejsca w Europie, dlatego proponujemy ich zakazać”.
Do zastosowań AI związanych z wysokim poziomem ryzyka zaliczono na przykład algorytmy stosowane do rozpatrywania aplikacji o pracę, podań na studia, wniosków o kredyt, zasiłek, azyl polityczny lub wizę. Do tej grupy zaliczono również systemy AI wykorzystywane w medycynie oraz sądownictwie.
W związku z tym, że ważne decyzje mające bezpośredni wpływ na życie obywateli mogą być podejmowane przez algorytmy, KE proponuje wprowadzenie zasady, że decyzje te muszą obowiązkowo podlegać weryfikacji i ostatecznemu nadzorowi przez człowieka.
Regulacjom mają również zostać poddane chatboty, które powinny być odpowiednio oznaczone, aby ludzie wiedzieli, że wchodzą w interakcję z maszyną.
Kary za niedostosowanie się do wymogów mają wynieść od 20 mln euro do 4 proc. rocznych obrotów firmy, która się ich dopuściła. Wcześniej jednak otrzyma ona wezwanie do naprawienia swoich produktów AI i dostosowanie ich do wymogów prawa lub usunięcie ich z rynku.
Proponowane przepisy, zanim wejdą w życie, muszą zostać przyjęte przez Parlament Europejski i Radę UE.