W Europie nie będzie wybierania ludzi z tłumu w czasie rzeczywistym

Newsy
Dodaj opinię
Opinie: 0
W Europie będzie wiele ograniczeń stosowania sztucznej inteligencji

Komisja Europejska przedstawiła propozycje regulacji prawnych dotyczących sztucznej inteligencji. Zakazane będzie m.in. skanowanie twarzy na żywo czy wykorzystywanie AI w celu manipulacji zachowaniem użytkowników.

 

Ramy prawne dla AI mają zapewnić, że będzie ona ukierunkowana na człowieka, godna zaufania, etyczna i zapewniająca poszanowanie praw Europejczyków.

 

Proponowane regulacje zakładają wprowadzenie czterech kategorii oceny poziomu ryzyka związanego z wykorzystaniem sztucznej inteligencji – od technologii uznanych za niebezpieczne po takie, których zastosowanie wiąże się z minimalnym ryzykiem.

 

W porządku degresywnym skala oceny ryzyka składałaby się z następujących stopni – niedopuszczalne ryzyko, wysokie ryzyko, ograniczone ryzyko i niskie ryzyko.

 

Zgodnie z zaprezentowanymi przez KE przepisami zastosowania AI sklasyfikowane jako niebezpieczne, czyli zaklasyfikowane do kategorii „niedopuszczalne ryzyko”, byłyby zakazane w UE. Do tej grupy zaliczono np. technologie tak zwanej „zdalnej identyfikacji biometrycznej” wykorzystywanej na przykład do wybierania ludzi z tłumu w czasie rzeczywistym dzięki zastosowaniu rozpoznawania twarzy na żywo. „W naszym społeczeństwie nie ma miejsca na masową inwigilację” – stwierdziła Margrethe Vestager, wiceprzewodnicząca Komisji Europejskiej ds. Ery cyfrowej.

 

W ramach przedstawionej propozycji nowych przepisów zaproponowano w tej kwestii wyjątek dla wąsko zdefiniowanych celów egzekwowania prawa, takich jak poszukiwanie zaginionego dziecka lub osoby poszukiwanej oraz zapobieganie atakowi terrorystycznemu.

 

Zgodnie z przedstawionymi przez KE propozycjami niedopuszczalne zastosowania sztucznej inteligencji obejmowałyby również manipulowanie zachowaniem, wykorzystywanie słabych punktów dzieci lub stosowanie technik podprogowych. „Może to być przypadek, w którym zabawka wykorzystuje systemy głosowe, aby zmusić dziecko do zrobienia czegoś niebezpiecznego - powiedziała Margrethe Vestager na konferencji prasowej. - Na takie zastosowania nie ma miejsca w Europie, dlatego proponujemy ich zakazać”.

 

Do zastosowań AI związanych z wysokim poziomem ryzyka zaliczono na przykład algorytmy stosowane do rozpatrywania aplikacji o pracę, podań na studia, wniosków o kredyt, zasiłek, azyl polityczny lub wizę. Do tej grupy zaliczono również systemy AI wykorzystywane w medycynie oraz sądownictwie.

 

W związku z tym, że ważne decyzje mające bezpośredni wpływ na życie obywateli mogą być podejmowane przez algorytmy, KE proponuje wprowadzenie zasady, że decyzje te muszą obowiązkowo podlegać weryfikacji i ostatecznemu nadzorowi przez człowieka.

 

Regulacjom mają również zostać poddane chatboty, które powinny być odpowiednio oznaczone, aby ludzie wiedzieli, że wchodzą w interakcję z maszyną.

 

Proponowane regulacje mają dotyczyć wszystkich państw UE oraz firm zagranicznych działających na terytorium UE.

 

Kary za niedostosowanie się do wymogów mają wynieść od 20 mln euro do 4 proc. rocznych obrotów firmy, która się ich dopuściła. Wcześniej jednak otrzyma ona wezwanie do naprawienia swoich produktów AI i dostosowanie ich do wymogów prawa lub usunięcie ich z rynku.

 

Proponowane przepisy, zanim wejdą w życie, muszą zostać przyjęte przez Parlament Europejski i Radę UE.

 

 

Opinie:

Rekomendowane:

Akcje partnerskie: