AI Act jest przełomową propozycją Unii Europejskiej, która ma regulować sztuczną inteligencję na podstawie jej potencjału do wyrządzania szkód. Dokument różnicuje obowiązki dostawców systemów zależnie od poziomu ryzyka, jakie stwarzają – informuje serwis businessinsider.pl.
Sztuczna inteligencja. Europarlament wydłużył listę zakazów
Gdzie nie można używać sztucznej inteligencji? Poniżej znajduje się lista wytycznych:
- w systemach punktacji społecznej
- identyfikacji biometrycznej w czasie rzeczywistym
- w miejscach publicznych
- w manipulacjach poprzez techniki podprogowe (zrobiono wyjątek dla celów terapeutycznych).
Kolejna grupa to zastosowania wysokiego ryzyka:
- w systemach diagnostyki medycznej,
- w sądownictwie.
Trzecią grupę stanowią systemy ograniczonego ryzyka, na które nakłada się obowiązki głównie w zakresie przejrzystości systemów. Zastosowania minimalnego ryzyka nie będą regulowane.
Chat GPT zmobilizował parlamentarzystów
- Poprawiony projekt zabrania też m.in. biometrycznej kategoryzacji osób na podstawie ich cech wrażliwych – takich jak płeć, rasa, pochodzenie etniczne, narodowość i obywatelstwo, wyznanie czy poglądy polityczne. Zakazane będzie również stosowanie AI do profilowania potencjalnych sprawców przestępstw na bazie danych o zachowaniach, cechach lub geolokalizacji (tzw. predykcja kryminalna). Na czarną listę trafiły ponadto systemy AI do rozpoznawania emocji (używane np. w zakładach pracy, szkołach, przy zwalczaniu przestępczości), a także pobieranie danych biometrycznych z mediów społecznościowych lub nagrań z monitoringu w celu tworzenia baz danych rozpoznawania twarzy - informuje "Dziennik Gazeta Prawna".
W pierwotnym projekcie nie uwzględniono sztucznej inteligencji przeznaczenia ogólnego, a do poprawienia przepisów zmobilizowało parlamentarzystów pojawienie się na rynku chata GPT.
Głosowanie w Europarlamencie zaplanowano na czerwiec.