Parlament Europejski przyjął 25 stycznia wytyczne odnośnie wykorzystania sztucznej inteligencji. Artificial Intelligence (AI) musi być poddana ludzkiej kontroli w sposób umożliwiający jej wyłączenie lub skorygowanie działania przez człowieka w przypadku nieprzewidzianych zachowań – zapisano w wytycznych dotyczących wykorzystania AI przegłosowanych w Parlamencie Europejskim. Za przyjęciem wytycznych głosowało 364 eurodeputowanych, przy 274 głosach przeciwnych i 52 wstrzymujących się.
Dokument postuluje stworzenie europejskich ram prawnych dla wykorzystania sztucznej inteligencji m.in. w sektorze wojskowym. Powinny one definiować zasady etyczne dotyczące stosowania rozwiązań Artificial Intelligence (AI), które dawałyby gwarancję, że będą one wykorzystywane w służbie ludzkości i dla wspólnego dobra. W wytycznych podkreślono kluczową rolę godności ludzkiej oraz praw człowieka, które powinny być brane pod uwagę we wszystkich zastosowaniach sztucznej inteligencji, ze szczególnym uwzględnieniem jej wykorzystania w sektorze obronności.
W wytycznych podkreślono, że stosowanie tzw. śmiercionośnych autonomicznych systemów broni (ang. lethal autonomous weapon systems; LAWS) rodzi fundamentalne pytania etyczne i prawne, których konsekwencją powinno być wypracowanie unijnego zakazu ich stosowania. Decyzja o wyborze celu ataku i podjęciu śmiercionośnego działania przy użyciu autonomicznego systemu broni zawsze powinna być podejmowana przez człowieka zgodnie z zasadami proporcjonalności i konieczności – stwierdzono w dokumencie.
„W obliczu licznych wyzwań wynikających z rozwoju sztucznej inteligencji potrzebujemy odpowiedzi prawnych. Niniejsze sprawozdanie ma na celu określenie ram przypominających, że w każdej dziedzinie, zwłaszcza militarnej, oraz w obszarach zarządzanych przez państwo, takich jak wymiar sprawiedliwości i zdrowie, AI musi pozostać wyłącznie narzędziem wspomagającym podejmowanie decyzji lub pomagającym w działaniach. Nie może jednak nigdy zastępować ludzi, ani zwalniać z ich odpowiedzialności” – powiedział prezentujący wytyczne przed PE francuski europoseł Gilles Lebreton.
W tekście wezwano również Unię Europejską do przyjęcia na siebie, wraz z ONZ i społecznością międzynarodową, wiodącej roli w zakresie tworzenia globalnych ram prawnych dotyczących wykorzystywania AI w sektorze wojskowym.
W kwestii coraz powszechniejszego stosowania sztucznej inteligencji w usługach publicznych, zwłaszcza w opiece zdrowotnej i systemie sprawiedliwości, podkreślono z kolei, że technologia nie może zastąpić kontaktu z człowiekiem, ani prowadzić do dyskryminacji. Ludzie powinni też być zawsze informowani, jeśli dotyczące ich decyzję podejmowane są z użyciem narzędzi AI. Muszą też mieć możliwość odwołania się od nich.
W sytuacji, gdy sztuczna inteligencja stosowana jest w systemie publicznej opieki zdrowotnej (np. podczas operacji z wykorzystaniem robotów, w inteligentnych protezach czy diagnostyce wspieranej przez AI) dane osobowe pacjenta powinny być bezwzględnie chronione, powinno się również przestrzegać zasady równego traktowania.
Europosłowie zgodzili się również, że chociaż coraz powszechniejsze wykorzystywanie technologii AI w systemie sądownictwa może znacząco przyspieszyć procedury oraz ułatwić znajdowanie bardziej racjonalnych rozstrzygnięć, to jednak ostateczne decyzje powinny być podejmowane przez ludzi, a działanie AI musi być poddane ścisłej weryfikacji z ich strony.
Przyjęty przez PE dokument ostrzega również przed ryzykiem naruszania praw człowieka związanym z coraz powszechniejszym wykorzystywaniem AI do masowej inwigilacji i wzywa do wprowadzenia zakazu stosowania sztucznej inteligencji przez służby państwowe do jakichkolwiek form monitorowania lub oceniania obywateli.
W wytycznych poruszono także kwestię tzw. technologii deepfake mającej potencjał do destabilizowania sytuacji społecznej w państwach, szerzenia dezinformacji czy wpływania na przebieg i wyniki wyborów. Twórcy dokumentu postulują wprowadzenie wobec twórców tego typu materiałów obowiązku oznaczania ich jako nieoryginalnych. Zwracają również uwagę na konieczność przeprowadzenia głębszych badań nad tą technologią, mających na celu wypracowanie metod zapobiegania jej niepożądanym skutkom społecznym.
Źródło informacji: EuroPAP News