Dylematy etyczne przy projektowaniu robotów

Robotyka, systemy autonomiczne czy sztuczna inteligencja stwarzają szereg nowych wyzwań prawnych i etycznych. Opracowanie ram prawnych i kodeksów etycznych w tym zakresie to zadanie, przed którym stoją prawodawcy krajowi i europejscy. Debata dotycząca tej sfery dopiero się zaczyna. Obecnie prace w tym zakresie trwają głównie na forum unijnym. W styczniu 2017 r. powstał projekt rezolucji Parlamentu Europejskiego zawierającej zalecenie dla Komisji w sprawie stworzenia przepisów prawa cywilnego dotyczących robotyki. Równolegle zaawansowane prace dotyczące uregulowań prawnych i etycznych w zakresie robotyki i sztucznej inteligencji toczą się w USA, Japonii, Chin i Korei Południowej. Również w Polsce, w Ministerstwie Rozwoju powstała Grupa robocza ds. ram prawnych funkcjonowania Przemysłu 4.0.

Z uwagi na możliwość szerokiej interakcji sztucznej inteligencji z ludźmi, projektowanie robotów i pojazdów autonomicznych rodzi szereg dylematów etycznych w różnych obszarach. Szczególnie istotnym problemem jest to, czy normy prawne powinny zezwalać by docelowo sztuczna inteligencja przewyższyła ludzkie zdolności intelektualne, a jeśli tak, to czy jej wykorzystywanie w pewnych obszarach życia, działalności ludzkiej (np. administracja państwowa, policja, wymiar sprawiedliwości) nie powinno być zabronione.

Najczęściej obecnie dyskutowane problemy etyczne to również te związane z pojazdami autonomicznymi. Dotyczą one np. podejmowania przez pojazd autonomiczny decyzji o rozmiarze kolizji na drodze – w skrajnych przypadkach nawet decyzji o ratowaniu jednego życia ludzkiego kosztem drugiego.

Dylematy etyczne przy projektowaniu robotów obejmują również cały obszar zastosowań robotów w pracach domowych, opiece nad dziećmi czy osobami starszymi. Pojawiają się wówczas problemy etyczne związane z niebezpieczeństwem przywiązania się do robota przez osoby z grup społecznych szczególnie wrażliwych, wytworzenia więzi emocjonalnej, czy wręcz zależności od robota przez takie osoby, a także ich izolacji od rzeczywistości.

Również w obszarze zastosowań medycznych robotów występuje szereg kontrowersyjnych zagadnień etycznych, które wymagają regulacji prawnych lub stworzenia co najmniej kodeksów etycznych. Dotyczy to w szczególności autonomicznych systemów cyberfizycznych wszczepianych do ciała ludzkiego, lub zastępujących fragmenty ciała. Systemy te mogą działać znacznie lepiej od ludzkich organizmów, co może mieć wpływ na zmianę rozumienia niepełnosprawności i w skrajnych przypadkach na chęć zastępowania zdrowych organów sztucznymi. Systemy te mogą też szczególnie wkraczać w przestrzeń wrażliwych danych osobowych gromadząc je niezależnie od osoby wyposażonej w taki system cyberfizyczny.

Kodeksy etyczne

Zalecenia dla Komisji Europejskiej z 2017 r. zawierają postulaty stworzenia na poziomie UE kodeksu postępowania etycznego w dziedzinie robotyki, który stanowić będzie podstawę kontroli przestrzegania podstawowych zasad etycznych, począwszy od fazy projektowania, konstrukcji, testowania, aż do fazy rozwoju robotów. Takie kodeksy tworzone są też niezależnie przez poszczególne państwa członkowskie. Tak np. w czerwcu 2017 r. Ministerstwo Transportu Niemiec przyjęło kodeks etyki projektowania pojazdów autonomicznych.

Po pierwsze – nie krzywdzić człowieka

Robot, bardzo często samouczący się i z wbudowaną autonomią musi podlegać ścisłej kontroli człowieka. Wspólnym założeniem takich kodeksów jest to, że robot ma za zadanie chronić życie ludzkie. W szczególności nie może szkodzić człowiekowi i musi mu być w pełni posłuszny. Zasady te przypominają sformułowane w 1942 r. przez amerykańskiego pisarza Isaaka Asimova w książce „Zabawa w berka” tzw. trzy prawa robotów, tzn.:

  • Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  • Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  • Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem

Powyższe prawa zostały określone w Zaleceniu dla Komisji „Zasadą nieszkodliwości” – „po pierwsze nie szkodzić”. Zgodnie z tą zasadą, roboty nie powinny krzywdzić ludzi. Niemiecki Kodeks etyczny projektowania pojazdów autonomicznych wskazuje np. że technologia stosowana na potrzeby pojazdów autonomicznych powinna zapobiegać wypadkom tam, gdzie to możliwe i w zasadzie eliminować sytuacje kryzysowe. Powinna wykluczać sytuacje dylematowe, kiedy pojazd autonomiczny musi sam „decydować”o tym, jakie wybrać mniejsze zło. Jeżeli jednak już taka sytuacja zaistnieje, ochrona życia i zdrowia ludzi powinna mieć priorytetowe znaczenie. Zatem, z uwzględnieniem możliwości technologicznych, systemy pojazdu muszą być zaprogramowane tak, aby w razie konfliktu przedmiotu ochrony szkodzić zwierzętom lub mieniu, a zapobiegać jakimkolwiek obrażeniom ciała ludzkiego. Kodeks wskazuje jednak, że nie jest etycznie możliwe zaprogramowanie z góry zachowania maszyny w sytuacji wyboru pomiędzy jednym życiem ludzkim a drugim. Tu decyzja zależy od konkretnej sytuacji. Nie da się więc w tym zakresie ujednolicić zasad, a wszelkie rozróżnienie wyboru oparte na wieku, płci, kondycji fizycznej lub umysłowej jest zakazane.

Po drugie – interes człowieka, autonomia, sprawiedliwość

Niezależnie od Zasady nieszkodliwości, badania w dziedzinie robotyki powinny być prowadzone zgodnie z najwyższymi standardami etyki i profesjonalizmu oraz zapewniać przestrzeganie dodatkowych trzech zasad:

  • przynoszenia korzyści – roboty powinny służyć najlepszemu interesowi człowieka;
  • autonomii – zdolność do podjęcia świadomej, niewymuszonej decyzji na temat zasad interakcji z robotami;
  • sprawiedliwości – sprawiedliwe rozłożenie korzyści związanych z robotyką, a w szczególności przystępność cenowa robotów do opieki domowej i opieki zdrowotnej.

Po trzecie – ochrona praw człowieka

Równocześnie, jak wskazuje się w Zaleceniach dla Komisji z 2017 r. rozwiązania technologiczne stosowane przy projektowaniu robotów powinny „uwzględniać prawa i zasady ujęte w Karcie praw podstawowych, w szczególności zasadę godności ludzkiej, poszanowania i ochrony życia prywatnego i rodzinnego, ochrony i bezpieczeństwa, ochrony danych osobowych, ochrony własności intelektualnej, wolności wypowiedzi i informacji, równości i niedyskryminacji, solidarności, praw obywatelskich i wymiaru sprawiedliwości, zgodnie z zasadą proporcjonalności”. W szczególności istotne jest tutaj zapewnienie prawa jednostki i całej ludzkości do samostanowienia.

Badania w dziedzinie robotyki należy również prowadzić zgodnie z zasadą ostrożności. Oznacza to, że należy przewidzieć potencjalne skutki takich badań dla bezpieczeństwa oraz podjąć należyte środki ostrożności, proporcjonalne do wymaganego poziomu ochrony. Tam, gdzie to możliwe należy też zapewnić odwracalność działań robota. Powinien on mieć możliwość cofnięcia ostatniej sekwencji swoich działań by usunąć niepożądaną aktywność.

Dobrowolny charakter kodeksów

Omawiane kodeksy etyki mają charakter dobrowolny. Zachęcają wszystkie zainteresowane strony do odpowiedzialnego postępowania przy projektowaniu technologii w obszarze robotyki. Nie zastąpią jednak  norm prawnych, które w przyszłości powinny być wypracowane na poziomie unijnym, po to by zapewnić bezpieczne i etyczne projektowanie robotów i systemów autonomicznych. Takie prace w sposób kompleksowy jeszcze nie zostały podjęte.

dr Aleksandra Auleytner

dr Aleksandra Auleytner
Radca Prawny, Partner

aleksandra.auleytner@dzp.pl

Jeden komentarz

  1. Bardzo interesujący artykuł, pozdrawiam.

Komentarze

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *