"Teraz roboty mają umysł Puchatka, ale to się zmieni". Specjalista z politechniki o etyce robotów

Elżbieta Osowicz, jk | Utworzono: 2017-04-22 23:25 | Zmodyfikowano: 2017-04-22 23:25
A|A|A

Wywiad z profesorem Krzysztofem Tchoniem z Zakładu Podstaw Cybernetyki i Robotyki Politechniki Wrocławskiej.

Prawa robotów, o których Państwo rozmawiali, dla przeciętnego człowieka wydają się abstrakcją.

Ale to nie jest abstrakcja. Tu nie chodzi o prawa robotów, tylko o to, by działały dla dobra człowieka-  należy je tak budować, by nie działały źle. To kwestia etyki inżyniera robotyka i właśnie do tego zmierza legislacja - ma opisać, jak musi zachowywać się doby projektant robotów.

A jak będzie niedobry, to co nam grozi?

To robot panią przejedzie albo zachowa w jakiś inny sposób, którego sobie nie życzymy. Załóżmy, że jest robot opiekuńczy, który spędza z Panią wieczory i on wysyła na cały świat listę pani leków. Na to nie możemy pozwolić. I o to musi zadbać projektant. Jest też drugi aspekt - może jeszcze wygląda na przyszłościowy, ale niebawem nastąpi - co będzie, gdy robot sam zacznie się uczyć. Wtedy projektant nie będzie w stanie do końca przewidzieć, co robot zrobi. 

To fantazja rodem z filmów sci-fi czy rzeczywistość?

Staramy się, by roboty się uczyły. Na razie mają rozum Kubusia Puchatka, ale to się zmieni, bo do tego zmierza rozwój robotyki. I teraz - czy jesteśmy w stanie przewidzieć zachowanie pieska? Albo małego dziecka? Staramy się bardzo, a ono o tak może wyrosnąć na nie wiadomo kogo. I tu jest problem - jak spowodować, żeby roboty nie wyrastały na złych "ludzi".

Projekt rezolucji (KLIKNIJ I ZOBACZ) zawierającej zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki został przyjęty w lutym tego roku.

Powołuje się on m.in. na Prawa Asimova. Pisarz stworzył je w roku 1942 (!) i opisał w fantastycznym opowiadaniu pt. "Zabawa w berka".

1) Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2) Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3) Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
W opowiadaniu Roboty i Imperium Asimov dodał prawo zerowe - nadrzędne wobec trzech pierwszych:

0) Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Chodzi o to, by nie tylko polegać na moralności konstruktorów, ale też by zapisać to w prawie?

To się nazywa etyka robotów. Trzeba wbudować robotowi jakiś system etyczny - nie wiem, jak to zrobić, ale są takie pomysły. Albo trzeba będzie zrobić to od razu, albo robot, w ciągu swojego robociego życia, sam się nauczy, co jest dobre, a co złe.

Jakich rozwiązań prawnych potrzebujemy?

To wciąż w fazie rozwoju. Najbardziej zaawansowani są w tej kwestii chyba Japończycy. Istnieją tam strefy, w których roboty współpracują z ludźmi i to jakoś działa. Wymagało to specjalnych ustaleń prawnych. W Europie słyszałem tylko o jednym takim miejscu - we Włoszech. Prawa, który by to regulowało, w zasadzie nie ma, trzeba jak najszybciej zacząć nad nim pracować. Boję się, że stara, dobra Europa jest zapóźniona w tym względzie. 

REKLAMA

Dodając komentarz do artykułu akceptujesz regulamin strony.
Radio Wrocław nie odpowiada za treść komentarzy.
NA ANTENIE
TomaszSikora
Tomasz Sikora
 06:00 - 09:00
Poranek z Radiem Wrocław
Zapraszamy
Reklama