Co robić żeby robot nie był niebezpieczny?

Co robić żeby robot nie był niebezpieczny?
Ryszard Tadeusiewicz Naukowiec AGH, absolwent myślenickiego LO

Technika służy ludziom, ale rodzi też niebezpieczeństwa. Gdy nie znano pełnomorskich statków nie było tragicznych zatonięć. Gdy nie używano prądu nie zdarzały się porażenia elektryczne. Gdy nie było samochodów nie zdarzały się wypadki drogowe. Przykłady niebezpieczeństw związanych z techniką można mnożyć.

Ostatnio coraz więcej ludzi troszczy się o bezpieczeństwo w kontekście rozwijającej się i upowszechniającej robotyki.

Roboty rzeczywiście mogą być niebezpieczne. Są duże, silne, szybkie i o wiele bardziej odporne od ludzi. Nasze miękkie i wrażliwe ciała nie mają żadnych szans w zetknięciu ze stalowymi członkami robota, więc wprowadzenie różnych prewencyjnych rozwiązań, gwarantujących, że robot człowiekowi nie zrobi krzywdy, jest rzeczywiście potrzebne.

W czasach, kiedy jeszcze żadnych prawdziwych robotów nie było, teorie na temat sposobów ich bezpiecznego użytkowania (gdy się pojawią) konstruowali twórcy literatury fantastycznej. Najbardziej znanym z nich był Isaac Asimov, który w roku 1942 stworzył szeroko znane tak zwane trzy prawa robotów:

1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.

2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.

3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Zwracam uwagę na datę: 1942. O robotach można było wtedy mówić wyłącznie w kategoriach literatury fantastycznej, a formułowane „prawa” były typowym „chciejstwem” (by użyć terminu wprowadzonego przez Melchiora Wańkowicza).

Prawa Asimova nigdy nie zostały zastosowane w praktyce. Twórcy robotów mieli i mają na względzie korzyści ekonomiczne, a nie jakieś tam teoretyczne prawa, więc budują roboty tak, żeby przynosiły maksymalne zyski ich producentom i użytkownikom. A to oznacza, że jeśli robot ma spawać nadwozia samochodów, to się go buduje tak, żeby szybko, sprawnie i dokładnie spawał. I koniec! Nikt nie będzie go wyposażał w moralność zabraniającą krzywdzenia ludzi. No więc gdy się człowiek zjawi w pobliżu takiego robota, to może zostać poważnie poturbowany. Były już takie wypadki, w tym jeden śmiertelny!

Co się robi w tej sprawie?

Obecnie buduje się już roboty, które mogą pracować „ramię w ramię” z ludźmi. Kiedyś o nich opowiem.

Ale gdy tworzono pierwsze zrobotyzowane linie produkcyjne - to bynajmniej nie wyposażano robotów w sensory wykrywające ludzi w pobliżu i w programy nakazujące ostrożność przy kontakcie z człowiekiem. To by nadmiernie zwiększyło ich koszt. Więc robota zamykało się w klatce, do której ludzie nie mieli wstępu. A jak trzeba się było zbliżyć do robota (bo na przykład konieczne są prace serwisowe) – to się go wyłączało, żeby się przypadkowo nie ruszył.

Na przykładzie praw Asimova można prześledzić, jak teoria rozmija się z praktyką. Ci, którzy filozofują na temat robotyki i sztucznej inteligencji wymyślają prawa i zasady, których nikt nie stosuje. A w praktyce wykorzystuje się klatkę. I już!