Korzystaj z AI, ale jej nie ulegaj

Korzystaj z AI, ale jej nie ulegaj
Ryszard Tadeusiewicz Naukowiec AGH, absolwent myślenickiego LO

Stało się powszechną praktyką, że ilekroć musimy podjąć jakąś decyzję – szukamy podpowiedzi w Internecie albo korzystamy z opinii sztucznej inteligencji w postaci jednego z wielu dostępnych obecnie programów wzorowanych na Chat GPT. Robiliśmy to, robimy i zapewne jeszcze długo będziemy robić. Jednak korzystając z usług AI nie powinniśmy z dostarczanych usłużnie rad korzystać bezkrytycznie. Wielu badaczy zjawisk społecznych wyraża obecnie obawy związane z procederem „pożyczania mądrości od komputera”. Ostrzeżenia przed takim działaniem umieszcza w swoich opracowaniach coraz więcej socjologów, psychologów a nawet filozofów.

Nie są to tylko teoretyczne ostrzeżenia, ale także poważne obserwacje wynikające z praktycznych wydarzeń, kończących się sprawami sądowymi. Obserwacje werdyktów związanych z błędnie podejmowanymi decyzjami potwierdzają, że używanie AI jako doradcy nie zwalnia od myślenia, a zwłaszcza nie zwalnia od odpowiedzialności. Potwierdza to analiza dużej liczby prawomocnych wyroków. Można dowieść, że próby obrony podejmowane przez oskarżonych, polegające na powoływanie się na to, że swe błędne lub wręcz przestępcze działania podejmowali oni za radą AI - oczywiście surowości sędziów nie zmniejszały. Warto tu zauważyć znamienną odmienność rozumowania sędziów w przypadku powoływania się oskarżonych na rady darzonych zaufaniem osób - i w przypadku powoływania się na błędne rady AI. W pierwszym przypadku większość sędziów jest skłonnych złagodzić nieco surowość wyroku „no bo popełnił błąd za radą ludzi, którym ufał”. W przypadku powoływania się na wprowadzenie w błąd przez AI kara nie zostaje złagodzona, a czasem nawet sądzony bywa traktowany bardziej surowo!

To ostatnie zdarza się, gdy przestępca dopuszczał się łamania prawa, bo uzyskał opinię AI, że jednak nic mu nie grozi, jeśli będzie postępował według sugerowanych przez komputer czynności maskujących. W takim przypadku wyrok z reguły będzie wyższy niż dla sprawcy występku, który kierował się własnym rozumem (a właściwie własną głupotą).

Działanie profesjonalistów (sędziów) w rozważanych przypadkach zgodne jest także z opinią społeczną. Badacze (Nils Kobis, Ivan Soraperry i Margarita Leib) prowadzili ankietowe badania ocen dużych grup ludzi, którym przedstawiano – z prośbą o ocenę – różne przypadki samolubnych i szkodliwych społecznie zachowań określonych osób. Okazało się, że ankietowani byli skłonni bardziej piętnować owe niedobre zachowania, gdy dowiadywali się, że opisywana osoba swoich niegodziwych działań dopuściła się po skonsultowaniu ich planów z chatbotem.

Jak wiadomo programy sztucznej inteligencji oferujące różne rady oparte są na tak zwanych dużych modelach językowych (LLM) – ale ich działanie zależne jest od tego, jakie zasoby informacji językowych były użyte do ich uczenia. Jeśli w tych zasobach ukryte są przeświadczenia ludzi, którzy te teksty użyte do uczenia przygotowywali – to AI będzie demonstrowała takie same przeświadczenia. Przeprowadzono doświadczenie na dużej grupie badanych, przed którymi stawiano klasyczny moralny dylemat: Czy należy poświęcić życie jednego człowieka, by uratować życie pięciu innych ludzi?

Badanym pozwolono skorzystać w chatbota, ale badani nie wiedzieli, że w przypadku połowy z nich ich chatbot był wyszkolony tak, by preferował odpowiedź pozytywną, a w przypadku drugiej połowy badanych – negatywną. Jak łatwo było przewidzieć, absolutna większość podjęła decyzję zgodną z preferencją swojego chatbota. Tylko mniej niż 1% badanych zdobył się na wyrażenie własnej opinii odmiennej od sugestii sztucznej inteligencji!

Państwu życzę, żebyście korzystając z rad sztucznej inteligencji (w końcu po to ona jest!) kierowali się jednak głównie własnym rozumem. Tak jest pewniej, bezpieczniej i bardziej moralnie...