Przejdź do treści Przejdź do stopki
Aktualności

„Sztuczna inteligencja łatwo „nasiąka” ludzkimi uprzedzeniami” – felieton

„Sztuczna inteligencja łatwo „nasiąka” ludzkimi uprzedzeniami” – felieton

Z coraz szerszym używaniem sztucznej inteligencji wiąże się coraz częstsze korzystanie z uczenia maszynowego. Budzący szerokie zainteresowanie program Chat GPT4 firmy OpenAI nabył umiejętności rozmawiania z ludźmi poprzez wcześniejsze przeanalizowania ogromnej liczby tekstów na różne tematy. To bardzo silny mechanizm służący do tworzenia inteligentnych programów przy niewielkim wysiłku tworzących je ludzi. Zamiast tworzyć narzędzie realizujące jakieś zadania (co jest pracochłonne) wystarczy stworzyć program uczący się i dostarczyć mu przykłady zadań prawidłowo wykonanych – a metodę rozwiązywania tych zadań uczący się program wynajdzie sam.

Stwierdzono jednak, że obok licznych zalet metody uczenia maszynowego mają niestety także wady. Okazało się bowiem, że jeśli ludzie, na których działaniach programy sztucznej inteligencji opierają swoje reguły podejmowania decyzji, mają jakieś (często nieświadome) uprzedzenia – to owe inteligentne programy „nasiąkną” tymi uprzedzeniami i stosują je potem z miażdżącą konsekwencją. W piśmiennictwie fachowym opisano wiele takich przypadków. Ja dla ilustracji przytoczę tylko trzy z nich.
Firma Amazon chcąc zobiektywizować system awansów swoich pracowników zastosowała program sztucznej inteligencji do typowania tych pracowników, którzy powinni zostać przesunięci na wyższe stanowisko. Dbając jednak o ciągłość tradycji firmy – do uczenia algorytmów typowania pracowników do awansu użyto danych personalnych aktualnych pracowników Amazona, zawierające między innymi informacje, kogo, kiedy i z jakim skutkiem awansowano.

Gdy program uruchomiono okazało się, że zdecydowanie częściej wskazywał on do awansu mężczyzn, niż kobiety.

Po zbadaniu tego zjawiska wykryto, że w przeszłości „rekruterzy” chętniej wybierali mężczyzn. Działało bowiem wtedy powszechne przekonanie, że do prac kierowniczych nadają się oni lepiej, niż kobiety. Program sztucznej inteligencji nie otrzymywał wprawdzie informacji o płci kandydata, ale nauczył się, że pewne fakty, dotyczące edukacji, zainteresowań i doświadczeń zawodowych kandydata, silnie preferują go do awansu. Okazało się, że były to fakty zdecydowanie częściej występujące u mężczyzn. W ten sposób uprzedzenia dawniejszych rekruterów „nasączyły” uczący się algorytm sztucznej inteligencji – i zaczął on wykazywać analogiczne preferencje!

A miało być sprawiedliwiej...

Inny przykład „zarażenia” sztucznej inteligencji ludzkimi uprzedzeniami ujawnił się w programie COMPAS, który został zbudowany do tego, żeby pomagał sędziom w wydawaniu postanowień o wcześniejszym warunkowym zwolnieniu z więzienia skazańców wykazujących się dobrym zachowaniem. W tym przypadku bazą, na której uczono algorytm sugerowania werdyktu na „tak” albo na „nie”, były wcześniejsze orzeczenia w setkach tysięcy podobnych spraw. Brano pod uwagę sytuację rodzinną i majątkową kandydata do zwolnienia, jego wykształcenie, wykonywany zawód, miejscowość, w której zamieszkiwał, opinie sąsiadów i dawnych współpracowników. Setki czynników! A okazało się, że system (który nie miał żadnych danych rasowych na  temat kandydata!) zdecydowanie częściej rekomendował do zwolnienia więźniów białych, niż kolorowych.

Zbadanie tego fenomenu przyniosło podobną konstatację, jak w opisanym wyżej przypadku awansów w Amazonie. Po prostu w większości decyzji podejmowanych wcześniej przez ludzi właśnie takie rasowe uprzedzenia wpływały na rozstrzygnięcie – więc sztuczna inteligencja ucząc się na przykładach „nasiąkała” tymi uprzedzeniami. Z wiadomym skutkiem...

Podane przykłady zdarzeń, które miały miejsce w USA. Europa ma jednak także swoją „czarną kartę” w obszarze decyzji podejmowanych przy użyciu programów sztucznej inteligencji nauczonych na przykładach zawierających uprzedzenia ludzi, którzy wcześniej podejmowali owe decyzje. Holandia w latach 2012 – 2019 stosowała algorytm sztucznej inteligencji do wykrywania przypadków wyłudzania nienależnej pomocy socjalnej. Osoby wskazane przez komputer były zmuszane do zwrotu pobranych kwot i czasem narażone na wysokie kary. Tymczasem okazało się, że program (wzorując się na wcześniejszych decyzjach urzędników, na bazie których się uczył) typował głównie osoby o obco brzmiących nazwiskach. Sprawą w 2021 roku zajął się rząd Holandii i na odszkodowania dla niesłusznie oskarżonych trzeba było przeznaczyć kwotę 500 mln euro.

Zapłacili ludzie (podatnicy), a nie komputer...

Skrócona wersja powyższego felietonu autorstwa prof. Ryszarda Tadeusiewicza została opublikowana w „Dzienniku Polskim” oraz „Gazecie Krakowskiej” 29.9.2023 r.

Wykaz wszystkich publikacji popularnonaukowych prof. Tadeusiewicza wraz z odnośnikami do ich pełnych wersji

Stopka