Czy sztuczna inteligencja może dyskryminować?

fot. Sztuczna inteligencja / FreeImages

Modne, ostatnio, stały się opinie, że sztuczna inteligencja może potencjalnie dyskryminować. Przede wszystkim ze względu na płeć, przynależność rasową lub orientację seksualną. Czy rzeczywiście jest to realne ryzyko? I czy warto pomyśleć o dodatkowych uregulowaniach prawnych? Rozważmy to krok po kroku.

W naszej analizie pominiemy całkowicie aspekt polityczny. Budzi on duże emocje, jednak politykę pozostawiamy politykom oraz mediom poruszającym takie kwestie i przeanalizujemy problem wyłącznie pod kątem merytorycznym.

Zacznijmy od kwestii moralnych

Pod względem moralnym sztuczna inteligencja nie ma, jako taka, jakiejkolwiek zdolności do dyskryminowania kogokolwiek. Sztuczna inteligencja nie jest sztuczną świadomością i — w przewidywalnym horyzoncie czasowym — nią się nie stanie. Sztuczna inteligencja, w najprostszej postaci, jest rodzajem algorytmu, a ten, nawet jeśli działaniem przypomina człowieka podejmującego decyzje, w rzeczywistości funkcjonuje na zasadzie czysto matematycznej.

Czy zatem istnieje jakiś inny mechanizm, który można skojarzyć z dyskryminacją?

Niektórzy prawdopodobnie obawiają się, że sztuczna inteligencja może „dyskryminować” nie w sensie moralnym, ale właśnie matematycznym. Czy jest to możliwe? Rozważmy dwa skrajne przypadki.

Pierwszy to bardzo kiepski algorytm, który daje wyniki obarczone bardzo wysokim poziomem błędów. W takim wypadku faktycznie mogą pojawić się sytuacje, które będą przypominały dyskryminację. W rzeczywistości jednak taki algorytm będzie dawał po prostu mało dokładne wyniki. Jeśli „na sztywno” wykluczymy jedynie wybrane obszary „dyskryminacji” to jeszcze pogorszymy jego dokładność.

Drugi to algorytm idealny. W tym przypadku, jeśli pojawią się sytuacje przypominające dyskryminację, to powinny skłonić, co najwyżej, do zweryfikowania tego spostrzeżenia. Idealny algorytm daje, z definicji, poprawne wyniki, a zatem, jeśli okaże się, że — przykładowo — prawdopodobieństwo danego zdarzenia zależy od płci, to faktycznie tak będzie. Czy tego chcemy, czy nie, zestawy cech tradycyjnie kojarzone z dyskryminacją są, w wielu sytuacjach, obiektywnym wyróżnikiem.

A co z celowo wprowadzanymi, dyskryminującymi, mechanizmami?

Algorytm, który będzie zawierał na sztywno wprowadzone instrukcje skutkujące dyskryminacją konkretnych osób lub całych ich grup trudno nazwać sztuczną inteligencją. Takie sytuacje nie wymagają zresztą dodatkowych uregulowań prawnych, bo w tym wypadku problem nie będzie leżał po stronie sztucznej inteligencji (zakładając, że w jakimś stopniu będzie w algorytmie obecna), lecz konkretnego człowieka, który instrukcje dyskryminujące celowo w nim umieścił.

Konkluzja

Podsumowując, należy uznać, że obawy, jakoby sztuczna inteligencja mogła przyczynić się do dyskryminacji, wydają się mocno przesadzone i wynikają głównie z niezrozumienia tego, czym w rzeczywistości jest sztuczna inteligencja.

Algorytm bazujący na matematyce może być mniej lub bardziej dokładny, ale nie może dyskryminować w znaczeniu, w jakim powszechnie używamy tego określenia. Co więcej, jego dokładności nie da się poprawić w wybiórczy sposób, posiłkując się regulacjami prawnymi, a jedynie udoskonalając algorytm jako całość.