Czy istnieją realne zagrożenia związane z rozwojem sztucznej inteligencji?

fot. Sztuczna inteligencja / FreeImages

Naturalnym jest, że jako pasjonaci sztucznej inteligencji, skupiamy się głównie na profitach płynących z jej upowszechnienia. W naszych artykułach rozprawiliśmy się m. in. z tezami o dyskryminującej sztucznej inteligencji czy o sztucznej inteligencji odbierającej pracę. Czy jednak istnieją realne zagrożenia związane z rozwojem sztucznej inteligencji? Na czym mogą polegać i na jakim etapie się ujawnić?

Wydaje się, że możemy mieć do czynienia przynajmniej z trzema różnymi zagrożeniami związanymi z rozwojem sztucznej inteligencji. Omówimy je pokrótce w tym artykule.

Niezbyt inteligentna sztuczna inteligencja

Pierwsze zagrożenie to możliwość wykorzystania na masową skalę niedopracowanych i wadliwie działających rozwiązań wykorzystujących sztuczną inteligencję. Błędy mogą dotyczyć zarówno konstrukcji samego algorytmu, zestawów danych wykorzystanych do jego uczenia, jak również bieżącej obsługi danego systemu. Z tego rodzaju problemami mamy do czynienia obecnie, wydaje się jednak, że wraz z rozwojem sztucznej inteligencji stracą one na znaczeniu.

Fałszywa sztuczna inteligencja

Hype na sztuczną inteligencję może być stosunkowo łatwo wykorzystany do uzasadniania najróżniejszych poczynań, decyzji czy zaleceń wynikami działania algorytmów, podczas gdy takie algorytmy mogą w ogóle nie istnieć, bądź zostać celowo spreparowane w taki sposób, żeby dawać wyniki fałszywe, ale zgodne z intencjami ich twórców. Tego rodzaju oszustwo jest bardzo trudne do wykrycia. Rzetelna analiza wymaga, w zasadzie, dostępu do kodów źródłowych całego systemu oraz baz danych, co w wielu przypadkach może okazać się niemożliwe.

Zbyt inteligentna sztuczna inteligencja

Sztuczna inteligencja, w pewnym momencie, osiągnie prawdopodobnie poziom daleko wybiegający ponad możliwości naszej ludzkiej inteligencji. Najpewniej stanie się to wraz z upowszechnieniem komputerów kwantowych o odpowiednio dużej mocy obliczeniowej. Pojawi się wtedy realny problem związany z weryfikowaniem efektów działań systemów wykorzystujących sztuczną inteligencję. Dokonanie ludzkiej oceny może okazać się zbyt kosztowne lub wręcz niemożliwe, z kolei ocena z pomocą innej sztucznej inteligencji jedynie zmniejszy prawdopodobieństwo otrzymania błędnego wyniku, ale nie wyeliminuje go.

Istnieje więc ryzyko, że błędy popełniane przez niezwykle zaawansowane mechanizmy sztucznej inteligencji mogą pozostać długo nie wykryte, mogą się też nawarstwiać, a negatywne skutki przez nie spowodowane, gdy już zostaną zauważone, mogą być bardzo trudne do odwrócenia.

Dokładnemu omówieniu tego rodzaju zagrożeń oraz metod, które mogą pomóc nam je zneutralizować, poświęcimy osobny artykuł.

Czy możemy przeciwdziałać tym zagrożeniom?

Każdy wynalazek ma swoje jasne i ciemne strony. Nie można bagatelizować zagrożeń, nie ma jednak sensu, z ich powodu, obawiać się sztucznej inteligencji jako takiej. Właściwa strategia to zdefiniowanie możliwych problemów związanych z jej upowszechnieniem i opracowanie rozwiązań, które pozwolą je ograniczyć lub nawet wyeliminować.

Wydaje się, że jest to możliwe.