Czy utrata kontroli nad sztuczną inteligencją jest problemem czy celem?

fot. Sztuczna inteligencja / DALL-E

Wśród zagrożeń związanych z rozwojem sztucznej inteligencji często wymieniane jest ryzyko utraty kontroli nad nią. Bywa ono rozumiane na różne sposoby, od całkowitej utraty kontroli rodem z filmów SF sprowadzającej się do przejęcia władzy nad światem przez samoświadomą sztuczną inteligencję, po problematykę z zakresu black box czy explainable AI.

Wydaje się jednak, że pewien stopień utraty kontroli nad sztuczną inteligencją jest nieunikniony i można, z pewnymi zastrzeżeniami, nazwać go celem. Warto się wręcz zastanowić, czy w innym wypadku można w ogóle mówić o powstaniu prawdziwie zaawansowanej sztucznej inteligencji.

Dlaczego?

W XX. wieku scedowaliśmy pracę fizyczną na maszyny, teraz, w XXI. wieku zamierzamy scedować na nie pracę umysłową. Od dawna nie dorównujemy maszynom pod względem wydajności i jakości wykonywania pracy fizycznej. Można przypuszczać, że wkrótce podobnie stanie się z pracą umysłową.

Jeżeli sztuczna inteligencja osiągnie poziom wyraźnie wykraczający poza nasz, ludzki, to z definicji przestaniemy rozumieć w szczegółach (albo w ogóle) jej poczynania, co będzie tożsame z przynajmniej częściową utratą kontroli nad nią. Nie da się w pełni kontrolować czegoś, czego się nie rozumie.

Wybór

Możemy więc albo zaakceptować (przynajmniej częściową) utratę kontroli nad sztuczną inteligencją albo ograniczyć jej rozwój do jedynie naszego, ludzkiego poziomu (a w praktyce nawet niższego, ze względu na inną specyfikę AI). W tym drugim przypadku w najlepszym razie możemy zapomnieć o rewolucji technologicznej napędzanej przez sztuczną inteligencję, a w najgorszym – zaawansowana sztuczna inteligencja i tak powstanie, jednak już poza naszym kręgiem kulturowym.

Nie oznacza to oczywiście, że powinniśmy celowo rezygnować z prób stosowania jakichkolwiek bezpieczników. Warto jednak zdawać sobie sprawę z tego, że precyzyjne kontrolowanie sztucznej inteligencji nie będzie już – od pewnego momentu – prawdopodobnie w praktyce możliwe. Świadomość tego faktu powinna, paradoksalnie, pozwolić nam zachować kontrolę w możliwie największym zakresie.

Explainable AI

Podobne uwagi zdają się tyczyć explainable AI. W praktyce explainable AI to highly restricted AI, o ile nie podejdziemy do „wyjaśnialności” na poziomie stricte emocjonalnym i nie uznamy, że „wyjaśnienie” ma być nie tyle precyzyjne, co po prostu satysfakcjonujące dla nieprofesjonalnego odbiorcy.

Konkluzja

Jeżeli myślimy o sztucznej inteligencji jako o dźwigni dla rozwoju ludzkości, jeśli dążymy do powstania AGI, wówczas musimy pogodzić się z – przynajmniej częściową – utratą kontroli nad nią. W innym przypadku musimy pogodzić się z drastycznym ograniczeniem jej potencjalnych możliwości i z realnym ryzykiem, że sztuczna inteligencja – bez tych ograniczeń – i tak powstanie, jednak już całkowicie poza naszą, nomen omen, kontrolą, w zupełnie innym miejscu na świecie.