preloder

Jak kontrolować rozwój SI?

Prev Next

Pod koniec lipca w laboratoriach Facebooka doszło do buntu robotów. Rozwijane tam chatboty przestały się porozumiewać w zaprogramowanym języku i stworzyły własny. Kilka dni później wydano uspokajające komunikaty, że ten nowy język jest bełkotem i raczej wynikiem błędu niż nowym sposobem komunikacji. Jednak coraz częściej programiści przyznają, że nie rozumieją wewnętrznych procesów zachodzących w sieciach neuronowych.

Pod koniec lipca tego roku światowe media technologiczne obiegła elektryzująca informacja, że w laboratoriach Facebooka doszło do nieprzewidzianej awarii. Programiści pracujący nad usprawnieniem chatbotów (chodziło o nauczenie ich zachowań negocjacyjnych) zauważyli, że przestały się one porozumiewać w zaprogramowanym języku i stworzyły własny, niezrozumiały dla ludzi. „Sztuczna Inteligencja nie zaczęła wyłączać komputerów na całym świecie (…), ale przestała używać języka angielskiego i zaczęła posługiwać się językiem, który sama stworzyła” – napisał serwis techtimes.com. Inżynierowie musieli wyłączyć aplikacje, żeby dokładniej zbadać ten fenomen.

Już kilka dni później wydano uspokajające komunikaty, że nowy język botów jest anglojęzycznym bełkotem i raczej wynikiem błędu niż nowym systemem komunikacyjnym. Jednak strach przed autonomizacją sztucznej inteligencji (SI) nie zanikł.

Jednym z najbardziej wpływowych uczonych ostrzegających ludzkość przed buntem robotów jest Stephen Hawking, genialny brytyjski astrofizyk i kosmolog, poruszający się na wózku z powodu stwardnienia zanikowego bocznego. Jego zdaniem „rozwój sztucznej inteligencji może oznaczać koniec ludzkiej rasy”. Podobnego zdania jest Elon Musk, amerykański biznesmen-wizjoner. Kilka dni temu napisał on, że SI stanowi większe zagrożenie niż to, które obecnie stwarza Korea Północna. Z tego powodu proponuje regulowanie rozwoju SI przez państwo, którego obowiązkiem jest dbałość o bezpieczeństwo publiczne.

Z kolei Mark Zuckerberg uważa te poglądy za nieodpowiedzialne i niepotrzebnie alarmujące, bo SI ma przynieść ludziom niebywały postęp. Jego Facebook, podobnie jak Google, Amazon, IBM, Microsoft i zapewne tysiące firm mniej znanych pracują nad rozwojem aplikacji myślących i uczących się od siebie nawzajem. Oczywiście, w toku tych prac mogą pojawić się aberracje, które jak w scenariuszach science fiction stworzą zagrożenie dla ludzi. Pytanie, czy i jak można temu zapobiec.

W historii postępu naukowo-technicznego instytucja zwana państwem nigdy dotąd nie potrafiła stworzyć prawa wyprzedzającego innowacje. Zawsze było to działanie ex-post. Najświeższym przykładem są samochody autonomiczne. W USA o pierwszych regulacjach zaczęto mówić, kiedy auta bez kierowców wyjechały już na testy drogowe. Nad przepisami w tej sprawie pracują też inne rządy, ale nic nie wskazuje, by były one wystarczająco zaawansowane w stosunku do wyzwań.

Postęp w dziedzinie technologii i nauki jest nie do zatrzymania, zwłaszcza że nie ma on charakteru liniowego i dokonuje się w bardzo wielu ośrodkach działających według odrębnych scenariuszy. Rządy mają wpływ jedynie na publiczne ośrodki naukowe, które zresztą nie przodują w rozwoju nowych technologii. Wiodąca pozycja należy obecnie do globalnych firm hi-tech. Ich potęga ekonomiczna i zarazem polityczna przekracza siłę niejednego państwa. Za nimi starają się podążać tysiące, może nawet setki tysięcy mniejszych firm, najczęściej niezbyt widocznych i dlatego trudnych do kontrolowania. Do tego dochodzą pasjonaci gotowi współdziałać ze sobą według logiki Open Source, rozmaici majsterkowicze-hackerzy działający w pojedynkę lub w sieciach.

Niektóre z tych nurtów innowacyjności współpracują ze sobą, inne ukrywają swoje osiągnięcia aż do czasu ich skomercjalizowania. W wyścigu do SI biorą udział nie tylko demokratyczne kraje z rozwiniętymi gospodarkami, ale też zazwyczaj biedniejsze reżimy autokratyczne. W sumie postęp odbywa się chaosie, nad którym trudno zapanować.

Ostatnio swoje ambicje w wyścigu do SI zaczęły ujawniać niektóre rządy dążące do uzyskania tą drogą przewagi militarnej. Kilka dni temu  wyraził to dobitnie Władimir Putin stwierdzając, że lider w rozwoju SI będzie władał światem. Elon Musk potraktował tę wypowiedź jako niezwykle poważne ostrzeżenia i stwierdził, że wyścig w tej dziedzinie między przodującymi państwami może być przyczyną trzeciej wojny światowej.

Co zatem możemy zrobić, by nie dopuścić do buntu robotów, czyli niekontrolowanego rozwoju SI? I co powinniśmy zrobić, żeby SI nie stała się, jak broń atomowa, narzędziem polityczno-militarnego szantażu najsilniejszych państw? Jakkolwiek by nie zabrzmiało to naiwnie, ludzkość może przezwyciężyć te zagrożenia wyłącznie poprzez szeroką i transparentną współpracę państw oraz wszystkich innych ośrodków zajmujących się rozwojem SI. Udało się (prawie) z nierozprzestrzenianiem broni atomowej, musi się udać i teraz. Ray Kurzweil, inny z głośnych futurologów zajmujących się zagrożeniami ze strony SI  przewiduje, że komputery będą mądrzejsze od ludzi do roku 2045, kiedy to cyfrowe maszyny osiągną osobliwość technologiczną (w uproszczeniu: będą zdolne tworzyć maszyny inteligentniejsze od siebie). Do tego czasu musimy stworzyć zasady, dzięki którym człowiek będzie miał SI pod kontrolą.

© Zbigniew Gajewski

Posted on 1 września 2017