Doradca ekonomiczny NBP: prawdopodobieństwo wyginięcia ludzkości przed końcem XXI w. wynosi około 85 proc.

Fala pierwszego zachwytu możliwościami dużych modeli językowych już dawno za nami, a sztuczną inteligencję – w swojej obecnej, dalece niedoskonałej postaci – coraz chętniej wykorzystujemy na co dzień w drobnych sprawunkach. Przestróg przed SI jest wiele, jednak docierają one do nas z większą mocą, jeśli formułuje je rodzimy akademik, a zarazem doradca Narodowego Banku Polskiego. Zwłaszcza jeśli przestrogi są skrajnie pesymistyczne.
Doradca ekonomiczny Narodowego Banku Polskiego szacuje ryzyko zagłady z powodu SI
Po 2020 r. umarły resztki entuzjazmu przełomu XX i XIX w., kiedy za sprawą globalizacji i końcu ideologii napędzających mocarstwa sądziliśmy za Fukuyamą, że doszło do końca historii. Globalna wioska w kwietniu 2025 r. na naszych oczach staje się historią, wielobiegunowy świat faktem, a rozwój techniki – cóż, egzystencjalnym zagrożeniem.
Przynajmniej tę ostatnią opinię podziela profesor Jakub Growiec z SGH, który pełni funkcję doradcy ekonomicznego w Departamencie Analiz i Badań Nardowego Banku Polskiego. W rozmowie z wydawanym przez NBP portalem Obserwator Finansowy prof. Growiec postawił diagnozę mrożącą krew w żyłach.


Ryzyko związane przede wszystkim z silną sztuczną inteligencją. Zostało kilka lat
Profesor Growiec skupia się w swoich badaniach naukowych na zagadnieniach związanych z teorią wzrostu gospodarczego, produkcją, ale przede wszystkim sztuczną inteligencją. Jest także członkiem organizacji non-profit Pause AI zabiegającej o wstrzymanie tych prac nad SI, które mogłyby zagrażać gatunkowi ludzkiemu.
Mowa więc nie tylko o bieżącym stanie, lecz o badaniach nad przyszłą – ewentualną – technologiczną osobliwością. Osobliwość tę firmy rozwijające dziś duże modele językowe uważają za docelową postać SI, tj. chcą i zmierzają do opracowania ogólnej (tzw. silnej) sztucznej inteligencji.
Konieczne wyważenie potrzeby rozwoju gospodarczego z ryzykiem dalszego rozwoju SI. Inaczej koniec
Naukowiec nie ma wątpliwości, że inteligentne oprogramowanie zdolne do przetwarzania informacji na poziomie generalizacji dostępnej wyłącznie dla człowieka i wyższej – tak można w uproszczeniu definiować silną SI – stanowi dla cywilizacji egzystencjalne zagrożenie. Silną SI często wiążemy z samoświadomą SI, a to w najnowszej rozmowie pozwoliło Growcowi na stwierdzenie, że prawdopodobieństwo wyginięcia ludzkości przed końcem XXI w. wynosi około 85 proc.
O ile podobnych prognoz słyszymy od premiery ChatGPT wiele, tak z ust doradcy Narodowego Banku Polskiego ma ona wyjątkowo mocny wydźwięk. Redakcja zastrzegła, że prof. Growiec mówi w imieniu swoim, a nie przedstawia stanowiska NBP, niemniej jeśli nie ze względu na jego dorobek naukowy, to na piastowane stanowisku warto przyjrzeć się jego diagnozie bliżej.
Punktem wyjścia jest założenie zaczerpnięte z prognoz, według których ogólna sztuczna inteligencja zostanie opracowana (czy raczej wyewoluuje) już w latach 2030-2031. Trzeba przy tym zaznaczyć, że nie jest to ani pewne, ani wcale oczywiste. Nie jesteśmy nawet pewni, czy dzisiejszy kierunek rozwoju SI, przez samo skalowanie dużych modeli językowych, może w ogóle doprowadzić do opracowania silnej SI.
Profesor Growiec przekonuje jednak, że na decyzję o otoczeniu badań nad SI swoistym kordonem sanitarnym mamy zaledwie kilka lat. W innym wypadku będziemy mieli do czynienia z oprogramowaniem mającym dwie funkcje egzystencjalnie zagrażające ludzkości – samoreplikację i rekursywne samoulepszenia. Czyli inaczej – samodzielnego mnożenia się i rozpostrzeniania oraz samodoskonalenia. Dodajmy dla jasności – całość bez udziału człowieka:
Gdy AI zdobędzie umiejętność samoreplikacji i rekursywnych samoulepszeń, będzie mogła szybko podnieść swoje kompetencje z poziomu zbliżonego do poziomu człowieka do poziomu o wiele, wiele wyższego. Jednocześnie AI działająca na cyfrowym hardwarze już dziś ma nad biologicznym mózgiem człowieka ogromną przewagę szybkości obliczeń. I przewagi tej nigdy nie straci.
Brakować ma zarówno zrozumienia zagadnień technicznych związanych z SI, jak i znajomości konsekwencji jej dalszego rozwoju w dzisiejszym trybie w zasadzie pozbawionym kontroli bezpieczeństwa. Niezbędny w ocenie Growca ma być natomiast konsensus co do skali zagrożenia, z jakim się mierzymy. Problem w tym, że w pogoni za wzrostem gospodarczym nie ma wielu chętnych, by ów konsensus zawrzeć.
Aby poważnie mówić o opanowaniu zagrożenia, potrzebne jest także określenie optymalnego punktu przecięcia się dwóch krzywych – rozwoju gospodarczego i dalszego bezpieczeństwa rozwoju SI.
Konieczne – już na poziomie badawczym, choć interdyscyplinarnym – ma być wskazanie momentu w rozwoju SI, w którym konieczność generowania wzrostu gospodarczego nie będzie mogła dłużej uzasadniać podejmowania ryzyka wynikającego z dalszego rozwijania sztucznej inteligencji.
W innym wypadku – przynajmniej według doradcy NBP – jest wysokie, 85-procentowe prawdopodobieństwo, że najpóźniej za 75 lat nie będziemy się już w ogóle zajmować rozwiązywaniem problemów.





































