Microsoft: opracowanie ogólnej sztucznej inteligencji zajmie lata, jeśli nie dekady
Choć nie brakuje zastrzeżeń, by zaawansowane oprogramowanie, duże modele językowe czy silniki przetwarzania języka naturalnego w ogóle nazywać sztuczną inteligencją, to nie brakuje głosów, że ludzkość opracowała już ogólną sztuczną inteligencję. Brad Smith, wiceprzewodniczący Microsoftu, postanowił wyjaśnić tę kwestię.
Nie, nie opracowaliśmy ogólnej sztucznej inteligencji
Kryzys w OpenAI, który summa summarum zakończył się powrotem Sama Altmana na stanowisko CEO firmy odpowiedzialnej za rozwój GPT oraz jeszcze większą władzą Microsoftu spowodował falę doniesień o opracowaniu ogólnej sztucznej inteligencji (AGI) . Według części mediów to dziejowe osiągnięcie jest już w naszych rękach. Emocje wokół tych doniesień studzi jednak Brad Smith, legenda Microsoftu, która od 30 jest jedną z najważniejszych postaci w korporacji.
Jak donosi Reuters, Smith wypowiedział się w czwartek podczas spotkania z dziennikarzami na temat ostatnich osiągnięć w kwestii rozwoju jednoznacznie – jest przekonany, że nie zapowiada się, aby w najbliższym czasie ktokolwiek opracował „superinteligentną sztuczną inteligencję” :
Nie ma absolutnie żadnego prawdopodobieństwa, że w ciągu najbliższych 12 miesięcy zobaczymy tak zwaną AGI, w której komputery są potężniejsze od ludzi. Zajmie to lata, jeśli nie dekady, ale nadal uważam, że właśnie teraz jest czas skupić się na bezpieczeństwie.
Ponadto Smith zaprzeczył informacjom, jakoby rzekome przełomowe osiągnięcia w rozwoju SI miały stać za zwolnieniem Sama Altmana ze stanowiska dyrektora wykonawczego OpenAI. Zwraca jednak uwagę, by nie bagatelizować zagrożenia i wykorzystać lata, jakie mogą upłynąć do opracowania silnej sztucznej inteligencji na wypracowanie ram bezpieczeństwa.
Zamieszanie pokłosiem projektu Q*
Pogłoski o sukcesie w pracach nad sztuczną inteligencją pojawiły się już po tym, jak Altman wrócił na stanowisko OpenAI. Reuters informował, że na decyzji zarządu o jego zwolnieniu zaważył list pracowników OpenAI, w którym ostrzegali oni przed przełomem w rozwoju tzw. projektu Q* .
Niestety przez część mediów, także popularnych polskich tygodników, historia ta została przedstawiona, jakby do opracowania silnej sztucznej inteligencji już doszło, a odkrycie to było „największym w historii ludzkości”. Pogłoski o kroku milowym nie znalazły jednak szerszego potwierdzenia , a według wcześniejszych anonimowych źródeł na bazie Q* udało się opracować wariant silnika, który lepiej radzi sobie z zadaniami matematycznymi niż choćby GPT. To ostatnie popełnia błędy nawet w najbardziej podstawowych operacjach, co nie powinno budzić zaskoczenia – zostało zbudowane i wytrenowane tak, aby bazować na zaawansowanych mechanizmach predykcji języka naturalnego.
Kiepski wyniki testów na inteligencję LLM
Potwierdzają to wyniki testów, jakie przeprowadzono w ostatnim czasie na Cornell University. Wykazały one, że GPT-4, a zatem jeden z najbardziej znanych zaawansowanych dużych modeli językowych, jakimi aktualnie dysponujemy, zupełnie nie radzi sobie z zadaniami, którymi sprawdza się ludzki iloraz inteligencji. GPT nie poradziło sobie z żadnym z trudniejszych zadań i wykazało zaledwie 30-procentową skuteczność w przypadku najłatwiejszych.
Źródło: Reuters