OpenAI zataiło informacje o ataku hakerskim. Sekrety twórców ChatGPT wykradzione
OpenAI, producent dużego modelu językowego GPT oraz czatbota ChatGPT padł przed rokiem ofiarą ataku hakerskiego. Informacja ta była skrzętnie ukrywana przed światem, choć napastnikom udało się pozyskać wiele niejawnych informacji dot. technicznych aspektów rozwoju sztucznej inteligencji.
Włamanie zamiecione pod dywan
“New York Times” dotarł do informacji, według których w kwietniu 2023 r. odbyło się zamknięte spotkanie kierownictwa OpenAI z pracownikami. Wyjawiono wówczas, że doszło do włamania do infrastruktury korporacji i pozyskane zostały niejawne dane z wewnętrznego forum. Wśród nich były techniczne detale dot. rozwoju produktów OpenAI będące ścisłą tajemnicą.
Kierownictwo OpenAI zdecydowało wówczas, że opinia publiczna nie dowie się o włamaniu. O incydencie nie zostały także powiadomione służby czy instytucje, które w USA odpowiadają za ich obsługę.
OpenAI prezentuje GPT-4o. Czego się spodziewać po nowym modelu?Władze OpenAI wybrały milczenie
Oznacza to, że kierownictwo OpenAI uznało, że samo jest w stanie autorytatywnie stwierdzić, czy incydent stanowił zagrożenie dla milionów (miliardów?) użytkowników GPT w różnej postaci oraz czy mógł on naruszyć bezpieczeństwo wewnętrzne kraju. Choć część pracowników obawiała się, że efekt prac OpenAI mógł trafić w ręce np. Chin, kierownictwo nie dopatrzyło się podstaw do zawiadomienia o włamaniu FBI.
Nietrudno sobie przecież wyobrazić konsekwencje znacznie poważniejsze niż tylko kradzież własności intelektualnej OpenAI. Kod GPT mógł zostać zatruty, tak aby zmanipulować wyniki, jakie otrzymują użytkownicy ChatGPT czy innych, podobnych narzędzi bazujących na GPT.
Nie sposób zbagatelizować możliwej utraty przewagi w rozwoju dużych modeli językowych, jaką wciąż przedsiębiorstwa amerykańskie mają (miały?) nad chińskimi. Mimo to władze OpenAI zdecydowały, by w sprawie włamania milczeć.
Fala odejść ekspertów ds. bezpieczeństwa
OpenAI znacznie bardziej zdecydowane jest wobec pracowników, którzy zwracali uwagę na zagrożenia. NYTimes przywołuje przykład Leopolda Aschenbrennera, jednego z kierowników technicznych projektu. Miał on zostać zwolniony za rozesłanie notatki zawiadamiającej o niewystarczającej ochronie dorobku OpenAI przed kradzieżą. Aschenbrenner został zwolniony, choć rzecznik OpenAI twierdzi, że nie było to powiązane z jego działalnością sygnalisty.
Zobacz: Unia przeskanuje nasze wiadomości. Ustawa miała upaść, właśnie zyskuje drugie życie
Biorąc pod uwagę, w jaki sposób jest sprawowana władza nad tak ważnym narzędziem, jak ChatGPT, jasne stają się decyzje o porzuceniu OpenAI m.in. Ilyę Sutskevera, Jana Leike czy Daniela Kokotajlo. W OpenAI zajmowali oni najwyższe stanowiska związane z bezpieczeństwem rozwoju sztucznej inteligencji.