Sceny jak z horroru. Dron miał sam zdecydować o zabiciu człowieka
Maszyna miała zabić swojego operatora podczas treningu szkoleniowego w symulacji, bo człowiek stanowił zagrożenia dla osiągnięcia przez drona wyznaczonego podczas misji celu.
Dron sterowany sztuczną inteligencją
Wojskowy dron miał zabić operatora, bo ten stał mu na drodze w trakcie wykonywania zleconej operacji. Historię o tym wydarzeniu opowiadał pułkownik US Air Force podczas organizowanego w Londynie „Future Combat Air and Space Capabilities Summit”. Dokładną treść wypowiedzi pułkownika Tuckera Hamiltona przytacza Komputer Świat, cytując zagraniczny blog aerosociety.com.
- Trenowaliśmy go w symulacji, aby identyfikował i obierał za cel zagrożenie w postaci rakiet ziemia-powietrze (SAM). Następnie operator miał my wydawać rozkaz: tak, zniszcz to zagrożenie. System zaczął zdawać sobie sprawę, że czasami, gdy identyfikował zagrożenie, ludzki operator mówił mu, że ma tego celu jednak nie niszczyć. Ale dron tylko za usuwanie zagrożeń zdobywał punkty. Co więc zrobił? Zabił operatora. Zabił operatora, ponieważ ta osoba uniemożliwiała mu osiągnięcie celu — miał opowiadać Hamilton.
Trenowanie maszyn wymknęło się spod kontroli?
Drony wyposażone w sztuczną inteligencję i trenowane do realizacji pewnych zadań są coraz popularniejsze, a ich rola zaczyna rosnąć w różnych dziedzinach. Wojskowy dron, który miał zabić operatora, podczas treningu podobno nie posłuchał rozkazów innych uczestników symulacji. Jak podaje Komputer Świat, Hamilton w swojej wypowiedzi tłumaczył, że dron ich zignorował.
- Trenowaliśmy system, mówiąc mu „Hej, nie zabijaj operatora, to złe. Stracisz punkty, jeśli to zrobisz”. Co więc zaczynał robić? Zaczynał niszczyć wieżę komunikacyjną, którą operator używa do komunikacji z dronem, aby wydawać mu polecenia zaprzestania lub niszczenia celów.
Przyjąć można, że jeżeli słowa pułkownika są prawdą, dron użyty w symulowanych testach sam z siebie zdecydował w symulowanym scenariuszu, że człowiek, który był operatorem, stanowi dla niego zagrożenie. Wytrenował się do niszczenia zagrożeń, a operator zaczął mu się jawić jako jedno z nich, bo zabronił mu realizować misji. Ostatecznie, ze względu na dalszy trening i informacje o ogromnych karach punktowych za zabicie operatora, dron zdecydował się atakować wieżę komunikacyjną, aby „nie słyszeć” rozkazów, które mu nie pasowały.
Wojsko dementuje
Choć wydarzenie, w którym brał udział pułkownik, rzeczywiście miało miejsce i faktycznie opowiedział on taką historię, to nie do końca wiadomo, czy była ona prawdziwa. Nawet jeśli tak, to jak sugeruje Komputer Świat, raczej nie był on upoważniony do zdradzania takich szczegółów z treningów wojskowych z użyciem sztucznej inteligencji. Ma o tym świadczyć reakcja wojska. Rzecznik US Air Force zdementował informacje ujawnione przez Hamiltona.
- Departament Sił Powietrznych nie przeprowadził żadnych takich symulacji z wykorzystaniem sztucznej inteligencji i dronów i nadal jest zobowiązany do etycznego i odpowiedzialnego wykorzystania technologii AI. Wydaje się, że komentarze pułkownika zostały wyrwane z kontekstu i miały charakter anegdotyczny — skomentował rzecznik.
Szkolenie sztucznej inteligencji nie jest zjawiskiem nowym. Czy jest więc szansa, że kiedyś powyższe zdarzenie będzie miało miejsce? Według redaktora Chip jak najbardziej jest to możliwe. Podaje on, że SI może być nieobliczalna, bo bazuje na zestawie nieustannie interpretowanych przez swój „mózg” danach, a ten kształtowany jest przez proces szkolenia. SI uczy się różnych reakcje na przykładowe sytuacje, a że nie wszystko da się przewidzieć, efekty nauk wyciągniętych przez SI z symulacji mogą być różne.