Platforma Obywatelska wykorzystała deepfake Mateusza Morawieckiego. "Niebezpieczne zjawisko"
Platforma Obywatelska opublikowała spot wyborczy, w którym użyto głosu Mateusza Morawieckiego. Część wykorzystanych w nagraniu tekstów faktycznie wypowiedział premier podczas swoich wystąpień, jednak pozostałe wypowiedzi zostały wygenerowane przez sztuczną inteligencję na podstawie rzekomych maili Morawieckiego. W sieci zawrzało.
Sztuczna inteligencja w spocie PO. Co to jest deepfake?
Platforma Obywatelska przygotowała nowy spot przedwyborczy. W opublikowanym nagraniu zdecydowano się wykorzystać fragmenty wypowiedzi z wystąpień Mateusza Morawieckiego w sejmie. Na tym jednak nie poprzestano. PO zdecydowała się na kontrowersyjny krok i wykorzystała sztuczną inteligencję jako lektora. Deepfake Morawieckiego polega na czytaniu głosem premiera jego rzekomych maili, które jakiś czas temu wyciekły do sieci.
Deepfake to technika manipulacji multimediów, w której zaawansowane algorytmy uczenia maszynowego, zwłaszcza techniki oparte na sieciach neuronowych, są wykorzystywane do tworzenia fałszywych materiałów wideo, dźwiękowych lub obrazkowych. Termin "deepfake" pochodzi od połączenia słów "deep learning" (głębokie uczenie maszynowe) i "fake" (fałszywy). Technika ta może być używana do tworzenia przekonujących, ale fałszywych materiałów, w których twarze, głosy lub inne cechy są manipulowane w taki sposób, że osoba na nagraniu wydaje się mówić lub robić coś, czego tak naprawdę nie zrobiła. Deepfake może być wykorzystywany w różnych celach, zarówno rozrywkowych, jak i szkodliwych.
Przykłady deepfake w Polsce to np. nagranie z byłym ministrem zdrowia Łukaszem Szumowskim, który dzięki wykorzystaniu technologii manipulacji, poruszał ustami w rytm piosenki Cypisa o krainie zapomnienia, do której Szumowski chciałby się udać, aby przestać myśleć o szalejącej pandemii koronawirusa. Innym razem ktoś napisał tekst hiphopowej piosenki o inflacji i podłożył go pod nagranie z Donaldem Tuskiem. Lider Platformy zaczął w ten sposób rapować dzięki sztucznej inteligencji. W maju opublikowano natomiast deepfake z prezydentem Andrzejem Dudą, który recenzuje gulasz z Biedronki.
Wykorzystanie tej techniki przez PO do oficjalnego spotu wyborczego wywołało jednak niemałe zamieszanie, ponieważ w przeciwieństwie do powyższych przykładów, nie została ona tu użyta w celach humorystycznych. Media donoszą o rodzeniu się niebezpiecznego zjawiska. Taki trend może negatywnie wpłynąć na odbiorców. W dodatku fragmenty maili, których użyto w spocie, a są czytane przez lektora SI, nie zostały odpowiednio oznaczone.
Koniec popularnej wersji Messengera. Aplikacja zostanie wyłączona już we wrześniu Alarm dla niemal 3 milionów klientów dwóch dużych banków. Pieniądze Polaków znów zagrożoneKontrowersyjny film z Morawieckim
Platforma Obywatelska swój spot przedwyborczy opublikowała m.in. na platformie X (dawniej Twitter). W nagraniu zostały zestawione wypowiedzi Mateusza Morawieckiego, które padły z jego ust na mównicy sejmowej, wraz z treścią z maili, które podobno pochodziły ze skrzynki Michała Dworczyka, podaje Money.pl.
Kontrowersje wokół spotu polegają na tym, że mimo użycia sztucznej inteligencji do udawania głosu Mateusza Morawieckiego, który czyta swoje maile, PO nie podała tej informacji w nagraniu. Dopiero po kilku godzinach pojawił się pod wpisem komentarz ze strony prowadzących profil, że lektor został wygenerowany przez sztuczną inteligencję.
Fot. screen z profilu Platformy Obywatelskiej na platformie X
- Wrzucenie deepfake z premierem przez największą partię opozycyjną, bez oznaczania tego jako treść syntetyczna, jest strzeleniem sobie w stopę. Bez względu na poglądy polityczne – napisał na platformie X (dawny Twitter) dr Łukasz Olejnik, niezależny badacz oraz konsultant cyberbezpieczeństwa i prywatności, prowadzący bloga prywatnik.pl.
Spot można obejrzeć poniżej:
Eksperci komentują deepfake PO
Specjalista dodał jednak przy tym, że demonizowanie takiego zagrania Platformy Obywatelskiej nie ma sensu, ponieważ to sama Unia Europejska zezwoliła na podobne praktyki, podaje Money.pl. Głos zabrali również eksperci z serwisu Demagog. Na portalu regularnie pojawiają się objaśnienia na temat niektórych kontrowersyjnych lub niepewnych doniesień. Specjaliści podkreślają w swojej wypowiedzi, że zjawisko zwane deepfake jest zagrożeniem dla społeczeństwa. Oprócz celów humorystycznych jest bowiem wykorzystywane również w niecny lub dyskusyjny sposób.
Wpis na ten temat zamieścił również portal Cyber Defence 24. Firma odnosi się do pochodzenia cytatów czytanych w spocie przez lektora SI.
- Podane cytaty (źródłem ma być serwis Poufna Rozmowa, który przez wiele miesięcy publikuje wiadomości rzekomo pochodzące ze skrzynek rządowych, prawdziwość części z nich potwierdzali nadawcy/odbiorcy tych wiadomości; oficjalnie rząd tego nie potwierdzał, a zaznaczał, że "mogły zostać zmanipulowane") czytane są przez głos polskiego premiera, ale problem w tym, że jest to jego sfabrykowany głos, wygenerowany przez generatywną sztuczną inteligencję — podkreślają autorzy we wpisie na portalu.
“Wprost” przytacza natomiast wypowiedź prof. Aleksandry Przegalińskiej. Badaczka sztucznej inteligencji i nowych technologii miała zająć następujące stanowisko: „Uważałabym jednakowoż, że kiedy powstaje klon głosu, to należy to oznaczać w samym poście, żeby było jasne, że to nagranie powstało z wykorzystaniem AI” – napisała.
Problemu nie widzi natomiast wiceprzewodniczący PO Borys Budka. Polityk wypowiedział się na ten temat na antenie Polsat News, co cytuje “Wprost”.
– Bardziej prawdziwa jest sztuczna inteligencja niż premier Morawiecki – powiedział. – Dzięki temu, że wygenerowano taki głos, czyta ten głos maile Dworczyka – dodał w odpowiedzi na pytanie, dlaczego nie oznaczono w spocie, które fragmenty są czytane przez lektora.
Budka stwierdził, że „nie ma takiej potrzeby, bo pokazują maile”. Reakcja mediów oraz internautów skłoniła jednak PO do napisania w komentarzu pod postem, że lektor jest wygenerowany przez SI.