Sztuczna inteligencja rozbiera prawdziwych ludzi. Kontrowersyjne aplikacje coraz popularniejsze
Sztuczna inteligencja błyskawicznie zdobywa nowe zastosowania i niezbyt dziwi, że część z nich wiąże się z branżą pornograficzną. Nie chodzi jednak tylko o generowanie filmów, ale też o takie modyfikowanie zdjęć prawdziwych osób, aby pozbawić je ubrań. Problem widoczny jest w mediach społecznościowych, a walkę z nim zapowiedziało m.in. Google.
Dane analityczne
Magazyn “Time” przywołuje dane analityczne firmy Graphika, według których strony oferujące możliwość pozbawiania ubrań osób na wczytanych zdjęciach odwiedziło tylko we wrześniu 2023 r. 23 mln użytkowników. Można się spodziewać, że do dziś liczba ta znacząco wzrosła, gdy weźmie się pod uwagę, że liczba reklam takich usług w mediach społecznościowych od początku roku 2023 wzrosła o 2400 proc.
Rosnącym problemem społecznym staje się uzależnienie od pornografii samo w sobie, jednak nowe usługi bazujące na sztucznej inteligencji to nowy, poważny problem. Wpisuje się w trend pornografii publikowanej bez zgody osób, które - w tym przypadku nie tylko wbrew własnej woli, ale też maszynowo - stają się jej częścią. Publikacja czyjegoś zdjęcia nago wyrządza ogromne szkody i stwarza gigantyczną przestrzeń do nadużyć, mimo że zdjęcie nigdy nie zostało faktycznie wykonane.
Parlament Europejski przegłosował akt o sztucznej inteligencjiProblem katalizują media społecznościowe
Medium, które szczególnie często reklamuje usługi SI służące do rozbierania osób widocznych na dostarczonych przez użytkowników zdjęciach, jest Instagram. W toku dziennikarskiego śledztwa przeprowadzonego przez 404 Media wykazano, że Meta zarabia na tym procederze, mimo że jest on zakazany w regulaminie serwisu.
Zobacz: Microsoft inwestuje w europejskie SI Mistral. Dlaczego to zła wiadomość?
Choć część z reklam jest usuwana, inne są emitowane bez przeszkód, co prowadzi do wniosku, że moderacja działa dopiero w sytuacjach, gdy zostaje przyłapana na zaniedbaniach. To znana praktyka Meta, która widoczna jest także w przypadku oszustw inwestycyjnych czy prób phishingu realizowanych z użyciem kampanii reklamowych na Facebooku. Tak długo, aż oszustwo nie zostanie zgłoszone, Meta zarabia na reklamach, których emisję zlecili cyberprzestępcy.
Firmy dostarczające narzędzia zarabiają krocie
Również wyniki wyszukiwania w Google nie są wolne od wyników promujących omawiane narzędzia SI. Korporacji jednak trzeba oddać, że na początku czerwca wprowadziła zmiany w zasadach publikowania androidowych aplikacji w Google Play. Dzięki temu publikacja w sklepie programów wykorzystujących sztuczną inteligencję do rozbierania, a w rezultacie krzywdzenia prawdziwych osób, jest zabroniona.
Poza zakazem wykorzystania SI w szkodliwych celach deweloperzy muszą zaimplementować funkcje zgłaszania nieprawidłowości. Wcześniej korporacja zabroniła reklamowania usług rozbierających osoby widoczne na zdjęciach w wyszukiwarce, choć oczywiście ograniczenia te systematycznie próbują obchodzić firmy, które na tym zarabiają. Za dostęp do budzących zastrzeżenia narzędzi SI użytkownicy płacą równowartość nawet 120 zł miesięcznie.