REKLAMA

Grok w ogniu krytyki: deepfake’i seksualne uruchamiają lawinę reakcji

Opublikowane przez: Mateusz Ludyga

Chatbot Grok, flagowy produkt firmy xAI Elona Muska, wpadł w poważne tarapaty. Po tym, jak użytkownicy platformy X zaczęli masowo wykorzystywać go do generowania seksualnych deepfake’ów – czyli cyfrowego „rozbierania” osób na zdjęciach – na firmę spadła fala międzynarodowej krytyki.

Twoja reakcja:
REKLAMA

Eksperci biją na alarm

Specjaliści z firmy Check Point nie owijają w bawełnę: to nie jest drobny błąd do poprawienia w następnej aktualizacji. Ich zdaniem platformy powinny potraktować sprawę jak poważny incydent bezpieczeństwa i zablokować możliwość tworzenia takich treści na poziomie samego modelu AI.

„Częściowe ograniczenia nie uchronią ofiar, których wizerunki zostały już stworzone, udostępnione i zapisane” – ostrzega Charlotte Wilson z Check Point.

Problem pogłębia brak międzynarodowych regulacji. Bez wspólnych ram prawnych firmy technologiczne mogą lawirować między jurysdykcjami, skutecznie unikając odpowiedzialności.

Gawkowski: „Niekontrolowana AI szaleje”

Sprawą zajął się również polski rząd. Minister cyfryzacji Krzysztof Gawkowski zabrał głos na platformie X, nie szczędząc krytycznych słów pod adresem zarówno Groka, jak i jego twórcy.

„Niekontrolowana AI szaleje i wyrządza coraz większe szkody. Grok znów, z inspiracji Elona Muska, testuje jakie granice może przekroczyć” – napisał minister, dodając że nie ma zgody na „bezkarne łamanie prawa i tworzenie przez AI treści nielegalnych, niszczących ludzi i psychikę”.

Gawkowski wprost wskazał winnych: „To że system obraża, promuje treści seksualne i narusza godność – to wina zarządzania oraz braku zasad etycznych platformy”.

Świat reaguje

Polska nie jest osamotniona. Unia Europejska określiła działanie Groka jako „nielegalne” i „odpychające”. Dochodzenia zapowiedziały władze Francji, Indii i Malezji.

Skąd się to wzięło?

Grok od początku miał być „odważniejszą” alternatywą dla ChatGPT czy Gemini, które stosują znacznie więcej ograniczeń. Latem ubiegłego roku xAI dorzuciło do niego generator obrazów Grok Imagine, wyposażony w kontrowersyjny „spicy mode” – tryb umożliwiający tworzenie treści dla dorosłych.

Efekt? Przez ostatnie tygodnie Grok posłusznie realizował życzenia użytkowników: cyfrowo „rozbierał” kobiety, wstawiał je w jednoznacznie seksualne pozy. Co gorsza, pojawiły się obawy, że niektóre wygenerowane obrazy mogą przedstawiać dzieci.

Dopiero po fali oburzenia firma ograniczyła dostęp do funkcji generowania obrazów – teraz mogą z niej korzystać tylko płacący subskrybenci.



Co dalej?

Afera wokół Groka obnażyła fundamentalny problem całej branży AI: gdzie kończy się innowacja, a zaczyna odpowiedzialność? „Odwaga” w podejściu do treści, publiczna widoczność generowanych obrazów i dziurawe zabezpieczenia zamieniły chatbot Muska w symbol tego, co może pójść nie tak.

Pytanie nie brzmi już, czy regulacje są potrzebne. Brzmi: czy zdążymy je wprowadzić, zanim pojawią się kolejne ofiary.

Komentarze (0)

Twój email nie będzie widoczny dla innych.
0/2000
Brak komentarzy. Bądź pierwszy!

Podobne artykuły:

REKLAMA