Przejdź do głównych treściPrzejdź do głównego menu
piątek, 13 lutego 2026 12:01
Reklama
Reklama
Reklama
Reklama

Nagie zdjęcia z AI i dramat 15-latki: System zawodzi ofiary cyfrowej przemocy

Dramat 15-latki, której życie legło w gruzach przez jedno kliknięcie, to dopiero wierzchołek góry lodowej. Choć jej wizerunek wykorzystano do stworzenia pornograficznego deepfake'a, prokuratura początkowo rozłożyła ręce. UODO ostrzega: Polska tonie w fali cyfrowych manipulacji, a system prawny przypomina dziurawe sito, przez które prześlizgują się przestępcy nowej ery.
Nagie zdjęcia z AI i dramat 15-latki: System zawodzi ofiary cyfrowej przemocy
Twoje twarz, Twoje słowa, ale nie Twoje życie. Generatywna AI potrafi dziś stworzyć dowolne kłamstwo na Twój temat.

Źródło: AI

Deepfake’i i generatywna AI coraz częściej naruszają prywatność. UODO ostrzega: skarg będzie lawinowo przybywać, bo przepisy nie nadążają za technologią.

Fałszywe nagrania, generowane przez sztuczną inteligencję nagie zdjęcia, przypisywanie ludziom słów, których nigdy nie wypowiedzieli – to już nie scenariusze filmów, ale codzienność urzędów zajmujących się ochroną danych. 

Urząd Ochrony Danych Osobowych (UODO) ostrzega: spraw będzie gwałtownie przybywać, bo obowiązujące przepisy często okazują się bezradne wobec możliwości nowych technologii.

Coraz więcej, coraz bardziej skomplikowanych spraw 

Mirosław Wróblewski, szef UODO, podkreśla, że do urzędu trafia coraz więcej zgłoszeń dotyczących zastosowania narzędzi, które jeszcze kilka lat temu nie były powszechnie używane. Chodzi m.in. o biometrię, szyfrowanie, systemy automatycznej analizy danych czy generatywną sztuczną inteligencję.

– Należy się spodziewać wzrostu skarg związanych z wykorzystaniem nowych technologii. Widzimy to już obecnie. Co więcej, wpływa do nas coraz więcej spraw bardzo skomplikowanych – zaznacza.

Jak dodaje, wyzwania te nie są już wyłącznie prawne. Coraz częściej wymagają wiedzy technologicznej i etycznej, a to oznacza potrzebę wzmacniania kompetencji instytucji państwowych.

Dramat uczennicy i luka w systemie

Jednym z przykładów, na który powołuje się prezes urzędu, jest sprawa 15-latki. Jej wizerunek został użyty do wygenerowania przez AI obrazu nagiej osoby, a następnie materiał był rozpowszechniany w szkole i wśród znajomych.

Na początku czerwca 2025 roku prezes UODO zawiadomił policję o możliwości popełnienia przestępstwa. Wskazywał, że działania sprawców w oczywisty sposób naruszyły prywatność nastolatki i mogą mieć poważne konsekwencje dla jej przyszłości, m.in. ze względu na wysokie prawdopodobieństwo identyfikacji.

Mimo to odmówiono wszczęcia postępowania. Uznano m.in., że zdjęcie nie zostało pozyskane z chronionego zbioru danych, a jego przerobienie nie stanowi przetwarzania danych osobowych. Decyzję tę zatwierdziła prokuratura.

Dopiero po dalszych interwencjach, w styczniu tego roku, prokuratura poinformowała o ponownym podjęciu sprawy.

– To sprawa bardzo krzywdząca dla tej dziewczyny. Teoretyczne rozważania, że istnieją przepisy, które pozwalają na ściganie takich niegodnych zachowań, dowodzą tego, że potrzebne są tego typu rozwiązania – zaznacza Wróblewski.

W ocenie prezesa UODO pokazuje to wyraźnie, że teoretyczne istnienie przepisów nie zawsze przekłada się na realną możliwość ochrony pokrzywdzonych.

Europa próbuje reagować

Na poziomie unijnym wprowadzane są kolejne regulacje. Digital Services Act ma zobowiązywać duże platformy internetowe do oceny i ograniczania ryzyk systemowych. Z kolei AI Act w art. 50 nakazuje oznaczanie treści syntetycznych wytworzonych przy użyciu sztucznej inteligencji.

Problem w tym, że – zdaniem prezesa urzędu – to wciąż może być za mało. Użytkownicy potrafią omijać zabezpieczenia, a pomysłowość w wykorzystywaniu technologii często wyprzedza ustawodawcę.

26 stycznia tego roku Komisja Europejska wszczęła postępowanie wobec platformy X. Ma ono sprawdzić, czy serwis prawidłowo ocenił i zminimalizował zagrożenia wynikające z działania chatbota Grok. Wśród analizowanych kwestii są m.in. zmanipulowane materiały o charakterze seksualnym, również takie, które mogą dotyczyć dzieci.

Skala rośnie szybciej niż przepisy

Z raportu WeProtect oraz danych systemu CyberTipline wynika, że między 2023 a 2024 rokiem liczba zgłoszeń związanych z generatywną sztuczną inteligencją wzrosła o 1325 proc. To pokazuje, jak dynamicznie przybywa zagrożeń.

Organizacje często żyją w błędnym przekonaniu

UODO zwraca też uwagę na problem świadomości. Z jego „Raportu strategicznego” wynika, że 41 proc. z blisko 500 badanych organizacji uważa, że rozwój lub wykorzystanie AI nie wiąże się u nich z przetwarzaniem danych osobowych albo nie potrafią tego ocenić.

Największe luki widoczne są m.in. w samorządach, edukacji, ochronie zdrowia, kulturze oraz wśród mniejszych przedsiębiorców. Choć wielu deklaruje znajomość obowiązków wynikających z RODO, praktyczne dostosowanie do przepisów okazuje się trudne.

Fałszywe informacje tworzone przez maszyny

Kolejnym wyzwaniem są tzw. halucynacje AI. Systemy potrafią generować bardzo przekonujące, lecz nieprawdziwe informacje o ludziach. Mogą one prowadzić do manipulacji, dezinformacji czy naruszenia dobrego imienia, a późniejsze odkręcenie skutków bywa niezwykle trudne.

W opinii prezesa urzędu bez zmian systemowych liczba podobnych przypadków będzie rosła. Rozwój technologii oznacza konieczność budowania nowych mechanizmów odpowiedzialności – zarówno po stronie twórców narzędzi, jak i platform, na których treści są publikowane.


Podziel się
Oceń

Napisz komentarz

Komentarze

proste 13.02.2026 11:32
Technologia 2025, prawo 1995. Tak to u nas wygląda.

oburzona 13.02.2026 11:00
Skandal! Jak można odmówić wszczęcia śledztwa w sprawie 15-latki? To przyzwolenie na niszczenie ludziom życia.

ANDRZEJ TUMANOWICZ HA HA AH 13.02.2026 10:16
AI WAI HA HA AH ALE JAKIE ŁADNE PIOSENKI PISZE AI AH AH AH NP TA HA HA AH...

:))))) 13.02.2026 10:53
Uwaga! Tumanowicz bawi się w śmietniku.

Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
ReklamaMrówka
Reklama
Reklama
Reklama
Reklama