Przejdź do głównych treściPrzejdź do głównego menu
wtorek, 31 marca 2026 10:41
Reklama
Reklama

Nagie zdjęcia z AI i dramat 15-latki: System zawodzi ofiary cyfrowej przemocy

Dramat 15-latki, której życie legło w gruzach przez jedno kliknięcie, to dopiero wierzchołek góry lodowej. Choć jej wizerunek wykorzystano do stworzenia pornograficznego deepfake'a, prokuratura początkowo rozłożyła ręce. UODO ostrzega: Polska tonie w fali cyfrowych manipulacji, a system prawny przypomina dziurawe sito, przez które prześlizgują się przestępcy nowej ery.
Nagie zdjęcia z AI i dramat 15-latki: System zawodzi ofiary cyfrowej przemocy
Twoje twarz, Twoje słowa, ale nie Twoje życie. Generatywna AI potrafi dziś stworzyć dowolne kłamstwo na Twój temat.

Źródło: AI

Deepfake’i i generatywna AI coraz częściej naruszają prywatność. UODO ostrzega: skarg będzie lawinowo przybywać, bo przepisy nie nadążają za technologią.

Fałszywe nagrania, generowane przez sztuczną inteligencję nagie zdjęcia, przypisywanie ludziom słów, których nigdy nie wypowiedzieli – to już nie scenariusze filmów, ale codzienność urzędów zajmujących się ochroną danych. 

Urząd Ochrony Danych Osobowych (UODO) ostrzega: spraw będzie gwałtownie przybywać, bo obowiązujące przepisy często okazują się bezradne wobec możliwości nowych technologii.

Coraz więcej, coraz bardziej skomplikowanych spraw 

Mirosław Wróblewski, szef UODO, podkreśla, że do urzędu trafia coraz więcej zgłoszeń dotyczących zastosowania narzędzi, które jeszcze kilka lat temu nie były powszechnie używane. Chodzi m.in. o biometrię, szyfrowanie, systemy automatycznej analizy danych czy generatywną sztuczną inteligencję.

– Należy się spodziewać wzrostu skarg związanych z wykorzystaniem nowych technologii. Widzimy to już obecnie. Co więcej, wpływa do nas coraz więcej spraw bardzo skomplikowanych – zaznacza.

Jak dodaje, wyzwania te nie są już wyłącznie prawne. Coraz częściej wymagają wiedzy technologicznej i etycznej, a to oznacza potrzebę wzmacniania kompetencji instytucji państwowych.

Dramat uczennicy i luka w systemie

Jednym z przykładów, na który powołuje się prezes urzędu, jest sprawa 15-latki. Jej wizerunek został użyty do wygenerowania przez AI obrazu nagiej osoby, a następnie materiał był rozpowszechniany w szkole i wśród znajomych.

Na początku czerwca 2025 roku prezes UODO zawiadomił policję o możliwości popełnienia przestępstwa. Wskazywał, że działania sprawców w oczywisty sposób naruszyły prywatność nastolatki i mogą mieć poważne konsekwencje dla jej przyszłości, m.in. ze względu na wysokie prawdopodobieństwo identyfikacji.

Mimo to odmówiono wszczęcia postępowania. Uznano m.in., że zdjęcie nie zostało pozyskane z chronionego zbioru danych, a jego przerobienie nie stanowi przetwarzania danych osobowych. Decyzję tę zatwierdziła prokuratura.

Dopiero po dalszych interwencjach, w styczniu tego roku, prokuratura poinformowała o ponownym podjęciu sprawy.

– To sprawa bardzo krzywdząca dla tej dziewczyny. Teoretyczne rozważania, że istnieją przepisy, które pozwalają na ściganie takich niegodnych zachowań, dowodzą tego, że potrzebne są tego typu rozwiązania – zaznacza Wróblewski.

W ocenie prezesa UODO pokazuje to wyraźnie, że teoretyczne istnienie przepisów nie zawsze przekłada się na realną możliwość ochrony pokrzywdzonych.

Europa próbuje reagować

Na poziomie unijnym wprowadzane są kolejne regulacje. Digital Services Act ma zobowiązywać duże platformy internetowe do oceny i ograniczania ryzyk systemowych. Z kolei AI Act w art. 50 nakazuje oznaczanie treści syntetycznych wytworzonych przy użyciu sztucznej inteligencji.

Problem w tym, że – zdaniem prezesa urzędu – to wciąż może być za mało. Użytkownicy potrafią omijać zabezpieczenia, a pomysłowość w wykorzystywaniu technologii często wyprzedza ustawodawcę.

26 stycznia tego roku Komisja Europejska wszczęła postępowanie wobec platformy X. Ma ono sprawdzić, czy serwis prawidłowo ocenił i zminimalizował zagrożenia wynikające z działania chatbota Grok. Wśród analizowanych kwestii są m.in. zmanipulowane materiały o charakterze seksualnym, również takie, które mogą dotyczyć dzieci.

Skala rośnie szybciej niż przepisy

Z raportu WeProtect oraz danych systemu CyberTipline wynika, że między 2023 a 2024 rokiem liczba zgłoszeń związanych z generatywną sztuczną inteligencją wzrosła o 1325 proc. To pokazuje, jak dynamicznie przybywa zagrożeń.

Organizacje często żyją w błędnym przekonaniu

UODO zwraca też uwagę na problem świadomości. Z jego „Raportu strategicznego” wynika, że 41 proc. z blisko 500 badanych organizacji uważa, że rozwój lub wykorzystanie AI nie wiąże się u nich z przetwarzaniem danych osobowych albo nie potrafią tego ocenić.

Największe luki widoczne są m.in. w samorządach, edukacji, ochronie zdrowia, kulturze oraz wśród mniejszych przedsiębiorców. Choć wielu deklaruje znajomość obowiązków wynikających z RODO, praktyczne dostosowanie do przepisów okazuje się trudne.

Fałszywe informacje tworzone przez maszyny

Kolejnym wyzwaniem są tzw. halucynacje AI. Systemy potrafią generować bardzo przekonujące, lecz nieprawdziwe informacje o ludziach. Mogą one prowadzić do manipulacji, dezinformacji czy naruszenia dobrego imienia, a późniejsze odkręcenie skutków bywa niezwykle trudne.

W opinii prezesa urzędu bez zmian systemowych liczba podobnych przypadków będzie rosła. Rozwój technologii oznacza konieczność budowania nowych mechanizmów odpowiedzialności – zarówno po stronie twórców narzędzi, jak i platform, na których treści są publikowane.


Podziel się
Oceń

Napisz komentarz

Komentarze

A. Żmijewski 14.02.2026 08:39
Zasadniczo wszystko pyr pyr można zmanipulować i podrobić. Jedynie ogrodowe pomidory spod folii są oryginalne pyr pyr pyr

jeżyk 14.02.2026 10:53
Albo ogrodowe, albo spod folii. Bez manipulacji proszę.

LU CYFER 13*52 676 14.02.2026 01:07
https...

typ nie myślący samodzielnie 14.02.2026 11:25
Bo on nic od siebie nie potrafi tylko to co mu podsuną albo zrobi kopiuj - wklej.

LU CYFER 13*52 676 14.02.2026 12:44
własnie ja to robię z ai ha ha ah...

taa 15.02.2026 14:42
Prezydentowa mówi ze coś zrobi, ale tylko mówi

nom_93 14.02.2026 00:27
Zjawisko halucynacji AI w połączeniu z celową dezinformacją tworzy mieszankę wybuchową dla debaty publicznej. Jeśli systemy potrafią generować przekonujące, kłamliwe narracje o osobach publicznych czy urzędnikach, stoimy przed ryzykiem całkowitego paraliżu informacyjnego. Bez systemowych mechanizmów weryfikacji treści (np. cyfrowe znaki wodne), obywatele stracą resztki zaufania do jakichkolwiek komunikatów cyfrowych.

ochrona 14.02.2026 00:22
Słabo to widzę.

? 14.02.2026 02:20
Pytanie co?

Vitt 13.02.2026 22:33
Największym wyzwaniem, co pokazała sprawa 15-latki, jest interpretacja pojęcia „przetwarzania danych”. Jeśli organy ścigania uznają, że wizerunek wygenerowany syntetycznie (nawet na bazie prawdziwego zdjęcia) przestaje być daną osobową, otwieramy furtkę do bezkarnej cyberprzemocy. Potrzebujemy pilnej aktualizacji wytycznych dla prokuratury, które jasno wskażą, że biometryczna tożsamość człowieka jest chroniona niezależnie od techniki jej zmanipulowania.

Robi 13.02.2026 20:53
Każdy z nas może być następny. Wystarczy jedno zdjęcie z profilu społecznościowego, by AI zrobiło z nas kogoś innego.

Ed 13.02.2026 16:59
Digital Services Act i AI Act to kroki w dobrym kierunku, ale sprawa 15-latki pokazuje, że egzekucja na poziomie krajowym kuleje. Potrzebujemy wyspecjalizowanych jednostek cyber-policji.

podejrzewam 13.02.2026 14:20
Dopóki nie będzie wysokich kar dla twórców narzędzi ułatwiających robienie deepfake'ów, nic się nie zmieni.

Elwira 13.02.2026 13:25
Zwróćmy uwagę na aspekt etyczny, o którym mówi szef UODO. Prawo zawsze będzie krok za technologią, dlatego kluczowe jest wzmacnianie kompetencji technicznych w prokuraturze.

MS 13.02.2026 13:09
Grok i X pod lupą KE? Najwyższy czas, by giganci technologiczni wzięli odpowiedzialność za to, co ich boty wypluwają do sieci.

lewicowiec 13.02.2026 12:52
Wetoman przecież się nie zgodził na ustawę.

luks 13.02.2026 12:51
Wzrost o 1325% pokazuje, że edukacja cyfrowa w szkołach i firmach leży. 41% organizacji nie widzi związku AI z RODO – to tykająca bomba zegarowa dla bezpieczeństwa danych.

analityk powiatowy 13.02.2026 12:21
Problem tkwi w definicji danych osobowych. Jeśli prokuratura uznaje, że syntetyczny obraz nie jest przetwarzaniem danych, to mamy ogromną lukę prawną, którą AI Act musi natychmiast załatać.

proste 13.02.2026 11:32
Technologia 2025, prawo 1995. Tak to u nas wygląda.

oburzona 13.02.2026 11:00
Skandal! Jak można odmówić wszczęcia śledztwa w sprawie 15-latki? To przyzwolenie na niszczenie ludziom życia.

Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
Reklama
ReklamaMrówka
Reklama
Reklama
Reklama