Technika deepfake wykorzystuje narzędzia sztucznej inteligencji do takiego projektowania, generowania lub manipulowania obrazów, filmów lub dźwięków, by wyglądały realistycznie. Jest ona coraz częściej wykorzystywana do tworzenia sfabrykowanych nagich lub seksualizowanych treści z udziałem dzieci.
"Jesteśmy coraz bardziej zaniepokojeni doniesieniami o gwałtownym wzroście liczby dostępnych w internecie, generowanych przez sztuczną inteligencję obrazów dzieci” – podkreślił w oświadczeniu UNICEF.
UNICEF, Interpol i ECPAT (sieć organizacji pozarządowych walczących z seksualnym wykorzystaniem dzieci) przeprowadzili w tej kwestii analizę w 11 krajach. Co najmniej 1,2 mln dzieci przyznało, że w ciągu ostatniego roku ich zdjęcia zostały poddane takiej manipulacji i stworzono z nich seksualne deepfake’i. W niektórych krajach zjawisko to dotyka nawet 1 na 25 dzieci – odpowiednik jednego dziecka w typowej klasie szkolnej.
Dzieci same są głęboko świadome tego ryzyka i deklarują, że obawiają się, iż AI może być użyte do tworzenia fałszywych seksualnych obrazów lub filmów.
Eksperci podkreślają, że seksualizowane obrazy dzieci generowane lub manipulowane za pomocą narzędzi AI to materiał o charakterze seksualnego wykorzystywania dzieci (CSAM – child sexual abuse material). Nadużycia wykorzystujące technikę deepfake to nadużycia, a krzywda, którą powodują, nie jest fikcją. Jest jak najbardziej realna. Gdy używany jest obraz lub tożsamość dziecka, to staje się ono bezpośrednią ofiarą.
UNICEF uważa, że trzeba podjąć pilne działania w związku z narastającym zagrożeniem generowanymi przez AI materiałami seksualnie wykorzystującymi dzieci. Więcej tutaj.
Źródło: centrum prasowe UNICEF
***
Przypominamy, że Stowarzyszenie Twoja Sprawa jest autorem apelu o niezwłoczną ochronę dzieci. Uważamy, że wdrożenie Aktu o usługach cyfrowych (DSA) musi objąć m.in. deepfake’i.