Deepfake je pro děti reálnou hrozbou | UNICEF Česká republika

Nastavení cookies

Na těchto stránkách fungují cookies, které nám pomáhají zajišťovat funkčnost webu. Více o cookies

Deepfake je pro děti reálnou hrozbou

Publikováno dne 05.02.2026

Internet, sociální sítě a nástroje umělé inteligence (AI) jsou dnes běžnou součástí života nejen dospělých, ale i dětí a mladých lidí. Právě proto UNICEF s velkými obavami sleduje, jak se v online prostředí stále častěji objevují případy sexuálního zneužívání dětí – zejména prostřednictvím deepfake videí a fotografií. Níže přinášíme oficiální prohlášení UNICEF k této hrozbě:

„V UNICEF nás stále více znepokojují zprávy o rychlém nárůstu množství obrazového materiálu – foto i video – se sexualizovaným obsahem, který je vytvářen pomocí umělé inteligence a který se šíří veřejným prostorem. A to včetně případů, kdy byly tímto způsobem upravovány a sexualizovány fotografie a videa dětí.

Deepfaky jsou obrazy, videa i zvukové záznamy vytvořené nebo upravené pomocí umělé inteligence tak, aby působily jako skutečné. Jsou stále častěji zneužívány k vytváření sexualizovaného obsahu týkajícího se dětí. Patří sem i praktiky, při nichž nástroje AI digitálně odstraňují nebo mění oblečení na fotografiích a vytvářejí tak zcela smyšlené, nevhodné vizuální materiály.

Nová zjištění potvrzují rozsah této rostoucí hrozby: studie organizací UNICEF, ECPAT a INTERPOL provedená v 11 zemích ukazuje, že nejméně 1,2 milionu dětí uvedlo, že jejich podoba byla v uplynulém roce zneužita k vytvoření nevhodných deepfake materiálů s explicitním sexuálním obsahem. V některých zemích se to týká až každého pětadvacátého dítěte – tedy zhruba jednoho dítěte v běžné školní třídě.

Samy děti jsou si silně vědomy tohoto nebezpečí. V některých zemích zapojených do studie uvedly až dvě třetiny dětí, že mají obavy z toho, že by umělá inteligence mohla být zneužita k vytváření falešných sexualizovaných obrázků nebo videí. Míra těchto obav se mezi jednotlivými zeměmi výrazně liší, což zdůrazňuje naléhavou potřebu posílit osvětu, prevenci a ochranná opatření.

Musíme být zcela jasní, důrazní a jednotní: Sexualizované obrázky dětí vytvořené nebo upravené pomocí nástrojů AI jsou materiály týkající se sexuálního zneužívání dětí (CSAM). Zneužívání pomocí deepfake technologií je skutečné zneužívání – a skutečné jsou i škody, které způsobuje.

Jakmile je použita podoba nebo identita dítěte, stává se toto dítě přímou obětí. I v případech, kdy nelze konkrétní oběť jednoznačně identifikovat, přispívá obsah vytvářený pomocí umělé inteligence, který zobrazuje sexuální zneužívání dětí, k normalizaci jejich sexuálního vykořisťování, zvyšuje poptávku po takových materiálech a představuje závažnou výzvu pro orgány činné v trestním řízení při identifikaci a ochraně dětí, které potřebují pomoc.

UNICEF vítá úsilí těch vývojářů umělé inteligence, kteří do svých systémů od počátku zabudovávají bezpečnostní prvky a účinné ochranné mechanismy, aby zabránili zneužití svých programů. Celková situace je však stále nestabilní a příliš mnoho modelů umělé inteligence vzniká bez dostatečných pojistek. Rizika se navíc dále zvyšují v případech, kdy jsou generativní nástroje umělé inteligence přímo integrovány do sociálních sítí, kde se upravené obrázky šíří mnohem rychleji.

UNICEF naléhavě vyzývá k okamžitému jednání proti rostoucí hrozbě sexuálního zneužívání dětí prostřednictvím obsahu vytvářeného umělou inteligencí:

  • Všechny vlády by měly rozšířit definice materiálů týkajících se sexuálního zneužívání dětí (CSAM) tak, aby zahrnovaly i obsah vytvářený umělou inteligencí, a učinit trestným jeho vytváření, opatřování, držení i šíření.
  • Vývojáři umělé inteligence by měli bezpečnostní systémy brát jako samozřejmou součást vývoje umělé inteligence, aby její nástroje nemohly být zneužívány.
  • Digitální společnosti musí předcházet šíření materiálů týkajících se sexuálního zneužívání dětí vytvářených pomocí umělé inteligence – ne je pouze odstraňovat až poté, co k poškození dojde. Zároveň je nutné posílit kontrolu obsahu investicemi do detekčních technologií tak, aby bylo možné takový obsah odstranit okamžitě, a ne až několik dní poté, co jej nahlásí samotné oběti nebo jejich zákonní zástupci.

Zneužívání dětí pomocí deepfaků způsobuje skutečnou a naléhavou újmu. A děti nemohou čekat, až se zákony přizpůsobí této nové realitě.“

Vaše pomoc je pomocí dětem
Takto můžete pomoci:
Vaše pomoc je pomocí dětem
Takto můžete pomoci: