Unicef: a deepfake-bántalmazás elleni fellépés a gyermekvédelem része | Weborvos

Unicef: a deepfake-bántalmazás elleni fellépés a gyermekvédelem része

Közzétéve: 2026. 02. 11. 23:38 -

- Fotók: Dreamstime • 3 perc olvasás

Az UNICEF növekvő aggodalommal számol be arról, hogy az interneten rohamosan terjednek a mesterséges intelligencia (MI) által létrehozott vagy módosított, megtévesztően valósághű szexualizált képek és felvételek. Különösen riasztó, hogy egyre gyakoribbak azok az esetek, amikor gyermekekről készült fényképeket manipulálnak – vagy akár teljes egészében generálnak – majd szexuális tartalomként tesznek közzé.

Riasztó méreteket ölt a gyerekeket érintő deepfake-bántalmazás

A deepfake mesterséges intelligenciával létrehozott, vagy módosított, megtévesztően élethű hamis kép, hang, vagy felvétel, melyek közé tartozik az úgynevezett „meztelenítés” is, amikor MI-eszközökkel eltávolítják, vagy átalakítják a ruházatot a már meglévő fotókon, hogy hamis, meztelen, vagy szexuális jellegű képeket hozzanak létre. Új adatok világítanak rá arra, milyen súlyos és gyorsan növekvő veszélyt jelent a mesterséges intelligencia visszaélésszerű használata a gyermekek számára.

Egy 2025-ben közzétett, 11 országra kiterjedő nemzetközi kutatás – amelyet az UNICEF, az ECPAT és az INTERPOL közösen végzett – szerint az elmúlt egy évben legalább 1,2 millió gyermek számolt be arról, hogy róla készült képeket szexuális tartalmú deepfake-anyaggá alakítottak át. Egyes országokban ez azt jelenti, hogy minden 25. gyermek érintett, vagyis gyakorlatilag már minden átlagos iskolai osztályban van legalább egy gyerek, aki személyesen tapasztalta meg a bántalmazásnak ezt az új, digitális formáját.

A gyerekek maguk is érzik a fenyegetettséget

A kutatásból az is kiderül, hogy a gyermekek többsége tudatában van a veszélynek, és kifejezetten aggódik amiatt, hogy mesterséges intelligencia segítségével szexuális képeket vagy videókat készíthetnek róluk. Az aggodalom mértéke országonként eltérő, ami jól mutatja, mennyire különböző szinten áll a tudatosság és a védelem. A szakértők szerint ez egyértelműen jelzi: sürgősen szükség van a megelőzést szolgáló intézkedések megerősítésére, a társadalmi figyelem felhívására, valamint a gyermekek és szülők tájékoztatására.

A deepfake-bántalmazás valódi bántalmazás

A szakmai álláspont egyértelmű: a mesterséges intelligenciával létrehozott vagy manipulált, szexualizált gyermekképek a gyermekek szexuális bántalmazását ábrázoló anyagok közé tartoznak. Ezek nem „virtuális” vagy „ártalmatlan” tartalmak, valódi traumát, mély lelki sebeket és mérhető pszichés károkat okoznak.

Amennyiben egy gyermek képmását vagy személyazonosságát használják fel, közvetlen áldozattá válik. De még akkor is súlyos a helyzet, ha az áldozat nem azonosítható: az ilyen MI-vel előállított anyagok normalizálják a gyermekek szexuális kizsákmányolását, növelik az illegális tartalmak iránti keresletet, és komolyan megnehezítik a bűnüldöző szervek munkáját a veszélyben lévő gyermekek azonosításában és védelmében.

Nem elég az utólagos védekezés

Az UNICEF üdvözli azokat az MI-fejlesztőket, akik már a tervezési szakaszban biztonsági megoldásokat és szigorú védőkorlátokat építenek be a visszaélések megelőzésére. A probléma azonban továbbra is jelentős: számos mesterségesintelligencia-modell kerül forgalomba megfelelő biztosítékok nélkül. A kockázatot tovább fokozza, hogy az arcképet és képmást manipuláló eszközök gyakran közvetlenül elérhetők a közösségimédia-platformokon, ahol az ilyen tartalmak rendkívül gyorsan terjedhetnek.

Sürgető intézkedésekre van szükség

Az UNICEF határozott fellépést sürget az MI-vel előállított vagy módosított, gyermekeket érintő szexuális bántalmazó anyagok terjedésének megfékezése érdekében. A szervezet javaslatai szerint:

  • A kormányoknak ki kell terjeszteniük a gyermekek szexuális kizsákmányolását ábrázoló anyagok jogi fogalmát az MI-vel létrehozott tartalmakra is, és büntethetővé kell tenniük azok előállítását, megszerzését, birtoklását és terjesztését.
  • Az MI-fejlesztőknek már a tervezés során elsődleges szempontként kell kezelniük a biztonságot, és hatékony védelmi mechanizmusokat kell beépíteniük a visszaélések megelőzésére.
  • A digitális platformoknak nem csupán utólag kell eltávolítaniuk az ilyen tartalmakat, hanem aktívan meg is kell akadályozniuk terjedésüket: erősebb tartalommoderálásra és olyan felismerő technológiákra van szükség, amelyek lehetővé teszik az azonnali beavatkozást – nem napokkal a bejelentés után.

Kövess minket!

UNICEF gyermekbántalmazás

Kapcsolódó cikkek

Gyógyulás

Psziché

Egészség

Horizont