Anya, baj van. Meztelen fotók keringenek rólam a neten. Hogyan teszi tönkre a deepfake pornó a nők és lányok életét?

Rendkívüli riportsorozat, különleges interjúkötet az Orbán-rezsim 16 évéről, háttércikkek és hírmagyarázatok magyarul és szlovákul. A Napunk nagyszabású tervekkel vág neki a jövő évi magyarországi választások kampányának, most van szükségünk a támogatásodra!
Senkinek ne küldjünk magunkról meztelen képet az interneten. A rendőrség felhívja a figyelmet arra, hogy a címzett később zsarolásra használhatja fel a képeket.
Ez a tanács még mindig érvényes, azonban ma már nem biztos, hogy elég ahhoz, hogy az interneten ne akadjunk rá a meztelen fotóinkra. Erre Taylor Swift amerikai énekesnő esete is jó példa, akiről január végén elkezdtek deepfake pornográf képek terjedni az X közösségi oldalon.
A képeket a mesterséges intelligencia hozta létre.
A Denník N Denisa Ballová cikkében is foglalkozott ezzel a témával.
Ebben a cikkben elmagyarázzuk, hogyan működnek az úgynevezett „vetkőztető alkalmazások”, a pszichológus elmagyarázza, milyen hatással van a lányok pszichéjére, ha az interneten meztelen deepfake fotók keringenek róluk.
Elmondjuk továbbá, mikor kell segítséget kérni.

Az áldozatok szinte mindegyike nő
A deepfake technológiát szinte a megalakulásától fogva pornográf tartalom gyártására használják.
Egy 2019-es tanulmány szerint, amelyet a Sensity cég végzett a deepfake videók megfigyelésére, a deepfake képek 96%-a pornó volt. A 99%-uk nőket, illetve lányokat ábrázolt.
2018-tól napjainkig többszáz százalékkal nőtt a mesterséges intelligencia által generált hamis képek száma a deepfake pornóoldalakon.
Ami a deepfake videókat illeti, tavaly csaknem 96 ezer került fel az internetre, ami 2019-től 550%-os növekedést jelent. A deepfake pornó az interneten fellelhető deepfake videók 98%-át alkotja.
Betanítás szöveges képeken
Az úgynevezett vetkőztető alkalmazások 2019-ben kerültek be a köztudatba – kezdetben nem voltak tökéletesek, még ha a hamis meztelen képek elég élethűen néztek is ki, nem mentek ritkaságszámba a hibák.
A deepfake videók mögött álló technológia az utóbbi időben a teljesítmény növekedésével és a generatív mesterséges intelligencia fejlődésével egyaránt tökéletesedett – magyarázza Marián Šimko, a Kempelen Intézet (KInIT) mesterséges intelligencia szakértője.
Ennek eredményei a hiperrealisztikus képek, amelyeket gyakorlatilag nem lehet megkülönböztetni az igaziaktól.
A technológia az úgynevezett „text-to-image” gépi tanulási módszerein alapszik, vagy élősködik. „Ezeket két típusú adattal – szöveggel és képpel tanítják be” – magyarázza Marián Šimko.
A legjobb modelleket akár több százmillió szöveggel ellátott vagy címkézett kép révén állítják elő. Ilyen szöveg lehet például „egy padon ülő nő”. Minél pontosabb a leírás, annál jobban megérti a modell, hogy mi van a képen, és annál jobban meg tudja ragadni annak árnyalatait.
„A generált képek javításának egyik módja a pontosabb betanítás, ami úgy érhető el, hogy a betanító adatbázisból származó képek szöveges leírását egyre részletesebbé tesszük” – mondja Marián Šimko. A szakértő hozzátette, hogy az ilyen leírásokat automatikusan generáló eszközöket már eddig is használtak, méghozzá hatalmas léptékben.
Ha egy modell ilyen adatokkal rendelkezik, akkor „a generálás során ezekből létrehozza a világ belső reprezentációját, vagy vízióját”. A valóságban ezek közönséges számok, amelyeket később vissza tud dekódolni képpé” – mondja Marián Šimko.
A megadott „prompt” vagy a felhasználó parancsai alapján elkészül a kép.
Csupán pár másodperc egy ilyen képet létrehozni
A legismertebb, szöveges parancsok alapján képeket készítő modellek közé a Midjourney vagy a az OpenAI-tól származó DALL-E3 tartozik.
Ide tartozik a Stable Diffusion modell is, amelyet nyílt forráskódú, azaz mindenki számára szabadon hozzáférhető szoftverként fejlesztettek ki. Éppen ez adott teret a visszaéléseknek, mivel rosszindulatú emberek töltötték le a modellt, és úgy módosították, hogy az képes legyen meztelen fotókat generálni.
A Stable Diffusion mellett ebben a kontextusban egy másik open source modellt is emlegetnek, a pix2pixet.
A módosított eszközöket, amelyek a Stable Diffusionből vagy a pix2pix-ből jöttek létre, több száz meztelen nő fotóján tökéletesítették.
Jelenleg számos ilyen modellből lehet válogatni, ebben a cikkben pedig egynek sem fogjuk megemlíteni a nevét.

A vetkőztető alkalmazások fizetős verziói gyorsabban több meztelen képet generálnak. Egy hamis képet csupán pár másodperc létrehozni (összehasonlításképpen, egy deepfake pornográf videó elkészítése 25 percig tart) és bárki megteheti, az alkalmazásba ugyanis elég feltölteni egy képet.
A Stable Diffusion modell alapján működő deepfake fotógenerátorokat számítógépbe is le lehet tölteni, ami nehezíti az elkövetők azonosítását, mert a képeket internetkapcsolat nélkül is elő lehet állítani.
Néhány esetben a vetkőztető alkalmazás csetbotként működik a Telegramos csoportokban.
A legtöbb alkalmazás csak a nők képein működik, írja a Seznam Zprávy. Mi is hasonlót tapasztaltunk, noha ebben az esetben csak egy ilyen alkalmazást teszteltünk.

Egy Telegram-csoportot hibáztatnak
Néhány ilyen alkalmazást üzemeltetője nem szab semmilyen korlátot azok használatára. Mások tiltják a kiskorúakról készült képek feltöltését, de még ebben az esetben is csak egy látszatintézkedésről van szó.
A „vetkőztető” csetbot üzemeltetője bagatellizálta a technológia negatív hatását, amikor 2020-ban szembesítette ezzel a Sensity cég. „Minden, amit használunk, szabadon hozzáférhető. Ha úgy dönt, hogy ezt a szórakoztató alkalmazást önző célokra használja fel, akkor vállalnia kell a felelősséget a tetteiért” – reagált a névtelen alkotó a Wired oldalán.
A 404 Media értesülései szerint Taylor Swift deepfake képei egy Telegram-csoportból származtak, amely az ilyen tartalmak gyártására általában a Microsoft Designer eszközt használja.
A Microsoft időközben bevezetett egy biztosítékot, hogy meggátolja a fake pornográf képek készítését. Az elmúlt időszakban több más cég is tett ehhez hasonló lépéseket, beleértve a Stability AI céget is, amely a Stable Diffusion modellt fejleszti.
A kritikusok szerint azonban ezek az intézkedések nem teljesen biztonságosak, és néhány esetben sikerült megkerülni őket. A Stable Diffusion esetében pedig az is elmondható, hogy a régi modellek még mindig elérhetőek, amelyekben nincs meg ez a biztosíték.
„Anya, olyan fotók kötöznek rólam, amelyeken melltartó nélkül vagyok”
A deepfake pornó áldozatául nemcsak felnőttek esnek, hanem gyerekek és fiatalok is. Például 2024 januárjában az X-en deepfake pornográf fotók terjedtek Xochitl Gomez 17 éves színésznőről.
A tinédzser azt mondta, hogy a közösségi oldal nem tett eleget a kérésének, hogy törölje le a képeket. „Kérem, távolítsák el őket” – kérte Gomez a The Squeeze podcastban. „Nekem ehhez semmi közöm, mégis az én arcom van rajta.”
Tavaly a délnyugat-spanyolországi Almendralejo városában hatalmas mértékben kezdtek el terjedni deepfake pornográf tartalmak lányokról. Csaknem 30 áldozat a 11–17 éves korúak közül került ki.
„Az egyik nap ezzel jött haza a lányom az iskolából: »Anya, olyan fotók keringenek rólam az interneten, amelyeken melltartó nélkül vagyok«” – mondta María Blanco Rayo, egy 14 éves lány anyja.
„Megkérdeztem tőle, hogy lefényképezte-e magát meztelenül, erre ezt mondta: »Nem anya, ezek hamis képek lányokról. Ezeket mások készítik, és az osztályomban vannak olyan lányok, akikről szintén készítettek ilyen képeket«.”
Az információk alapján a rendőrség tavaly legalább 11 olyan helyi fiút azonosított be, akik részt vettek a képek készítésében vagy terjesztésében a WhatsAppon és a Telegramon.
Az elkövetők 12–14 évesek voltak.
Az összes deepfake képet felöltözött lányok kepeiből alkották meg, sok közülük a közösségi oldalakra feltöltött képekből származott. A deepfake képek az áldozatok beleegyezése nélkül jöttek létre.
„A szülők két dologtól félnek – ha fiunk van, akkor attól, hogy csinálhat valami hasonlót, és ha lányunk van, akkor még jobban félünk, mert ez egy erőszakos cselekedet” – idézi a BBC Gema Lorenzet, egy 16 éves fiú és egy 12 éves lány anyját a spanyolországi Almendralejából.
Az áldozatoknak szorongást és depressziót okoz
A deepfake pornográf tartalom már Szlovákiában is megjelent, mondja Zuzana Juráneková speciális pedagógus. „Találkoztunk olyan esetekkel, amikor egy fiatal nem akart képet küldeni egy groomernek – online ragadozó, aki bizalmas kapcsolatot létesít fiatalokkal azért, hogy kielégítse a szexuális vágyait – aki aztán deepfake fotókat hozott létre, hogy megfenyegesse, zsarolja és a sarokba szorítsa a fiatalt“ – teszi hozzá Juráneková.
A szakértő szerint sok ilyen bűncselekmény nem derül ki, mert az áldozat nem mindig keres segítséget.
Ha egy valós képpel élnek vissza, akkor a nő vagy a lány gyakran saját magát érzi hibásnak, hogy egy olyan embernek küldte el a képet, akiben megbízott, de az elárulta őt, mondja Juráneková. „A mesterséges intelligencia vagy a photoshop által készített képeknél nem ez a helyzet, mert ezeket a képeket bárki létrehozhatja, nem muszáj, hogy ismerjen bennünket. Ilyenkor csak még nagyobb sokkhatás, pánik és stressz ér, amikor rájövünk, hogy valaki egy ilyen képet készített rólunk.”
A digitális visszaélés áldozatai szorongást, depressziót, poszttraumás stressz szindrómát élnek át, de ugyanígy megváltoznak az alvási és étkezési szokásaik, elkezdenek szociálisan elszigetelődni, öngyilkossági gondolatok jelennek meg náluk, vagy el is jutnak az öngyilkosság-kísérletig, ha nincs mögöttük egy támogató közeg és ha nem kapnak segítséget.
„A képeken és a videókban szereplő nők úgy érzik, hogy szexuálisan kihasználták és megszégyenítették őket. »Mocskosnak« érzik magukat. Nem értik, mi történt velük és sokszor attól is félnek, hogy az emberek elhiszik, hogy egy igazi képről van szó, és nem fognak hinni nekik, hogy ez fake, és hogy egy ilyen »új típusú« szexuális erőszak áldozataivá váltak“ – teszi hozzá Juráneková.
Elmondása szerint az ilyen visszaélés az áldozat testi egészségére is kihatással van, és az egész család megszenvedi.
Még abban az esetben is, amikor a fake képek nem tűnnek nagyon realisztikusnak, „ahhoz elegek, hogy az embernek visszafordíthatatlan károkat okozzanak“- mesélte a The Guardiannek Noelle Martin, a fake pornó egyik áldozata. Elmondása alapján a fake pornó az élete minden területére kihat, a munkájától kezdve a kapcsolatokig. Martin szerint a visszaélés ezen formája maradandó következményeket okozott nála és még az állásinterjúkon is vissza kell térnie rá. „Ez egy olyan dolog, amiről ez embernek már az első randin beszélnie kell. Ez hatással van az élet összes területére“ – teszi hozzá.
Milyen hatással vannak az interneten keringő deepfake meztelen fotók a lányok és a nők pszichéjére?
Válaszol Zuzana Juráneková speciális pedagógus az IPčko polgári társulásból, amely segélyvonalat üzemeltet fiatalok számára – IPčko.sk.
A deepfake képek és pornó megmutatják az egész társadalomnak, mi történhet a „sima“ képünkkel. Ez kelthet félelmet, aggodalmat és stresszt is, valamint bizalmatlanságot a rendszer felé, amelynek meg kellene védenie minket.
A deepfake fotókon és videókon szereplő emberek esetében természetesen a mentális és fizikai egészségre – de a családi, munkahelyi és társadalmi életre is – gyakorolt hatások óriásiak. Fogalmuk sincs, hová, hogyan és hol kerül a fotójuk vagy videójuk, és mi történik vele, mert elveszítenek fölötte minden kontrollt.
Amikor egy pornóoldalon találjuk magunkat, elkezdenek bennünk kavarogni az érzések, és nem múlnak el maguktól. Valóban szükség van segítségre és támogatásra. Amit az áldozatok azonnal szeretnének, az az, hogy a kép eltűnjön, de ez nem megy könnyen. Rengeteg energiát igényel az írás, az információkeresés, a segítség, és ez kimerítő és demotiváló is lehet. A felfedezés utáni első pillanatokban többnyire egyedül vagy valakivel, akiben igazán megbíznak, próbálják feldolgozni a dolgot. Félnek attól, hogy elítélik őket, és attól, hogy a környezetük nem fog hinni nekik.
A legnagyobb veszélynek a tinédzserek vannak kitéve. Éppen ebben a korban van szükségük leginkább a segítségre és a legkevésbé keresik ezt a felnőtteknél. Ebben a korban még nem elég fejlett az agynak az a része, amely a döntéshozatalért és szabályozásért „felelős”, és nincs elég élettapasztalatuk, ezért gyakran radikálisan, szélsőségesen, impulzívan, meggondolatlanul és kockázatvállalóan cselekszenek. Nincsenek tapasztalataik a nehéz helyzetek kezelésében, mert gyermekkorukban a számukra biztonságot jelentő felnőttek segítettek nekik megbirkózni velük. Tizenéves korukban azonban megpróbálják egyedül kezelni ezeket a helyzeteket, annak ellenére, hogy nem rendelkeznek az ehhez szükséges készségekkel.
Legyünk akár fiatalok vagy felnőttek, ha a deepfake képek és pornó áldozataivá válunk, ne zárkózzunk magunkba az érzéseinkkel. Kérjünk segítséget a szeretteinktől, a szakértőktől vagy a rendőrségtől.
Ha úgy érezzük, hogy a környezetünkben nincs senki, aki segíthetne és akiben megbízunk, forduljunk a névtelen, ingyenes és non-stop elérhető segélyvonalakhoz – Krízová linka pomoci 0800 500 333, www.ipcko.sk a www.stalosato.sk.
Megalázzák a nőket
A legveszélyeztetettebbek a tinédzserkorú fiatalok. „A fejlődéspszichológia szempontjából egy nehéz életszakaszban vannak, amelyet számos változás, fejlődési feladat és szükséglet kísér, de nekik még nincs elegendő élettapasztalatuk ahhoz, hogy megbirkózzanak a nehéz helyzetekkel. Ezért is van az, hogy gyakran hajlamosak szélsőséges, radikális vagy akár visszafordíthatatlan megoldásokhoz nyúlni” – magyarázza Juráneková.
Laura Bates, a Men Who Hate Women (Férfiak, akik gyűlölik a nőket) című könyv szerzője a Guardiannek azt nyilatkozta, hogy a deepfake pornográf anyagokat általában soviniszta szóhasználat kíséri, és leginkább a szélsőséges nőgyűlölő közösségekben terjed.
Zuzana Juráneková szerint nem lehet általánosítani, hogy a deepfake pornó csak nők iránti gyűlölet megnyilvánulása lenne, „de vannak olyan férfiak, akik a pornón keresztül fejezik ki a tiszteletlenségüket és gyűlöletüket a nők iránt.”
„A deepfake pornó jelensége egy nagyon veszélyes üzenetet hordoz, mégpedig azt, hogy a nők megalázásához, legyen szó szexuálisról vagy társadalmiról, nincs szükségünk beleegyezéshez és minimális erőfeszítéssel is árthatunk nekik, mert megteszi helyettünk a mesterséges intelligencia” – teszi hozzá Juráneková.
A deepfake pornókat nemcsak a pornóoldalakra töltik fel, máshol is terjed – például a közösségi oldalakon, főleg a szabályozatlan Telegramon.
Hogyan lehet védekezni
Tomáš Kamenec jogász a Paul Q ügyvédi iroda munkatársa elmondja, hogy ha valakiről deepfake pornográf anyag terjed, akkor az áldozatnak feljelentést kellene tennie és meg kell kérnie a közösségi oldalt arra, hogy törölje a képet a közösségi szabályok megsértése miatt, illetve indítványt is benyújthat a Médiaszolgáltatások Tanácsánál.
Kamenec szerint az ilyen típusú tartalmakra a Büntető törvénykönyv 375. paragrafusának „Más jogainak megsértése” szakaszának kellene vonatkoznia. „A technológia azonban olyan gyorsan fejlődik, hogy megelőzi a törvényt, és a Büntető törvénykönyv nem tud rá kellően reagálni” – teszi hozzá Kamenec.
Ahogy a Denník N már beszámolt róla, az Európai Unió elfogadott olyan előírásokat, amelyek a deepfake tartalmakra is kitérnek. A digitális szolgáltatásokról szóló törvény (DSA) előírja, hogy az online platformoknak intézkedéseket kell hozniuk, hogy csökkentsék a kockázatát a magánélethez fűződő, jogsértő, hamis pornó jellegű tartalmak megjelenítését, illetve az olyan képek vagy más tartalmak terjesztését, amelyekhez az érintett személyek nem adták a hozzájárulásukat.
Egy másik, mesterséges intelligenciát illető törvény (Artificial Intelligence Act) 2021 óta vár jóváhagyásra az EU 27 tagállama által. Ha elfogadják, akkor azokat a cégeket, amelyek deepfake tartalmakat gyártanak, kötelezik arra, hogy tájékoztassák a felhasználókat arról, hogy a tartalom kreált vagy manipulált.
Marián Šimko mesterséges intelligencia szakértő azt mondta, hogy az unióban nálunk valamivel jobb a helyzet, mint a világ más részein, mivel az unióban kiemelt figyelmet fordítanak az állampolgárok védelmére a deepfake tartalmakkal szemben.
Erőszak a virtuális valóságban
A mesterséges technológia egy olyan technológia, mint bármelyik más és így egyesek jó, míg mások rossz szándékkal nyúlnak hozzá, magyarázza Šimko.
„Gondoljunk csak a dezinformációkra – amíg az egyik oldalon a nagy nyelvi modellek megkönnyítik az életünket, a másik oldalon vissza lehet élni velük a célzott hazugságok terjesztésére” – teszi hozzá a Kempelen Intézet tudósa.
Šimko elmondása szerint fokozatosan kiépítünk egy olyan intuíciót, amelynek alapján meg fogjuk kérdőjelezni az általunk látott képek és videók valódiságát.
A mesterséges intelligencia szakértő azonban elismeri, hogy ha elkezdenek gyerekekről vagy más veszélyeztetett csoportokról deepfake videókat gyártani, akkor egy olyan nagy problémával fogunk szemben állni, amelyre nincs egyértelmű megoldás. Segíthetnek a szabályozások, „de azok sem fognak százszázalékosan működik, mert a társadalmunkra jellemző az ártani akarás és ehhez megtaláljuk az összes kiskaput.”
A deepfake pornó mellett egy másik probléma is kialakulóban van, amit a virtuális valóság jelent. Nagy-Britanniában már nyomoznak az első, virtuális világban elkövetett csoportos erőszakok ügyében. „A következményei ugyanazok, mint a való életben elkövetett erőszaknál” – magyarázza Zuzana Juráneková.
A becslések szerint a gyerekek új generációja életük megközelítőleg 10 évét tölti majd a virtuális világban, ami csaknem napi három órát jelent.
Az új technológiák negatív következményeire új jogszabályokkal és oktatással kell reagálni, mondja Zuzana Juráneková, noha elismeri, hogy ez nehéz lesz, mert a „fake két lépéssel előttünk jár”.
„Az, amit mindannyian megtehetünk az, hogy elimináljuk vagy teljesen felhagyunk a képek megosztásával a nem védett fiókokon, maximálisan óvatosak leszünk a képeink közzétételénél és állandóan frissítjük a biztonsági beállításokat és az adatvédelmet a fiókjainkban és az eszközeinken” – teszi hozzá Juráneková.
Hogyan viselkedjünk a közösségi oldalakon, hogy ne essünk a deepfake áldozatává?
Zuzana Juráneková speciális pedagógus tanácsai
- Az, hogy emlékeztetjük magunkat és utána olvasunk annak, miért nem kellene közzétennünk és másoknak küldözgetnünk az intim fotóinkat, természetes, de a deepfake valami teljesen más dolog, mivel még a diplomaosztón készült képeinken is levetkőztethetnek. Az áldozatokat nem védik kellően. A külföldi szakértők azt mondják, hogy az új jogszabály mellett szükség van arra, hogy az emberek jobb tájékoztatást kapjanak a technológiákról és ki kell fejleszteni egy mechanizmust az olyan eszközök terjedése ellen, amelyeknek ilyen hatásaik vannak az emberi életekre.
- Az, amit mindannyian megtehetünk az, hogy elimináljuk vagy teljesen felhagyunk a képek megosztásával a nem védett fiókokon, maximálisan óvatosak leszünk a képeink közzétételénél és állandóan frissítjük a biztonsági beállításokat és az adatvédelmet a fiókjainkban és az eszközeinken. Használhatunk VPN-t is, amely segít az online anonimitásunk megőrzésében – mégha teljesen nem védi is meg a képeinket és a videóinkat, meggátolja a hekkereket abban, hogy hozzáférjenek a böngészési előzményeinkhez vagy hogy felfedjék az internetkapcsolatunkat.
- Beszéljünk a szeretteinkkel és a gyerekeinkkel erről a veszélyről, arról, hogyan lehet ellene védekezni és főleg arról, hogy fordulhatnak hozzánk támaszért, ha valami ilyesmi történne.
- Ha egy ilyen fotót találunk, jelentsük az adott platformnak, készítsünk képernyőképet bizonyítékként, forduljunk a rendőrséghez és kérjünk jogi segítséget is. Semmiképpen sem maradjunk ezzel egyedül és keressünk szaksegítséget.
Filip Orsolya fordítása



























