Egyéni és társadalmi kockázata is van a deepfake-nek!

Neon light

    A Nemzeti Média- és Hírközlési Hatóság (NMHH) a pénteki közleményében a deepfake-jelenség társadalmi kockázatára hívja fel a figyelmet: elemzésük szerint egyéni és társadalmi kockázata is van a mesterséges intelligencia által előállított hamis arcmásnak.

    Az NMHH kommunikációs igazgatósága azt közölte az MTI-vel, hogy a deepfake olyan, a hitelességét tekintve rendkívül meggyőző videó, amelyben általában emberek arcát felhasználva hamis képmásokat mutatnak be, melyeket mesterséges intelligencia felhasználásával állítottak elő.


    Megjegyezték, hogy a fényképek retusálása, azaz technikai értelemben vett meghamisítása nem újkeletű gyakorlat, azonban a mesterséges intelligencia nemcsak a képek megváltoztatását, hanem azok létrehozását is lehetővé teszi.


    A deepfake-jelenség 2017-ben indult hódító útjára a Reddit fórumon, ahol az egyik felhasználó egy pornószínésznő arcát egy híres színésznőével helyettesítette – idézték fel.


    A videót követően számos hasonló hamisítvány látott napvilágot, és 2018 végére már szinte általánossá vált – írták.


    Úgy folytatták, hogy ma már bárki tud jobb vagy rosszabb minőségben, különösebb utánajárás és technikai ismeret nélkül is deepfake tartalmakat készíteni.


    Az internetfelhasználók főként pornográfia hamisítására és mémek készítésére használták – tették hozzá.


    A kifejezetten félrevezető céllal megalkotott, úgynevezett megtévesztő deepfake víziója is hamar megszületett: az effajta tartalom hosszú ideig csak fikcióként élt a köztudatban.


    Az elméleti lehetőség azóta valósággá vált, erről árulkodik az a 2022 júniusában történt magyarországi eset is, amely Budapest főpolgármesterhez, Karácsony Gergelyhez, valamint Kijev polgármesterhez, Vitalij Klicskóhoz kapcsolódott, pontosabban egy ál-Klicskóhoz, ugyanis – mint később kiderült – a budapesti főpolgármester a videóbeszélgetés során nem a hivatalban lévő ukrán városvezetővel folytatott beszélgetést – olvasható a közleményben.


    Karácsony és a hivatal dolgozói sokáig nem észlelték, hogy hamisítvánnyal van dolguk, mivel a deepfake Klicsko a háborút és a menekültválságot érintően releváns kérdéseket tett fel – fűzték hozzá, azzal együtt, hogy utólag kiderült, az ál-Klicsko korábban Madrid, Berlin és Bécs polgármestereivel is kezdeményezett videóhívásokat.


    Nagy port kavart az a 2019-es eset is, amikor egy brit energiavállalat vezérigazgatójának hangját deepfake technológia segítségével reprodukálták, és a cég ügyvezető igazgatóját 200 ezer euró átutalására kérték fel egy állítólagos magyar beszállító javára. Mire az átverést felfedezték, a pénz, ami magyarországi, valamint mexikói számlákon mozgott, már szétszóródott a világban.


    A közleményben azt írták, hogy a tapasztalatok szerint a hamisítványt legkönnyebben az apró részleteken keresztül tudjuk leleplezni.


    Léteznek ugyanis a deepfake-re jellemző tipikus hibák, melyek általános ismertetőjegyei az ilyen jellegű hamisítványoknak.


    Ha odafigyelünk ezekre, egy idő után már könnyebben felfedezhetjük, hogy nem egy valódi személyt látunk a felvételeken.


    Azt tanácsolták, hogy az első és legfontosabb, hogy jól szemügyre vegyük a képen vagy videófelvételen látható arcot, a pórusokat, a homlokot, kiváltképpen a haj és a nyak vonalát, hiszen számos esetben a hamisítvány már az illesztési pontokat követve leleplezhető.


    Bár a jelenlegi algoritmusok nagyon precízek, árulkodó nyom lehet, ha rendellenességet tapasztalunk a száj és a szemöldök mozgását figyelve – hívták fel a figyelmet.


    A törvényi rendelkezések a deepfake létrejöttét elősegítő technológiát nem, de a felhasználásának módját már szabályozzák – jelezték.


    Közölték azt is, hogy a deepfake algoritmussal létrehozott tartalmak viszonylag új jelenségnek számítanak, de a szakértők már felhívták a figyelmet arra, hogy milyen kockázatokat is jelenthetnek az egyénekre, szervezetekre vagy akár országok kormányaira nézve.


    Hangsúlyozták, hogy senki sincs biztonságban a deepfake-tartalmaktól.


    Egyes országokban már léteznek kifejezetten az ilyen tartalmakkal való visszaélések ellen létrehozott büntető szankciók, ugyanakkor a legtöbb helyen, ahogy hazánkban is, a jogi háttér még nem biztosított.


    A deepfake-technológia által generált kép- és hanganyag jogszerű használata nagyszerű üzleti lehetőségeket kínál, valamint számos új kaput nyit ki a marketing, a televízió és a mozi számára szerte a világon.


    A technológia önmagában ártalmatlan és a konstruktív felhasználása nemcsak a különböző cégek és vállalatok érdekeit szolgálja, hanem jelentős társadalmi együtthatója révén, nagy hatással lehet az emberek életére – áll az NMHH elemzésében.