nlc.hu
Trend
Deepfake jelentése és veszélyei

„Stay Woke, Bitches!” A deepfake már a kamrában, na de mit kezdjünk vele?

A deepfake valósága köztünk van, a chipes vakcina álhíre pedig elbújhat amellett, amire képes.

„Stay Woke, Bitches!” – Obama mondta, holott ő ilyet sosem ejtett ki a száján, legalábbis abban a videóban biztosan nem, aminek 36. másodpercéig a nézők többsége esküdni mert volna, hogy az ex-amerikai elnököt látja beszélni. A deepfake a közösségi média legújabb ótvara, aminek lélekromboló hatásairól sanszos, hogy hamarosan önsegítő könyvek és TED-előadások tucatjait készítik majd el, mégis, tömegszinten még inkább csak legyintünk rá. Hisz mit árthat, ha kicseréljük Beyoncé arcát a miénkre egy kliprészletben, és azon vidámkodunk, hogy mi énekeljük a „Halo”-t? Ez a nüansz nyilván semmit. A deepfake videók azonban olyanok, mint maga az internet: nagyon hasznos és borzasztó ártalmas dolgokra is használhatók, és mivel jelenleg szinte semmi gátja ez utóbbinak, meg is történik.

Mielőtt e nem túl vidám bevezető bárkinek is cikkolvasási kedvét szegné, elárulom, nem fontoskodó károgásról lesz szó, hanem a téma három hazai szakértőjének véleményéről és a hétköznapokban is használható tanácsairól afelől, miként védhetjük meg magunkat és gyerekeinket a deepfake-kel szemben. Forgács Mariann Be Social társalapító, közösségimédia-specialista, Dr. Veszelszki Ágnes nyelvész, kommunikációkutató, a Corvinus Egyetem tanszékvezető egyetemi docense, az egyetem CGI-Deepfake Kutatócsoportjának vezetője, és Mezriczky Marcell, a Corvinus Egyetem mesterszakos hallgatója, az egyetem CGI-Deepfake Kutatócsoportjának tagja.

Deepfake szakértők: Forgács Mariann, Dr. Veszelszky Ágnes, Mezriczky Marcell

Deepfake szakértők: Forgács Mariann, Dr. Veszelszki Ágnes, Mezriczky Marcell

A deepfake veszélyei

A deepfake videó, ahogy Mezriczky Marcell megfogalmazza, nem más, mint  

A mesterséges intelligencia által létrehozott olyan mozgóképes tartalom, amelyben a tartalom eredeti szereplőjének képmását és/vagy hangját egy tőle idegen személy képmásával és/vagy hangjával helyettesítik, valamely kívánt hatás elérése érdekében.

Mindennek veszélye pedig abban áll, hogy míg egy photoshopolt fotót vagy CGI-videót emberek szerkesztenek, ami minimum némi szaktudást és megfelelő hardveres és szoftveres felszereltséget igényel, addig a deepfake videók elkészítésével egy átlagos tini egy átlagosnál picit jobb otthoni számítógép segítségével megbirkózik, tekintve, hogy konkrét videószerkesztésről és profi programozásról nincs is szó, ezeket elvégzi helyette a mesterséges intelligencia. 

Van a veszélyességének egy másik vetülete is. „Nemcsak a szemünkre hat, mint egy photoshopolt felvétel, hanem a szemünkre és fülünkre egyaránt, ezért sokkal megtévesztőbb tud lenni – mondja Dr. Veszelszki Ágnes. – Ahhoz már hozzászoktunk, vagy legalábbis elfogadtuk, hogy retusált, filterekkel módosított fotókkal találkozunk, mint ahogyan azt is, hogy vannak vágott videók, és tudjuk, a videók vágásával befolyásolni lehet azok tartalmát. Mi több, az is egyre ismertebb tény, hogy léteznek hangklónozó programok, köztük olyanok, amelyek néhány másodperces hangrészlet alapján képesek olyan szöveget generálni, amit az illető soha nem mondott, de az ő hangján hallatszik. Ezekről tehát már tudunk, arra azonban, hogy egy alkalmazásban mindez együttesen működjön, nem vagyunk felkészülve. Ez az a pont, ahol a deepfake nagyon nagy változást jelent.” 

Mindez pedig nem a hackerek hóbortja, gyorsan, egyszerűen, pár ezer forintért érhetőek el online alkalmazások, melyekkel lejárató videók, bosszúpornó készíthetők – mi több, egy 2019-es felmérés szerint a deepfake videók 96 százaléka pornó, amik kivétel nélkül mind nők ellen irányulnak! Soha ki nem mondott szavakat adhatunk mások szájába, ami zsarolás és zaklatás eszköze lehet, mocskos politikai fegyver, az összeesküvés-elmélet gyártók számára pedig maga a Kánaán, amit a lehetőség magában rejt. És mint tudjuk, az álhírek hatszor gyorsabban terjednek, mint a valódiak, ily módon pedig máris tömegbefolyásoló eszközről, politikai csatározásokat befolyásolni képes alkalmazásról beszélhetünk.

A deepfake egyébként nem új dolog, magát a szót még 2017-ben egy Reddit-felhasználó alkotta meg, egy évvel később pedig az első ingyenes alkalmazás, a FakeApp is megjelent, amit azóta már számtalan további követett. Úgy tűnik azonban, most egy újabb hullámhoz érkeztünk, ami még inkább az életünkbe sodorja a deepfake lehetőségeit. Ezt erősíti meg a Corvinus Egyetem kutatócsoportja által jelenleg zajló online kutatás, aminek előzetes összesítéséből is látszik, sokan ismerik és használják. Más kérdés, mennyien ismerik fel őket: a felmérésben fotókról és videókról kell eldönteni, hogy digitálisan módosították-e azokat, az eddig beérkezett bő tízezer válasz alapján az átlagos felismerési arány 55-60 százalék körüli. Mindeközben a deepfake tartalmak száma exponenciálisan nő, 2020 januárja és júniusa között számuk megduplázódott, (24263-ról 49081-re emelkedett), vagyis

alig fél év alatt több deepfake tartalom jött létre, mint a megelőző években összesen.

És ez csak azoknak a száma, amiket ki tudtak szűrni. 

Mi lesz így a gyerekekkel?

„A fiatalok viszonylag médiatudatosak, ám életkorukból adódóan előfordulhat a neten is meggondolatlan viselkedés, tapasztalatok híján nincsenek rá felkészülve, mennyi módon bánthatják őket a virtuális térben, de alapvetően velük foglalkozunk a legtöbbet, így végső soron tudnak a veszélyről – mondja Dr. Veszelszki Ágnes. – A középkorú és idősebb generáció azonban ahhoz szokott hozzá, hogy amit a tévében, rádióban hall, nyomtatott sajtóban olvas, az igaz, és ezt gondolják az interneten elérhető információkra is. Holott ez nagyon nincs így. Őket nem készíti fel a deepfake terjedésére senki. Gondoljunk csak az unokázós csalókra. Minden esély megvan rá, hogy az ilyen jellegű csalásokhoz fel fogják használni a deepfake technológiát. Ha valakinek lelopják mondjuk a közösségimédia-oldaláról a profilképét, a fotóit, és azzal csinálnak egy deepfake videót, amihez valahogyan a hangját is megszerzik, akkor látszólag az unoka tud majd megszólalni a videóban, pénzt kérni a nagymamától.”

A médiatudatosság hiányának problémája tehát nem csak a fiatalokat vagy csak az időseket érinti, a csoportok hatnak egymásra. „A fiatalok gyakran azért nem kapnak kellő tájékoztatást a szüleiktől vagy tanáraiktól, mert ők sincsenek tisztában annak valós veszélyeivel – mondja Forgács Mariann. – Felméréseinkből kitűnik, a lányok sokkal aktívabbak online, mint a fiúk, folyamatosan jelen vannak az online térben, amit az online oktatás is felerősített, és nincs semmi ami megvédené őket a negatív hatásoktól. Hiába csak szórakozásból montírozzák egy sztár fejére az arcukat, ha nem kapnak kellő tájékoztatást a témában, nem biztos, hogy eszükbe jut, egy ártó deepfake videó is ugyanígy elkészülhet szimplán az általuk megosztott közösségi médiás fotóik segítségével.”

Pár napja hatalmas port kavart annak az amerikai anyának az ügye, aki azért, mert lányát kiközösítették az iskolai pompomcsapatban, megalázó deepfake videót és hamis fotókat készített a csapattársakról. Ehhez a lányok közösségi médiás fotóit lopta le, majd szerkesztette át őket, hogy elhitesse, a lányok meztelenül buliznak, isznak, drogoznak. A videót és a fotókat nemcsak az érintett gyerekeknek küldte el fenyegető, öngyilkosságra buzdító szövegek kíséretében, de az iskola vezetőségének is eljuttatta őket, bízva benne, hogy bedőlnek nekik, és így kirúgják a csapatból a lányokat. Ebben az esetben ugyan kiderült, ki volt az elkövető, a nőt letartóztatták, az okozott lelki sebek, a megrázkódtatás, amit tette okozott, azonban nyilvánvalóan nem múlik el tőle.   

Minden korosztálynak kell és érdemes tehát felvérteznie magát a deepfake ellen, a millió dolláros kérdés azonban, hogy hogyan tegyük mindezt? 

Hogyan védjük magunkat olyan videók ellen, amiket dollármilliókból fejlesztett szoftverek sem képesek kiszűrni?

Csak hogy a legnagyobb vállalatokat említsem, a Microsoft, a Facebook és a Google is komoly összegeket fordít deepfake szűrők fejlesztésére, mégis nagyon úgy tűnik, a „sötét oldal” egy-két lépéssel mindig előttük jár. Igaz, ezek gépek és szoftverek, nekünk pedig ott van a „józan paraszti ész” és a médiatudatosság. Míg előbbi ránk ragad, utóbbit tanulnunk és tanítanunk kell gyerekeinknek is, mert segítségével észrevehetjük a gyanús jeleket.

Mezriczky Marcell szerint egy videó esetén mindenképp gyanakvásra adhat okot, ha

  • a tekintet úgyszólván „üres”, élettelen. A szemmozgások és a pislogás a legárulkodóbb, előbbi esetén gyakran nem lehet eldönteni, hová néz az illető, utóbbinál van, amikor egyáltalán nincs pislogás, máskor furcsa rendszerességű.
  • túl steril, túl tökéletes az arcbőr, mintha szépítő filtert raktak volna az illető arcára.
  • a szájmozgás nincs összhangban a hanggal.
  • az emberábrázolás kontúrjai furcsán pixelesek.

De ne feledjük, ha mi ismerjük ezt a listát, a deepfake alkalmazások fejlesztői is tisztában vannak a pontatlanságokkal, és nyilvánvalóan dolgoznak a javításukon, mint ahogyan azon is, hogy a deepfake-szűrő programokat minél jobban megkerüljék. Ami tegnap még árulkodó jel volt, könnyen lehet, holnapra már a videó leghitelesebbnek tűnő része lesz.

Hol van ilyenkor a törvény szigora?

Nagyjából sehol. Nagyban függ az intézkedések szigora és módja attól, hogy milyen az adott állam berendezkedése. A tartalmak pedig nem ismernek határokat, mindegy nekik, melyik földrészen töltötték fel a netre, ha készítője akarja, pillanatokon belül eljuthat bárkihez. 

„Amikor a Gazdasági és Versenyhivatalnak 2017-ben megjelent az influenszerekkel kapcsolatos állásfoglalása, mindenki azt mondta, gyorsan reagáltak, holott már évek óta reklámoztak az influenszerek az oldalaikon, mindenféle szabályozás nélkül – mondja Dr. Veszelszki Ágnes. – Gondoljunk bele, milyen gyorsan reagálhatnak hasonló esetekben a törvényhozók. Mire belefoglalnak valamit a jogszabályokba, addigra az a technológia már elavult lesz és jön valami új.”

Adatkezelési kitérő

Egy-egy ilyen alkalmazás használata esetén nem hogy komplett mobilos fotótárunk eléréséhez adunk hozzáférést, de önként töltjük fel személyes fotóinkat, akár egyszerre többet is. De azt tudjuk, kinek adjuk oda őket? És van bármi reális lehetőségünk arra, hogy utánkövessük, mit tesznek a fotóinkkal, miután megszerezték azokat? Nyilvánvalóan nincs. Privacy paradoxon a köbön, hogy egyik oldalon GDPR-nyilatkozatokkal vértezzük fel magunkat, a másikon pedig gondolkodás nélkül okézzuk le akármilyen applikáció mobilhozzáférési engedélykéréseit.

Akkor tűzbe vele?

Nem. Az internetet is nagy baj lenne lekapcsolni. A paródiavideók, a vicces tartalmak alapvetően ártatlan dolgok, de még a Deep Nostalgia is jóindulattal csak nosztalgikus érzéseket kelthet bennük, vagy segítheti a gyászfeldolgozást azáltal, hogy elhunyt szerettünk arcképét teszi mozgóvá. Mellettük több terület is van, ahol kimondottan hasznos lehet a technológia. Az oktatásban például ragyogóan ki lehetne használni, gondoljunk csak bele, mennyivel érdekesebb lenne, ha Petőfi mondaná el történelemórán a 12 pontot, Napóleon mesélne a háborúskodásairól, vagy fizikaórán a relativitáselméletet egyenesen Einstein próbálná elmagyarázni a tanulóknak.

Ugyanígy a filmipar is számtalan módon tudja használni a technológiát, amivel például költséghatékonyabb lehet a forgatás, megfiatalítható vagy öregíthető egy színész megjelenése, vagy ne adja ég, egy színész váratlan halála esetén van lehetőség a hiányzó felvételeket elkészíteni. A reklámipar is kamatoztathatná a technológiát, például elég lenne régiónként egy-egy reklámfilmet forgatni, és abban deepfake-kel csak az arcokat és így a beszédet az adott országhoz igazítani.

Mezriczky Marcell mindehhez hozzátette, „a bűnüldözésben szintén pozitívan használhatják a deepfake-et, hiszen  ha arra gondolunk, hogy az algoritmus a betáplált adatok alapján milyen hitelességgel tud arcot reprodukálni, akkor a fantomképkészítésben nagy jövője van.”

Mi lehet mindezek alapján a konklúzió? Talán az, amit a szakértők sem győztek hangsúlyozni: ésszel, tudatosan kell használni az internetet, a közösségi médiát és a deepfake alkalmazásokat is, és erre megtanítani a gyerekeket is. Eltiltani tőlük tiniként már értelmetlen, hosszú távon sokkal hasznosabb, ha inkább megtanulják tudatosan fogyasztani ezeket a tartalmakat és mellette morális szempontból is átgondolják, online tetteiknek milyen következményei lehetnek. Mi pedig felnőttként ne rácsodálkozzunk ezekre a dolgokra, hanem legyünk képben, legyünk naprakészek, mert egy szép napon mi lehetünk a nagymamák, akiknek videót küld az unokázós csaló.

Közösségi média, egyéni gondok

Ha kommentelni, beszélgetni, vitatkozni szeretnél, vagy csak megosztanád a véleményedet másokkal, az nlc Facebook-oldalán teheted meg.

Címlap

top