BEVEZETÉS
Az úgynevezett DeepFake technika 2018 elején nyert nagyobb nyilvánosságot [1], mikor több nemzetközileg ismert hírességről és politikusról terjedtek el hamisított videók [2]. Ennek egyik jelentős hatást elérő példája az a videó [3], amelyben Barack Obama, volt USA-elnök látható és hallható, amint (többek között) azt mondja: „Elérkeztünk egy korszakba, amelyben ellenségeink bárkivel kapcsolatban elérhetik, hogy úgy tűnjön, valamikor valaki olyat mondott, amit egyébként ő maga soha nem mondana”.
Mint ahogy az a videóban felfedésre is kerül, a beszédet nem a korábbi egyesült államokbeli elnök adta, csupán az ő arcképmását használta fel Jordan Peele amerikai színész. Az artikuláció, mimika és gesztikuláció mind a színésztől származott, azonban ezek Obama arcán jelentek meg. Ezzel a részben felvett, részben generált tartalommal a színész a hírek valódiságának fontosságára, a hamisítás új korszakára, és annak veszélyeire hívta fel a figyelmet, kihasználva a médiában való ismertségét [4].
Általánosságban elmondható, egyúttal tanulmányokkal bizonyított [5][6][7], hogy a mesterséges intelligenciában rejlő lehetőségeket kiaknázva egyszerűen készíthetők a valódi szereplőkhöz megszólalásig hasonlító hamisítványok, nem csupán állóképek, hanem videó- és hanganyagok [8][9] formájában is – ezeket összefoglaló néven DeepFake-tartalomnak nevezik [5].
A videó- és hangszerkesztő programok legújabb fejlesztései, a mesterséges intelligencia bizonyos területeinek látványos fejlődése, továbbá a közösségi médiában megfigyelhető alapjelenségek együttesen lehetővé teszik a jó minőségűnek tekinthető hamisított tartalmak gyors és hatékony terjesztését. Ezek együttesen egy dezinformációs folyamatot alkotnak, amelyek jelentősen befolyásolhatják mind a belföldi közéleti és politikai viszonyokat, mind a nemzetközi kapcsolatokat.
Az eljárás lényege, hogy a megszemélyesíteni kívánt személyről (tkp. az áldozat) már korábban meglévő videók alapján egy színész, imitátor segítségével készítenek egy olyan videóanyagot, amelyben az áldozat arca látható a színész szerepében, és fejmozgása, gesztikulációi, ajakmozgása, arcjátéka teljes egészében átkerül a megszemélyesített alany arcára.
A MÓDSZERRŐL
Ezt az eljárást az utóbbi évek rohamos ütemben fejlődő technológiai vívmányai teszik lehetővé, ezek közé tartoznak a mesterséges intelligenciához kapcsolható eszközök is. Ennek lényege röviden összefoglalva abban rejlik, hogy a hamisítást végző algoritmus rengeteg, már meglévő adat alapján megtanul bizonyos szabályokat, amiket később más adatokon alkalmaz.
Ebben a konkrét esetben a tanulást a megszemélyesíteni kívánt alanyról elérhető képek alapján végzi – a képeket pedig a róla készült videóanyagokból is ki lehet nyerni, márpedig az egyes ismert személyekről készült videók kiváló forrást jelentenek ebből a szempontból. A támadások kiemelt célpontjai lehetnek hírességek, politikai és közéleti szereplők, akikről természetüknél fogva jelentős mennyiségű olyan kép- és videótartalom érhető el, amely jó minőségben, megfelelő szögben reprezentálja a kiválasztott célszemély, áldozat arcát különböző helyzetekben.
A tanulást követően az algoritmus készen áll arra, hogy megszemélyesítse az áldozatot – ehhez már csupán az elkövetőről kell felvenni egy jó minőségű, lehetőség szerint egyszínű háttér előtt játszódó, környezeti tárgyaktól mentes videót.
Befejező
lépésként az algoritmus az újonnan felvett videóanyagon az áldozat arcát
helyezi
az elkövető arca helyére. Ezen túlmenően már léteznek olyan technológiák is,
amelyek kiegészítésként az áldozat hangját képesek előállítani, így teljesen
hitelesnek tűnő, rendkívül megtévesztő hamisítványok készíthetők.
HATÁSOK
Az információterjedés napjainkban gyakran a vírusok terjedésének jellegzetességeit hordozza magában [10a], mivel az érdekes, provokatív, vicces, szórakoztató alkotásokkal kapcsolatban gyakran magunk is egy gazdatestté, megosztóvá válunk [10b]. Ennek hagyománya pedig fenyegető potenciált jelent a módszerek rosszindulatú felhasználóinak a közéleti személyiségek, kiemelten politikai szereplők hamis színben való feltüntetésére [6].
Mindez azért kiemelten fontos, mert ahogy az már korábban bebizonyosodott a fake news hírek kapcsán, a legnépszerűbb hamis híreket szélesebb körben osztják meg a Facebook platformon, mint a mainstream híreket, továbbá az ilyen tartalmat megosztó felhasználók számára ezek jelentős hitelességgel bírnak [13].
Noha a korábban bemutatott Obama-példát a készítő felfedte, és alapvető célja a veszélyre való figyelemfelkeltés volt, már dokumentált, hatást elérő támadás is megvalósult ilyen jellegű videószerkesztéssel (bár ezesetben nem a szereplő arcát cserélték, hanem egy tárgyat). Emma González, amerikai fegyverellenes aktivista [19][20] egy rövid videóban egy céltáblát tépett szét, amelyen a támadók később kicserélték a célkeresztet az amerikai alkotmány képére [21] – nem csupán egy állóképen, hanem a teljes videón. A bejegyzés futótűzként terjedt végig a twitter közösségi csatornán, és többek között a 300 ezer követővel rendelkező [22] ismert színész Adam Bladwin is megosztotta [23], mindez pedig erőteljes védekezésre kényszerítette az eredeti videóban szereplő Gonzálezt.
Az igazi veszélyt számokban egy deep fake videókat valódival összehasonlító tanulmány eredményei [18] fejezik ki: a válaszadók 40%-a nem ismerte fel az egyértelműen hamisított Donald Trump-videót, míg a szintén könnyen felismerhető hamisítványnak a felhasználók 30%-a bedőlt.
A történet pedig itt vesz komoly fordulatot: az egyik összehasonlításban ugyan mindkét videó igazi volt, az olvasók 66%-a hitte azt, hogy a kétvideó közül legalább az egyik hamis, az ezt követő kérdés során pedig csupán az emberek 28%-a tudta eldönteni két videó (1 valódi és 1 hamis) közül, hogy melyik hamis, az adott válaszok arányai pedig azt fejezték ki, hogy a válaszadók teljesen összezavarodtak a videók eredetiségének eldöntésében.
Záró kérdésként megvizsgálták, hogy a jelen tanulmány elején említett hamis Barack Obama-videót meg tudják-e különböztetni annak eredetijétől: az emberek 81%-a rosszul válaszolt.
Noha ezen videók eredetiségét rövid idő alatt lehet cáfolni automatikus felismerő rendszerekkel [11], a gyors információterjedés korszakában kiemelt jelentőséget nyer mind ezek hatékonyságának növelése, mind a megelőzést szolgáló technikák alkalmazása [11][12], mivel a befolyásolás ilyen eszközei kiemelt veszélyforrást jelentenek a közszereplők számára.
Az
automatikus felismerőprogramok azonnal jelezhetik mind a tartalomszolgáltatók,
mind a fogyasztók, mind az ellenőrzést végző felügyelet felé, hogy a
megjelenített médiatartalom mesterséges intelligencia segítségével lett
módosítva, így megelőzve a gyors és hatékony károkozást.
MEGELŐZÉSI LEHETŐSÉGEK
Mint ahogyan az már korábban bemutatásra került, a hírességek, közéleti személyiségek és politikai szereplők ellen elkövetett, hamisítást alkalmazó támadások elleni védelemben fontos szerepet tölt be a DeepFake videók automatikus felismerését lehetővé tévő algoritmusok fejlesztése.
Korábbi tanulmányok arra tettek törekvéseket, hogy olyan adatbázisokat építsenek fel, amelyek validált módon tartalmaznak valódi és DeepFake-generált tartalmakat, ezáltal megkönnyítsék a hamisításfelismerő rendszerek fejlesztését a legérzékenyebb folyamatrészhez történő adatszolgáltatással [16]. Ugyanígy készültek tanulmányok a hamisítást felismerő rendszerek alapjainak felállítására, ezek közül több is eltérő megoldási technikákat javasol [16][17].
Li, Lyu (2019) tanulmányában egy olyan konvolúciós neurális hálózatot javasolt, amely az emberi arc határain fellelhető úgynevezett artifactok (magyarul leletek, nyomok) keresésével próbálja meg felismerni a hamisított tartalmakat, ezen belül is a kicserélésre került arcokat [17].
Korshunov, Marcel (2018) munkája az eddig már bizonyíthatóan valódi, illetve általuk összegyűjtött, bizonyítottan generált videók adatbázisának létrehozásával kezdődött, amely alapján különböző GAN-modelleket tanítottak be, és videók valódi-hamis mivoltát vizsgálták [16]. Ezen kívül javaslatot tettek egy olyan videóanalitikai rendszerre is, amely a beszélő ajakmozgását és az elhangzott szöveget kísérli meg összehasonlítani, mivel a hamisító rendszerek által készített tartalmakban a beszélők ajakmozgása nem tökéletesen szinkronizált.
A projektcsapat távlati célja a későbbiekben a DeepFake-technikákkal készült médiatartalom-felismerő rendszerek elméleti és gyakorlati tudásbázisának kifejlesztése. Ehhez kapcsolódó kutatásként a csapat célja az olyan támadásmegelőzést szolgáló algoritmusok vizsgálata, amelyek alkalmasak az érintettekről készült tartalmak olyan jellegű kódolására (tkp. vízjelezésére), ami a közönség számára vizuálisan nem észrevehető, ugyanakkor a tisztességtelen célból használt algoritmusok számára lehetetlenné teszi a hamisítás automatizálását – ennek hiányában pedig a művelet időigénye kivitelezhetetlenné teszi a számottevő károkozást. Állóképek esetén a Canon már az előző évtizedben kínált ilyen elvre épülő megoldást [24], noha a megjelenés után két évvel egy orosz fejlesztőcsapat feltörte a védelmet [25].
IRODALOMJEGYZÉK
[1] Google Trends for keyword „deepfake” in the last 5 years. https://trends.google.com/trends/explore?date=today%205-y&q=deepfake Elérés: 2019.04.05.
[2] Kalev Leetaru: DeepFakes: The Media Talks Politics While The Public Is Interested In Pornography. Forbes, 16 March 2019. https://www.forbes.com/sites/kalevleetaru/2019/03/16/deepfakes-the-media-talks-politics-while-the-public-is-interested-in-pornography Elérés: 2019.04.05.
[3] Jonah Peretti, Jared Sosa: You Won’t Believe What Obama Says In This Video! BuzzFeedVideo. https://www.youtube.com/watch?v=cQ54GDm1eL0 Elérés: 2019.04.05.
[4] Jordan Peele turns Obama into foul-mouthed fake-news PSA. Amanda Kooser, Cnet. 17 April 2018. https://www.cnet.com/news/jordan-peele-buzzfeed-turn-obama-into-foul-mouthed-fake-news-psa Elérés: 2019.04.08.
[5] Hai X. Pham, Yuting Wang & Vladimir Pavlovic: Generative Adversarial Talking Head. Bringing Portraits to Life with a Weakly Supervised Neural Network, 4p. Department of Computer Science, Rutgers University. arXiv:1803.07716v2. 28 March 2018 https://arxiv.org/abs/1803.07716 Elérés: 2019.04.05.
[6] Pavel Korshunov, Sebastien Marcel: DeepFakes: a New Threat to Face Recognition? Assessment and Detection, 1p. arXiv:1812.08685, 20 December 2018. https://arxiv.org/abs/1812.08685 Elérés: 2019.04.05.
[7] Kyle Olszewski et al: Realistic Dynamic Facial Textures from a Single Image using GANs. 2017 IEEE International Conference on Computer Vision (ICCV). 25 December 2017. ISBN 978-1-5386-1032-9. Elérhető: https://ieeexplore.ieee.org/document/8237842 Elérés: 2019.04.08.
[8] Modulate.ai Official Website. https://modulate.ai/ Elérés: 2019.04.09.
[9] Will Knight: This AI lets you deepfake your voice to speak like Barack Obama. February 27, 2019 https://www.technologyreview.com/s/613033/this-ai-lets-you-deepfake-your-voice-to-speak-like-barack-obama/ Elérés: 2019.04.09.
[10a] Jenkins, Henry; Ford, Sam; Green, Joshua: Spreadable Media: Creating Value and Meaning in a Networked Culture 17p. New York, NYU Press, 2013. ISBN 978-0-8147-4350-8
[10b] Jenkins, Henry; Ford, Sam; Green, Joshua: Spreadable Media: Creating Value and Meaning in a Networked Culture 19p. New York, NYU Press, 2013. ISBN 978-0-8147-4350-8
[11] Koopman, Marissa & Macarulla Rodriguez, Andrea & Geradts, Zeno. Detection of Deepfake Video Manipulation 4p. Conference Paper, IMVIP 2018, Belfast. In: Proceedings of the 20th Irish Machine Vision and Image Processing conference 133p, ISBN 978-0-9934207-3-3
[12] Sam Forsdick: Meet the team working to prevent the spread of next-gen fake news through ‘deepfake’ videos. Compelo. 27 February 2019. https://www.compelo.com/what-are-deepfakes-detect Elérés: 2019.04.05.
[13]
Hunt
Allcott and Matthew Gentzkow: Social Media and Fake News in the 2016 Election
5p.
Journal of Economic Perspectives, Volume 31, Number 2. Spring 2017, 211–236p. https://web.stanford.edu/~gentzkow/research/fakenews.pdf Elérés: 2019.04.17.
[14] Alec Radford, Luke Mezt, Soumith Chintala: Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks. arXiv:1511.06434v2
7 Janary 2016. https://arxiv.org/pdf/1511.06434.pdf Elérés: 2019.04.16.
[15] Thalles Silva: An intuitive introduction to Generative Adversarial Networks (GANs) https://medium.freecodecamp.org/an-intuitive-introduction-to-generative-adversarial-networks-gans-7a2264a81394
[16] Pavel Korshunov, Sebastien Marcel: DeepFakes: a New Threat to Face Recognition? Assessment and Detection 3p. arXiv:1812.08685v1. 20 December 2018. https://arxiv.org/abs/1812.08685 Elérés: 2019.04.05.
[17] Yuezun Li, Siwei Lyu: Exposing DeepFake Videos By Detecting Face Warping Artifacts. arXiv:1811.00656v2, 6p. 29 March 2019. https://arxiv.org/abs/1811.00656v2 Elérés: 2019.04.15.
[18] Tim Leslie, Nathan Hoad, Ben Spraggon: Can you tell a fake video from a real one? ABC.net Australia, Story Lab. 26 September 2018. https://www.abc.net.au/news/2018-09-27/fake-news-part-one/10308638 Elérés: 2019.04.18.
[19] Emma González: Parkland Student Emma González Opens Up About Her
Fight for Gun Control. Harper’s Bazaar. 26 February 2018. https://www.harpersbazaar.com/culture/politics/a18715714/
protesting-nra-gun-control-true-story/ Elérés: 2019.04.19.
[20] Alex Horton: Advice from a survivor of the Florida school shooting. The Washington Post. 18 February 2018 https://www.washingtonpost.com/news/post-nation/wp/2018/02/18/advice-from-a-survivor-of-the-florida-school-shooting-its-time-to-start-ignoring-trump/ Elérés: 2019.04.19.
[21] Gianluca Mezzofiore: No, Emma Gonzalez did not tear up a photo of
the Constitution. CNN. 26 March 2018 https://edition.cnn.com/2018/03/26/us/emma-gonzalez-photo-doctored-trnd/
index.html Elérés: 2019.04.19.
[22] Adam Baldwin. Twitter. https://twitter.com/adambaldwin Elérés: 2019.04.19.
[23] Chas Danner: eople Are Sharing Fake Photos of Emma González Tearing Up the Constitution. New York Mag, Intelligencer. 25 March 2018. http://nymag.com/intelligencer/2018/03/some-conservatives-are-sharing-a-fake-photo-of-emma-gonzalez.html Elérés: 2019.04.19.
[24] Canon OSK-E3. Canon Inc. 2018. http://www.canon.co.jp/imaging/osk/osk-e3/verifies/index.html Elérés: 2019.04.17.
[25] Eric Reagan: Canon “Original Data Security” Cracked, Rendered Useless. PhotographyBay. 30 November 2010 http://www.photographybay.com/2010/11/30/canon-original-data-security-cracked-rendered-useless/ Elérés: 2019.04.17.