Virtuaalietsivät metsästävät väärennettyjä videoita

Tekoäly manipuloi kasvoja ja ääniä deepfake-videoissa eli väärennetyissä videoissa, jotka hämärtävät toden ja kuvitellun rajaa. Yritykset eri puolilla maailmaa ovat ryhtyneet taisteluun deepfake-videoita vastaan virtuaalietsivillä, jotka jäljittävät väärennöksiä kääntämällä menetelmän itseään vastaan. Nyt tutkijat ovat löytäneet tehokkaan tavan iskeä takaisin.

Tekoäly manipuloi kasvoja ja ääniä deepfake-videoissa eli väärennetyissä videoissa, jotka hämärtävät toden ja kuvitellun rajaa. Yritykset eri puolilla maailmaa ovat ryhtyneet taisteluun deepfake-videoita vastaan virtuaalietsivillä, jotka jäljittävät väärennöksiä kääntämällä menetelmän itseään vastaan. Nyt tutkijat ovat löytäneet tehokkaan tavan iskeä takaisin.

Buzzfeed

"Donald Trump on todellinen supermäntti”, totesi Yhdysvaltojen entinen presidentti Barack Obama videolla vuonna 2018. Obama ei kuitenkaan itse lausunut sanoja. Videolla kuuluva ääni oli yhdysvaltalaisen koomikon Jorden Peelen imitaatio, ja hahmon kasvot ja ilmeet olivat tekoälyllä luotuja.

Video tehtiin sen havainnollistamiseksi, kuinka helppoa katsojia on huijata niin sanotulla deepfakella eli elävällä kuvalla ja äänellä, jotka on luotu vain katsojien manipuloimiseksi.

VIDEO: Katso, miten Barack Obaman hahmoa käytettiin deepfakessa

Nykyisin deepfake-videot ovat yleisempiä kuin koskaan ja tekniikasta on tullut niin kehittynyttä, että väärennettyä videota on mahdotonta erottaa aidosta paljain silmin. Teknologiayritykset yrittävätkin nitistää deepfakeja käyttämällä aseena omia algoritmejaan.

Teknologiayritykset haluavat deepfaket hengiltä

Deepfake-videot perustuvat tekoälyyn, joka luo Barack Obamasta tai jostakusta muusta digitaalisen version käymällä läpi ison määrä kuvia, videota ja äänitallenteita.

Deepfake-videoiden tekijät ovat kuin nukketeatterin ohjaajia: he vetelevät naruista ja saavat videoilla näkyvät uhrit tekemään ja sanomaan lähes mitä tahansa. Nykyisin tekniikasta on tullut niin kehittynyttä, että väärennettyä kuvaa on mahdotonta erottaa aidosta.

Deepfake-huijausten uhriksi voivat joutua muutkin kuin poliitikot.

Vuonna 2019 rikollisten onnistui huijata brittiläiseltä energiayhtiöltä yli 200 000 euroa deepfakella, joka jäljitteli erehdyttävän tarkasti yhtiön johtajan ääntä.

Vuotta myöhemmin ilmastoaktivistiryhmä Extinction Rebellion teki Belgian pääministeristä deepfaken, jossa hän liitti ilmastokriisin koronavirustautiin.

Barack Obama on ollut suosittu deepfake-videoiden kohde. Yksi niistä on ohjaaja ja koomikko Jordan Peelen käsialaa, ja se on kiertänyt pitkään maailmaa, koska se on ollut niin hyvin tehty. Väärennettyjen videoiden tekemiseen käytetty tekniikka kehittyy koko ajan, ja niiden havaitseminen vaikeutuu. Obaman videon avulla voidaan havainnollistaa sitä, miten huomio kannattaa kiinnittää etenkin kolmeen eri kasvojen piirteeseen.

©

Näin tunnistat deepfake-videon

Barack Obaman väärennettyä videota voidaan käyttää esimerkkinä, kun opetellaan tunnistamaan deepfakeja. Se onnistuu parhaiten keskittymällä kasvojen kolmeen piirteeseen.

Silmien pitää räpsyä

Deepfake tehdään liittämällä yhteen monta kuvaa ja videota mahdollisimman uskottavaksi kokonaisuudeksi. Toisinaan silmät eivät näytä katsojasta täysin luonnolliselta: ne saattavat esimerkiksi katsoa äkkiä pois kamerasta tai videolla esiintyvä henkilö ei näytä koskaan räpäyttävän silmiään. Obama-videolla tällaiset virheet on korjattu.

Ohimoilla ei saa olla pikselivirheitä

Koska deepfake-videot on tavallisesti koottu näyttämällä vuoron perään eri lähteistä saatuja kasvokuvia, väärennös voi paljastua pienistä virheistä kasvojen laidoilla. Obaman vasemmalla ohimolla voi nähdä hiusrajan liikkuvan pienin nykäyksin, vaikka Obama ei itse liiku.

Suu jauhaa aina vaan

Jos suu on jatkuvassa liikkeessä, videoon putkahtaa helposti paljastavia virheitä, sillä silloin suun liikkeet eivät aina seuraa täysin ääntä. Synkronointivirheiden lisäksi monissa deepfake-videoissa virheitä ilmaantuu myös hampaiden kaltaisiin pieniin yksityiskohtiin. Obama-videollakin näyttää ajoittain siltä kuin alahampaat sulautuisivat yhteen alahuulen kanssa.

Deepfaket ovat kuitenkin pian historiaa, jos on uskominen muutamia maailman johtavia teknologiayrityksiä.

Google ja Facebook ovat uhranneet kahdeksannumeroisia summia väärien videoiden löytämiseen ja poistamiseen, jotta ne eivät ehtisi aiheuttaa vahinkoa.

Alankomaalainen Deeptrace-yritys on onnistunut eliminoimaan runsaasti väärennettyjä videoita soveltamalla yksinkertaista ideaa: se on kääntänyt deepfake-videoiden tuottamiseen käytetyn tekniikan itseään vastaan.

Algoritmi leikkii valvojaa

Deepfake-videoiden taustalla on koneoppiva tekoäly, joka pohjautuu kahta algoritmia noudattavaan neuroverkkoon. Neuroverkot muodostavat keskenään kilpailevan verkoston (generative adversial network, GAN).

Toinen algoritmeista on luova. Parhaan mahdollisen deepfaken tuottamiseksi siihen syötetään analysoitavaksi suuria määriä dataa henkilöstä, jota on tarkoitus jäjlitellä. Algoritmi analysoi kasvonpiirteitä, hiuksia, varjoja ja muita yksityiskohtia eri kulmista ja tuottaa lopulta ehdotelman deepfakeksi.

Algoritmi numero kaksi valvoo toisen algoritmin työtä. Se analysoi yksityiskohtia, kuten väärässä paikassa olevia pikseleitä tai kasvojen siirtymistä päähän nähden. Jos valvonta-algoritmi löytää virheitä, se raportoi niistä luovalle algoritmille, joka korjaa virheet ja tuottaa uuden, aiempaa paremman version videosta.

Luova algoritmi käy siis ikään kuin tekemässä välillä valvonta-algoritmin laatiman kokeen, ja vasta, kun valvonta-algoritmi ei enää pidä videota väärennettynä, deepfake on valmis.

Piru piilee yksityiskohdissa

Deepfake-ilmiö sai maailmalla enemmän tunnettuutta 2019, kun eräs Reddit-sivuston käyttäjä alkoi ladata sivustoon pääasiassa pornografisia videoita. Pian sivustosta alkoi löytyä myös sellaisia pornovideoita, joissa muka esiintyi Taylor Swiftin ja Katy Perryn tyyppisiä tunnettuja poplaulajia.

Sittemmin verkossa on alkanut kiertää tuhansia deepfake-videoita, joiden aihepiirit vaihtelevat pornosta politiikkaan. Nyt tutkijat ja yritykset ovat ryhtyneet keksimään keinoja väärennettyjen videoiden paljastamiseen ennen kuin ne ehtivät levitä laajalle.

Yksi yrityksistä on alankomaalainen Deeptrace. Yritys on kehittänyt sisällönvalvonta-algoritmin. Algoritmiin syötetään tuhansia tunteja aitoja ja väärennettyjä videoita, minkä jälkeen se oppii tunnistamaan, miten ne voi erottaa toisistaan.

Uhkatiedustelun päällikkönä Deeptracessa toimivan Henry Ajderin mukaan videossa on kiinnitettävä huomiota hyvin pieniin yksityiskohtiin, ennen kuin deepfake paljastuu.

"Moni deepfake ei pistä silmään, ja virheet ovat pikselitasolla. Algoritmimme on muun muassa oppinut löytämään vääränlaisia pikseleitä: pieniä pikselijoukkoja, jotka ovat liian tummia tai vaaleita [suhteessa ympäristöön, toim. huom.],” Henry Ajder kertoo.

Deepfake luodaan yhdistämällä useita kuvia ja videoita, ja niihin voi siksi päätyä vääränlaisia pikseleitä. Algoritmi käy siksi epäjohdonmukaisuuksien löytämiseksi läpi jokaisen pikselin jokaisesta kuvasta, joita voi olla tuhansia jokaisessa videossa. Algoritmilla onkin saavutettu hyviä tuloksia.

Joulukuussa 2018 Deeptrace löysi verkosta yli 14 000 videota, jotka voitiin luokitella deepfakeiksi. Niiden löytämiseksi algoritmin on koko ajan opittava lisää, sillä myös deepfake-videot parantuvat koko ajan:

"Deepfakejen tekijät kehittävät niistä jatkuvasti parempia, ja meidän on parannettava algoritmiamme koko ajan löytääksemme ne,” Ajder selittää.

Ilmeet ovat akilleenkantapää

Siinä missä Deeptrace keskittyy deepfake-videoissa esiintyvien virheiden, kuten heikon tarkkuuden, väärissä paikoissa olevien pikseleiden ja muiden vikojen, havaitsemiseen, Californian yliopistossa Berkeleyssä työskentelevä tutkija Shruti Agarwal on valinnut toisen lähestymistavan.

Agarwal havaitsi, että Barack Obama liikauttaa päätään hieman korkeammalle oikealle tai vasemmalle aina, kun hän sanoo "hello everybody". Tämä sai hänet tutkimaan, pystyvätkö deepfaket jäljittelemään ihmisten tapaa puhua ja miten kasvot liikkuvat suhteessa puheen sisältöön.

Tästä syystä Agarwal laittoi analysointiohjelman kartoittamaan viidelle poliitikolle ominaisia ilmeitä ja liikkeitä, jotka ovat ehkä osoittautuneet deepfakejen suurimmaksi akilleenkantapääksi. Deepfakessa nimittäin laitetaan vain yhden ihmisen kasvot toisen ihmisen kasvojen päälle eikä kiinnitetä huomiota ilmehdintään.

Agarwalin algoritmi pystyi tunnistamaan 94 prosenttia siihen syötetyistä deepfake-videoista. Tämä tunnistamiskeino vaatii kuitenkin ison määrän kuva-aineistoa henkilön ilmeistä, joten se toimii parhaiten julkisuuden henkilöiden kohdalla, sillä heistä on olemassa paljon kuvia.

Etsintä on käynnissä

Deepfake-tekniikka on kehittynyt pisteeseen, jossa väärennettyjen videoiden tunnistamiseen vaaditaan hyvin kehittyneitä algoritmeja. Ja teknisen kehityksen edistyessä deepfake-videoiden tunnistaminen ajoissa vaikeutuu koko ajan.

Google, Facebook ja Twitter ovatkin käynnistäneet hankkeita, joissa pyritään löytämään ja poistamaan epäaidot videot ennen kuin ne ehtivät levittää väärää tietoa verkossa.

Facebook on rahoittanut miljoonilla dollareilla korkeakouluja, joiden koulutusohjelmiin kuuluu kuva- ja videoanalyysia ja jotka tutkivat, miten deepfake-videoista päästään eroon.

Google on tallentanut satojen näyttelijöiden haastatteluja ja luonut niiden pohjalta 3 000 deepfakea. Ne on laitettu verkkoon harjoittelumateriaaliksi tutkijoille ja IT-asiantuntijoille, jotka opettavat algoritmejaan tunnistamaan deepfakeja.

Tutkijat huijasivat ensi kerran virtuaalipoliisia

Algoritmeja, joiden avulla ratkaistaan, onko video deepfake vai ei, on ensimmäistä kertaa huijattu tieteen nimissä.

Tutkijat saivat selville, että videon aitouden ratkaisevan algoritmin ilmaisimia voidaan huijata sijoittamalla jokaiseen videoframeen eli videon yksittäiseen kuvaan vastakkaissuuntainen kuva.

Kun algoritmi oli päätellyt tiettyjen parametrien perusteella videon väärennetyksi, tutkijat lisäsivät videoon vastakkaissuuntaiset kuvat ja korjasivat siten virheet, jotka saivat algoritmin luokittelemaan videon huiputuksksi.
Menetelmä käyttää algoritmia vastaan sen omaa logiikkaa, mikä saa algoritmin erehtymään.

Manipulaatiokokeen tehneet tutkijat aikovat käyttää uutta tietoa virtuaalipoliisin parantamiseen.

Jotta kykenisimme erottamaan faktan fiktiosta myös tulevaisuudessa, on korkea aika tehdä jotain väärennetyille videoile. Kuten huijari-Obama toteaa vuoden 2018 deepfake-videolla:

“Kuulostaa ehkä ihan perusjutulta, mutta tapa, jolla jatkossa toimimme tänä informaation aikakautena, ratkaisee sen, jäämmekö eloon vai odottaako meitä tulevaisuudessa jokin kieroutunut dystopia.”