MIT

Deepfake: Nixon pahoittelee Kuuhun laskeutumisen epäonnistumista

Ennen 20. heinäkuuta 1969 tapahtunutta laskeutumista Kuuhun Yhdysvaltojen presidentti Richard Nixonilla oli valmiina kaksi Apollo 11:n kohtaloa koskevaa puhetta. Onneksi presidentti sai pitää puheen onnistuneesta lennosta. Nyt 50 vuotta myöhemmin hän pitää kuitenkin myös fiaskopuheen – tai siis Nixonin puolesta puheen pitää tekoäly. Tämä deepfake-video sai juuri Emmy-palkinnon.

"Jos ei tiedä, hyväksyy paljon – täysin kritiikittömästi."

Näin totesi Magnus Bjerg, joka on suunnitellut Massachusettsin teknisessä korkeakoulussa eli MIT:ssä tuotetun In Event of Moon Disaster -deepfake-filmin. Deepfake-video sai juuri Emmy-palkinnon kategoriassa "Outstanding Interactive Media".

Videon tehnyt ryhmä toivoo osoittavansa, miten "uusilla tekniikoilla voidaan venyttää, kiertää ja häivyttää totuutta ympärillämme" ja "tutkia väärän tiedon leviämisen vaikutusta ja deepfake-tekniikkaa yhteiskunnassamme".

Vuosikymmenien takaiselta vaikuttavassa puheessa Yhdysvaltojen taannoinen presidentti Richard Nixon kertoo, että laskeutuminen Kuuhun ei sujunut suunnitellusti. Kuvat ja ääni ovat kuitenkin keinotekoisesti tuotettuja. Ne osoittavat, mihin tekoäly nykyisin kykenee. Ja puhe ei ole aito.

Kysymys kuuluu: Huomaatko sinä eron?

Näin huomaat deepfaket

Nixonia esittävä deepfake-video on tehty tekoälyn ja niin sanotun deep learning -tekniikan avulla. Tiivistetysti tämä tarkoittaa sitä, että tietokoneeseen on syötetty näyttelijän kasvonpiirteitä ja ilmehdintää kyllästymiseen asti, minkä jälkeen Nixonin kasvoihin on ympätty uusi suu.

Yhdessä puhenäyttelijän kanssa MIT:n tiimi on kehittänyt puheen, joka sopii Nixonin uusiin keinotekoisiin suun liikkeisiin.

"Meille tämä on keino osoittaa, mihin tekniikka pystyy, jotta voimme avata keskustelun siitä, mitä teemme, kun jonain päivänä näemme videon poliitikosta, joka näyttää sanovan jotain selkeästi rasistista. Tiedämme, että kuvia voidaan muokata Photoshopissa. Nyt on koittanut aika, jolloin meidän täytyy suhtautua kriittisesti myös elävään kuvaan", Magnus Bjerg sanoo.

Bjerg toteaa myös, että deepfaket ovat nykyisin jo niin hyviä, että niitä on vaikea erottaa aidoista.

Jos et ole varma, onko video deepfake, voit tarkkailla kasvojen reunoja. Näyttävätkö ääriviivat luonnollisilta? Onko ihonväri tasalaatuinen? Miten kauluksen heittämät varjot käyttäytyvät? Onko henkilön katse epäluonnollisen eloton? Ovatko hampaat oudot tai pikselöityvätkö ne?

© MIT

Piru piilee yksityiskohdissa

Alankomaalainen Sensity-yritys on kehittänyt algoritmin, joka tarkkailee verkon deepfake-sisältöä. Algoritmiin on syötetty tuhansia tunteja aitoja ja väärennettyjä videoita, minkä jälkeen se on alkanut erottaa niitä toisistaan. Löytääkseen epäjohdonmukaisuudet algoritmi käy läpi jokaisen kuvan jokaisen pikselin, joita on usein tuhansia joka videossa.

Uhkatiedustelun päällikkönä Sensityssä toimivan Henry Ajderin mukaan videossa on kiinnitettävä huomiota hyvin pieniin yksityiskohtiin, ennen kuin deepfake paljastuu.

"Moni deepfake ei pistä silmään, ja virheet ovat pikselitasolla. Algoritmimme on muun muassa oppinut löytämään vääränlaisia pikseleitä: pieniä pikselijoukkoja, jotka ovat liian tummia tai vaaleita [suhteessa ympäristöön, toim. huom.],” Henry Ajder kertoo.

Joulukuussa 2018 Sensity löysi verkosta yli 14 000 videota, jotka voitiin luokitella deepfakeiksi.

Sensity on Magnus Bjergin mukaan käynyt myös In Event of Moon Disaster -videon perusteellisesti läpi. Yrityksen algoritmi totesi, että video on deepfake.

Epäaidot kasvot hioutuvat paremmiksi

Tekniikalla on toistaiseksi tuotettu poliittista tai pornografista sisältöä, mutta sitä voidaan käyttää myös muihin tarkoituksiin, huomauttaa Magnus Bjerg:

"Deepfake-tekniikka voi säästää filmiteollisuudelle paljon rahaa. On tehty esimerkiksi filmi, jossa esiintyy James Dean [kuoli vuonna 1955, toim. huom.]. Ja dokumenttifilmeissä voidaan käyttää tekniikkaa henkilöiden anonymisoimiseen, kuten tehtiin ukrainalaisessa Welcome to Chechnya -filmissä, jossa esiintyi paikallisia homoja ja lesboja."

Deepfake-ilmiö sai maailmalla enemmän tunnettuutta 2019, kun eräs Reddit-sivuston käyttäjä alkoi ladata sivustoon pääasiassa pornografisia videoita. Pian sivustosta alkoi löytyä myös sellaisia pornovideoita, joissa muka esiintyi Taylor Swiftin ja Katy Perryn tyyppisiä tunnettuja poplaulajia.

Google, Facebook ja Twitter ovatkin käynnistäneet hankkeita, joissa pyritään löytämään ja poistamaan epäaidot videot ennen kuin ne ehtivät levittää väärää tietoa verkossa.

Facebook on rahoittanut miljoonilla dollareilla korkeakouluja, joiden koulutusohjelmiin kuuluu kuva- ja videoanalyysia ja jotka tutkivat, miten deepfake-videoista päästään eroon.

Samasta syystä Magnus Bjerg ja muu MIT-tiimi eivät halua mielellään kertoa yksityiskohtaisesti käyttämistään menetelmistä. Bjerg toteaa myös:

"Olimme vaikuttuneita - ja järkyttyneitä - siitä, miten hyvä deepfake-videosta tuli. Oli kuitenkin lohdullista, että sen tuottaminen vei meiltä kolme kuukautta, joten meillä on aikaa toimia, vaikka videoiden tekeminen on koko ajan nopeampaa, edullisempaa ja helpompaa."