Tekoäly herättää kuolleet eloon

Uusi palvelu käyttää deep learning -tekniikkaa valokuvien animointiin. Yhdellä klikkauksella ohjelma muuttaa vanhat perhekuvat videoiksi.

Uusi palvelu käyttää deep learning -tekniikkaa valokuvien animointiin. Yhdellä klikkauksella ohjelma muuttaa vanhat perhekuvat videoiksi.

MyHeritage

Nyt saat jo edesmenneet sukulaisesi videoitua. Uusi Deep Nostalgia -palvelu perustuu tekoälyyn ja niin kutsuttuun deep learning -tekniikkaan, jotka mahdollistavat vanhojen valokuvien animoinnin.

Viime viikolla lanseeratun uuden palvelun taustalla on kansainvälinen MyHeritage-sukututkimusyritys.

Tekniikka toimii samalla periaatteella kuin niin kutsutut deepfake-videot. Niiden taustalla on tekoäly, joka pohjautuu kahta algoritmia tottelevaan neuroverkkoon.

Toinen algoritmeista on luova. Parhaan mahdollisen deepfaken tuottamiseksi siihen syötetään analysoitavaksi suuria määriä dataa henkilöstä, jota on tarkoitus jäjlitellä. Algoritmi analysoi kasvonpiirteitä, hiuksia, varjoja ja muita yksityiskohtia eri kulmista ja tuottaa lopulta ehdotelman deepfakeksi.

Algoritmi numero kaksi valvoo toisen algoritmin työtä. Se analysoi yksityiskohtia, kuten väärässä paikassa olevia pikseleitä tai kasvojen siirtymistä päähän nähden. Jos valvonta-algoritmi löytää virheitä, se raportoi niistä luovalle algoritmille, joka korjaa virheet ja tuottaa uuden, aiempaa paremman version videosta.

Luova algoritmi käy siis ikään kuin tekemässä välillä valvonta-algoritmin laatiman kokeen, ja vasta, kun valvonta-algoritmi ei enää pidä videota väärennettynä, deepfake on valmis.

Lue myös: Virtuaalietsivät metsästävät väärennettyjä videoita

Barack Obama on ollut suosittu deepfake-videoiden kohde. Yksi niistä on ohjaaja ja koomikko Jordan Peelen käsialaa, ja se on kiertänyt pitkään maailmaa, koska se on ollut niin hyvin tehty. Väärennettyjen videoiden tekemiseen käytetty tekniikka kehittyy koko ajan, ja niiden havaitseminen vaikeutuu. Obaman videon avulla voidaan havainnollistaa sitä, miten huomio kannattaa kiinnittää etenkin kolmeen eri kasvojen piirteeseen.

©

Näin tunnistat deepfake-videon

Barack Obaman väärennettyä videota voidaan käyttää esimerkkinä, kun opetellaan tunnistamaan deepfakeja. Se onnistuu parhaiten keskittymällä kasvojen kolmeen piirteeseen.

Silmien pitää räpsyä

Deepfake tehdään liittämällä yhteen monta kuvaa ja videota mahdollisimman uskottavaksi kokonaisuudeksi. Toisinaan silmät eivät näytä katsojasta täysin luonnolliselta: ne saattavat esimerkiksi katsoa äkkiä pois kamerasta tai videolla esiintyvä henkilö ei näytä koskaan räpäyttävän silmiään. Obama-videolla tällaiset virheet on korjattu.

Ohimoilla ei saa olla pikselivirheitä

Koska deepfake-videot on tavallisesti koottu näyttämällä vuoron perään eri lähteistä saatuja kasvokuvia, väärennös voi paljastua pienistä virheistä kasvojen laidoilla. Obaman vasemmalla ohimolla voi nähdä hiusrajan liikkuvan pienin nykäyksin, vaikka Obama ei itse liiku.

Suu jauhaa aina vaan

Jos suu on jatkuvassa liikkeessä, videoon putkahtaa helposti paljastavia virheitä, sillä silloin suun liikkeet eivät aina seuraa täysin ääntä. Synkronointivirheiden lisäksi monissa deepfake-videoissa virheitä ilmaantuu myös hampaiden kaltaisiin pieniin yksityiskohtiin. Obama-videollakin näyttää ajoittain siltä kuin alahampaat sulautuisivat yhteen alahuulen kanssa.

Tom Cruisesta ja Barack Obamasta on tehty deepfake-videoita jo vuosia, mutta nyt Deep Nostalgia -palvelu tarjaa sinulle mahdollisuuden kokeilla samaa tekniikkaa omiin läheisiisi. Palvelua voi käyttää kenen tahansa kuvien animointiin, jos sinulla vain on heidän suostumuksensa.

Haluatko nähdä, miltä isoisoisoäitisi näyttäisi videolla? Kokeile palvelua MyHeritage.com. Voit ladata sinne vanhoja valokuvia ja saada tulokseksi animoidut kasvot.