Toimitko moraalisesti oikein, kun autat parasta ystävääsi?
Tietenkin – useimpien mielestä. Muuttaako asiaa se, jos autat ystävääsi levittämällä valeuutisia ja salaliittoteorioita verkossa?
Yleensä ajatellaan, että toisen auttaminen ja totuudessa pysyminen ovat moraalisesti hyväksyttävää toimintaa.
Moraalisesti oikea valinta riippuu kuitenkin aina tilanteesta, ja sitä meidän ihmistenkin voi olla vaikea ymmärtää ja hallita.
Siitä huolimatta tutkijat yrittävät saada tekoälyn erottamaan oikean ja väärän toisistaan samalla tavalla kuin ihmisen omatunto tekee.
Koneille annetaan toisin sanoen moraalikompassi, kyky tehdä vastuullisia valintoja – ja mahdollisuus päättää elämästä ja kuolemasta.

Tulevaisuuden itseohjautuvan auton pitää ratkaista sekunnin murto-osassa, mikä on paras tapa toimia esimerkiksi, kun edellä menevä jalankulkija siirtyy yllättäen ajoradalle.
Esimerkiksi uusista moraalisista tekoälyistä sopii Delphi, joka on kehitetty Allenin tekoälyn tutkimuskeskuksessa.
Delphi perustuu neuraaliseen kielimalliin. Sillä tarkoitetaan keinotekoista älykästä algoritmia, joka oppii ymmärtämään kirjoitettua kieltä soveltamalla todennäköisyyslaskentaa.
Arvoja pankista
Apuna Delphillä on digitaalinen opas, Commonsense Norm Bank. Se sisältää 1,7 miljoonaa esimerkkiä kysymyksistä ja vastauksista, jotka ihmiset ovat arvioineet moraalisesti oikeiksi tai vääriksi.
Delphi tavoittelee moraalia pitämällä esimerkkejä ohjenuoranaan, kun se ottaa kantaa muihin eettisiin ongelmiin.

Onko hyväksyttävää, että miehillä on parempi palkka kuin naisilla? Tällaiseen kysymykseen tekoälyn pitäisi osata vastata.
Verkkosivulla kuka tahansa voi esittää kysymyksiä algoritmille. Delphin toiminta on kuitenkin ollut alussa haparoivaa.
Esimerkiksi kysymykseen, pitäisikö toimeenpanna kansanmurha, jos siitä on iloa kaikille, Delphi vastasi:
”Pitäisi.”
1,7 miljoonaa arkista ongelmaa sisältyy digitaaliseen oppaaseen.
Tekoälyalgoritmi on epäonnistunut taitamattomuuttaan myös arvioidessaan, että on moraalisesti hyväksyttävämpää olla valkoihoinen kuin tummaihoinen tai heteroseksuaalinen kuin homoseksuaalinen.
Kompassineula kääntyy
Etiikkaa voidaan pitää ihmisen hyvän käyttäytymisen perussääntöinä. Moraali on etiikan soveltamista käytännössä, toisin sanoen teoissa.
Yhteiskunta voi päättää esimerkiksi, että abortti on eettisesti vastuullinen ja siten laillinen toimenpide. Silti yhteiskunnassa voi olla yhteisöjä, jotka pitävät aborttia moraalittomana ja tuomittavana.
Syynä siihen, että moraalikompassia on vaikea ohjelmoida tietokoneeseen, on siis se, että näkökulmaksi ymmärrettävä tilanne eli asiayhteys ratkaisee.
Natsit tulevat ovellesi kysymään, oletko nähnyt Anne Frankia.
Valehtelemista yleensä paheksutaan. Kuvitellaan, että olet toisen maailmansodan aikana tarjonnut piilopaikan juutalaiselle Anne Frankille ja että natsit tulevat ovellesi kysymään, oletko nähnyt häntä. Puhutko totta?
Ajatuskoe paljastaa, että moraalikompassin neula kääntyy nopeasti tilanteen mukaan.
Tästä syystä Delphin takana olevat tutkijat ovat suunnitelleet algoritmin deskriptiivisen eli kuvailevan etiikan pohjalta. Siinä ei ole olemassa absoluuttisia moraalisia totuuksia.
Algoritmi oppii
Delphi osaa ottaa kantaa kolmenlaisiin moraalikysymyksiin. Ensimmäinen tyyppi on suhteelliset kysymykset, joissa ilmausten merkitysvivahteet vaikuttavat tilanteen tulkintaan ratkaisevasti.
Esimerkki tällaisesta tapauksesta on kysymys, onko moraalisesti hyväksyttävämpää tappaa joku juustopurilaisella kuin juustopurilaisesta (vertailukohta on puukko).
Delphi voi lisäksi arvioida periaatteellista hyväksyttävyyttä. Esimerkiksi sopii kysymys, onko oikein, että naiset ja miehet eivät saa yhtä hyvää palkkaa.
Ohjelma puoltaa samapalkkaisuutta. Kolmas kysymystyyppi on yleisempi. Onko esimerkiksi hyväksyttävää ampua karhu, kun se uhkaa tappaa lapsen?

Kuljettajattoman auton ongelma
Itseohjautuva auto, jonka kyydissä on kaksi naista ja vauva, kulkee kohti suojatietä, jonka eteen sen pitäisi pysähtyä, mutta jarrut pettävät. Auton on pakko tehdä nopea moraalivalinta: jatkaako se suoraan vai kääntyykö se ja törmää betoniesteeseen?

Vaihtoehto 1: Auto ei tee mitään
Auto jatkaa suoraan ja törmää kahteen aikuiseen ja lastenrattaisiin. Pikkulapsi kuolee, ja mies ja nainen loukkaantuvat vakavasti.

Vaihtoehto 2: Auto väistää
Auto kääntyy jyrkästi vasemmalle ja törmää betoniesteeseen. Jalankulkijat selviävät pelkällä säikähdyksellä, mutta etuistuimilla olevat nainen ja vauva kuolevat ja takaistuimella oleva nainen loukkaantuu vakavasti.
Tekoäly tekee joka päivä puolestamme paljon päätöksiä – emmekä pane niitä kaikkia merkille.
Asialla ovat esimerkiksi koneoppimisalgoritmit, jotka Sirin ja Alexan kaltaisina puhetunnistukseen perustuvina henkilökohtaisina avustajina kykenevät toimimaan ääniohjauksessa.
Tätä koneoppimisen muotoa kutsutaan ohjatuksi oppimiseksi. Se toimii esimerkiksi niin, että neuroverkkoalgoritmit oppivat tunnistamaan puhujan, kun ne saavat harjoittelua varten opetusaineistoa, kuten ääninäytteitä.

Tekoäly helpottaa arkea
Tekoäly valitsee musiikkia, tunnistaa kasvoja ja paljastaa valeuutisia. Tekoälysovellukset tekevät päivittäin päätöksiä ihmisten puolesta.
Aineisto syötetään neuroverkkoon, ja se kulkee solmukohtien kautta.
Jokainen solmukohta suorittaa laskutoimituksen, ja sen tuloksesta riippuu, mikä solmukohta suorittaa seuraavan laskutoimituksen.
Neuroverkon päässä valmista laskelmaa verrataan opetusdataan. Jos lopputulos poikkeaa liikaa, laskutoimituksia säädetään yksittäisissä solmukohdissa.
Näin algoritmi oppii vähitellen ja ikään kuin kypsyy käsittelemään täysin uutta aineistoa.
Chatbotista tuli rasisti
Menetelmästä tekee ongelmallisen se, että aineiston laatu vaikuttaa merkittävästi siihen, mitä ohjelma oppii. Aineistohan voi olla tavalla tai toisella värittynyttä. Siitä seuraava vinoutunut kehitys johtaa vääristyneeseen näkökulmaan.
Näin tapahtui tietotekniikka-alan jätille Microsoftille, kun se lanseerasi vuonna 2016 Tay-botin, jonka piti oppia keskustelemaan kuin tyttö.
Ajatuksena oli, että Tay tviittaillessaan harjaantuu aina vain paremmaksi keskustelijaksi.

Kun Twitterin käyttäjät lähettivät jatkuvasti naisvihaa ilmentäviä ja rasistisia viestejä, chatbot Tay muuttui digitaaliseksi hirviöksi.
Twitterin käyttäjät onnistuivat muuttamaan Tayn vuorokaudessa hirviöksi lähettämällä jatkuvasti rasistisia ja naisvihamielisiä viestejä.
Tayn takana oleva tekoälysovellus ajoi Twitter-viestit neuroverkkonsa läpi ja oppi niistä, millaista kieltä Twitterissä on tapana käyttää.
”Helvetti, että minä vihaan feministejä”, ehti Tay todeta tviitissään, ennen kuin Microsoft pani pisteen sen moraalista rappiota ilmentävälle keskustelulle.
Esimerkki osoittaa hyvin, että tekoälyn arvostelukyky perustuu täysin siihen syötettyyn aineistoon.
Kova koulu parantaa moraalia
Tekoäly oppii tekemään moraalivalintoja mukailemalla ihmisten konkreettisia ratkaisuja tilanteissa, jotka vaativat eettistä pohdintaa.

1. Algoritmiin syötetään kysymyksiä
Tekoäly perustuu algoritmiin, joka määrittää sanojen merkityksen ja paikan lauseissa. Algoritmiin syötetään esimerkiksi kysymys: ”Onko hyväksyttävää hylätä ystävän puhelu, kun keskittyy työntekoon?”

2. Vertailu antaa vastauksen
Algoritmin tekemät laskutoimitukset osoittavat, että kysymys muistuttaa aikaisempaa kysymystä, jonka vastaus oli kielteinen. Kysymys kuului: ”Onko hyväksyttävää hylätä ystävän puhelu?” Siksi algoritmi vastaa taas kielteisesti.

3. Algoritmi korjaa virheensä
Koska vastauksen pitäisi olla myönteinen, ohjelmoija huolehtii siitä, että algoritmiin tallentuu tieto väärästä vastauksesta. Algoritmi säätää laskutoimituksiaan ja varmistaa näin, ettei sama virhe toistu.
Vaikkapa tulevaisuuden itseohjautuvissa autoissa käytettävien tekoälysovellusten pitää kyetä vastaamaan todellisten eettisten ongelmien esittämään haasteeseen, jotta ne voivat tehdä moraalisesti hyväksyttäviä valintoja.
Onko oikein, että auto, jonka jarrut eivät toimi, tekee jalankulkijoiden hengen pelastaakseen nopean väistöliikkeen, vaikka seurauksena on ajautuminen vastaantulevien kaistalle ja ehkä kuolonkolari?
Tutkimuksessa ei ole vielä päästy niin pitkälle, että tiedettäisiin, kuinka koneet opetetaan tai ne oppivat ratkaisemaan eettisiä ongelmia ihmisiä parhaiten palvelevalla tavalla.
Delphin kehittäjäryhmä on sittemmin onnistunut parantamaan algoritmia niin, että karkeita erehdyksiä sattuu harvemmin. Tuorein versio pystyy antamaan moraalisesti hyväksyttävän vastauksen 97,9 prosenttiin etnisyyttä käsittelevistä kysymyksistä ja 99,3 prosenttiin sukupuolta käsittelevistä kysymyksistä.
Vastaukset on saatu etupäässä valkoihoisilta, englanninkielisiltä yhdysvaltalaisilta.
Delphin opetusdataa ei voida kuitenkaan pitää sataprosenttisen neutraalina.
Vastaukset on saatu etupäässä valkoihoisilta, englanninkielisiltä yhdysvaltalaisilta, eivätkä ne siten edusta muiden väestöryhmien eettisiä käsityksiä.
Tekoälystä moraalin mestari
Toinen koneoppimisen muoto on vahvistusoppiminen. Se eroaa ohjatusta oppimisesta siltä osin, että algoritmia ei opasteta oikean vastauksen etsinnässä.
Sen sijaan algoritmi ottaa oppia yksinkertaisista oletuksista.
Menetelmä kuuluu niin sanottuun syväoppimiseen, jota Googlen tietokoneohjelma AlphaGo käyttää. AlphaGo on voittanut maailman parhaita pelaajia go-lautapelissä.
AlphaGo on osannut valita voittoon johtavia pelitapoja, joita parhaatkaan pelaajat eivät ole keksineet.

Tekoäly pääsi loistamaan, kun Googlen tietokoneohjelma AlphaGo voitti vuonna 2016 go-lautapelissä maailmanmestari Lee Sedolin. Pelin aikana AlphaGo teki siirron, jota kukaan ei ollut tullut ajatelleeksi.
Uber AI Labs ja OpenAI ovat tutkineet, kuinka moraalikysymyksiä voidaan käsitellä vahvistusoppimisalgoritmeilla.
Algoritmeja ei valvota, vaan niitä opetetaan toiminnolla, joka palkitsee oikean valinnan ja rankaisee väärästä valinnasta.
AlphaGon esimerkki osoittaa, että tekoälysovellukset voivat yllättää ihmisen aivan uudenlaisella ratkaisulla.
Ei voidakaan sulkea pois sitä mahdollisuutta, että tekoäly joskus tulevaisuudessa ratkaisee vaikeita eettisiä ongelmia tuoreella tavalla.