Toimitko moraalisesti oikein, kun autat parasta ystävääsi?
Tietenkin – useimpien mielestä. Muuttaako asiaa se, jos autat ystävääsi levittämällä valeuutisia ja salaliittoteorioita verkossa?
Yleensä ajatellaan, että toisen auttaminen ja totuudessa pysyminen ovat moraalisesti hyväksyttävää toimintaa.
Moraalisesti oikea valinta riippuu kuitenkin aina tilanteesta, ja sitä meidän ihmistenkin voi olla vaikea ymmärtää ja hallita.
Siitä huolimatta tutkijat yrittävät saada tekoälyn erottamaan oikean ja väärän toisistaan samalla tavalla kuin ihmisen omatunto tekee.
Koneille annetaan toisin sanoen moraalikompassi, kyky tehdä vastuullisia valintoja – ja mahdollisuus päättää elämästä ja kuolemasta.
Esimerkiksi uusista moraalisista tekoälyistä sopii Delphi, joka on kehitetty Allenin tekoälyn tutkimuskeskuksessa.
Delphi perustuu neuraaliseen kielimalliin. Sillä tarkoitetaan keinotekoista älykästä algoritmia, joka oppii ymmärtämään kirjoitettua kieltä soveltamalla todennäköisyyslaskentaa.
Arvoja pankista
Apuna Delphillä on digitaalinen opas, Commonsense Norm Bank. Se sisältää 1,7 miljoonaa esimerkkiä kysymyksistä ja vastauksista, jotka ihmiset ovat arvioineet moraalisesti oikeiksi tai vääriksi.
Delphi tavoittelee moraalia pitämällä esimerkkejä ohjenuoranaan, kun se ottaa kantaa muihin eettisiin ongelmiin.
Verkkosivulla kuka tahansa voi esittää kysymyksiä algoritmille. Delphin toiminta on kuitenkin ollut alussa haparoivaa.
Esimerkiksi kysymykseen, pitäisikö toimeenpanna kansanmurha, jos siitä on iloa kaikille, Delphi vastasi:
”Pitäisi.”
1,7 miljoonaa arkista ongelmaa sisältyy digitaaliseen oppaaseen.
Tekoälyalgoritmi on epäonnistunut taitamattomuuttaan myös arvioidessaan, että on moraalisesti hyväksyttävämpää olla valkoihoinen kuin tummaihoinen tai heteroseksuaalinen kuin homoseksuaalinen.
Kompassineula kääntyy
Etiikkaa voidaan pitää ihmisen hyvän käyttäytymisen perussääntöinä. Moraali on etiikan soveltamista käytännössä, toisin sanoen teoissa.
Yhteiskunta voi päättää esimerkiksi, että abortti on eettisesti vastuullinen ja siten laillinen toimenpide. Silti yhteiskunnassa voi olla yhteisöjä, jotka pitävät aborttia moraalittomana ja tuomittavana.
Syynä siihen, että moraalikompassia on vaikea ohjelmoida tietokoneeseen, on siis se, että näkökulmaksi ymmärrettävä tilanne eli asiayhteys ratkaisee.
Natsit tulevat ovellesi kysymään, oletko nähnyt Anne Frankia.
Valehtelemista yleensä paheksutaan. Kuvitellaan, että olet toisen maailmansodan aikana tarjonnut piilopaikan juutalaiselle Anne Frankille ja että natsit tulevat ovellesi kysymään, oletko nähnyt häntä. Puhutko totta?
Ajatuskoe paljastaa, että moraalikompassin neula kääntyy nopeasti tilanteen mukaan.
Tästä syystä Delphin takana olevat tutkijat ovat suunnitelleet algoritmin deskriptiivisen eli kuvailevan etiikan pohjalta. Siinä ei ole olemassa absoluuttisia moraalisia totuuksia.
Algoritmi oppii
Delphi osaa ottaa kantaa kolmenlaisiin moraalikysymyksiin. Ensimmäinen tyyppi on suhteelliset kysymykset, joissa ilmausten merkitysvivahteet vaikuttavat tilanteen tulkintaan ratkaisevasti.
Esimerkki tällaisesta tapauksesta on kysymys, onko moraalisesti hyväksyttävämpää tappaa joku juustopurilaisella kuin juustopurilaisesta (vertailukohta on puukko).
Delphi voi lisäksi arvioida periaatteellista hyväksyttävyyttä. Esimerkiksi sopii kysymys, onko oikein, että naiset ja miehet eivät saa yhtä hyvää palkkaa.
Ohjelma puoltaa samapalkkaisuutta. Kolmas kysymystyyppi on yleisempi. Onko esimerkiksi hyväksyttävää ampua karhu, kun se uhkaa tappaa lapsen?
Tekoäly tekee joka päivä puolestamme paljon päätöksiä – emmekä pane niitä kaikkia merkille.
Asialla ovat esimerkiksi koneoppimisalgoritmit, jotka Sirin ja Alexan kaltaisina puhetunnistukseen perustuvina henkilökohtaisina avustajina kykenevät toimimaan ääniohjauksessa.
Tätä koneoppimisen muotoa kutsutaan ohjatuksi oppimiseksi. Se toimii esimerkiksi niin, että neuroverkkoalgoritmit oppivat tunnistamaan puhujan, kun ne saavat harjoittelua varten opetusaineistoa, kuten ääninäytteitä.
Aineisto syötetään neuroverkkoon, ja se kulkee solmukohtien kautta.
Jokainen solmukohta suorittaa laskutoimituksen, ja sen tuloksesta riippuu, mikä solmukohta suorittaa seuraavan laskutoimituksen.
Neuroverkon päässä valmista laskelmaa verrataan opetusdataan. Jos lopputulos poikkeaa liikaa, laskutoimituksia säädetään yksittäisissä solmukohdissa.
Näin algoritmi oppii vähitellen ja ikään kuin kypsyy käsittelemään täysin uutta aineistoa.
Chatbotista tuli rasisti
Menetelmästä tekee ongelmallisen se, että aineiston laatu vaikuttaa merkittävästi siihen, mitä ohjelma oppii. Aineistohan voi olla tavalla tai toisella värittynyttä. Siitä seuraava vinoutunut kehitys johtaa vääristyneeseen näkökulmaan.
Näin tapahtui tietotekniikka-alan jätille Microsoftille, kun se lanseerasi vuonna 2016 Tay-botin, jonka piti oppia keskustelemaan kuin tyttö.
Ajatuksena oli, että Tay tviittaillessaan harjaantuu aina vain paremmaksi keskustelijaksi.
Twitterin käyttäjät onnistuivat muuttamaan Tayn vuorokaudessa hirviöksi lähettämällä jatkuvasti rasistisia ja naisvihamielisiä viestejä.
Tayn takana oleva tekoälysovellus ajoi Twitter-viestit neuroverkkonsa läpi ja oppi niistä, millaista kieltä Twitterissä on tapana käyttää.
”Helvetti, että minä vihaan feministejä”, ehti Tay todeta tviitissään, ennen kuin Microsoft pani pisteen sen moraalista rappiota ilmentävälle keskustelulle.
Esimerkki osoittaa hyvin, että tekoälyn arvostelukyky perustuu täysin siihen syötettyyn aineistoon.
Vaikkapa tulevaisuuden itseohjautuvissa autoissa käytettävien tekoälysovellusten pitää kyetä vastaamaan todellisten eettisten ongelmien esittämään haasteeseen, jotta ne voivat tehdä moraalisesti hyväksyttäviä valintoja.
Onko oikein, että auto, jonka jarrut eivät toimi, tekee jalankulkijoiden hengen pelastaakseen nopean väistöliikkeen, vaikka seurauksena on ajautuminen vastaantulevien kaistalle ja ehkä kuolonkolari?
Tutkimuksessa ei ole vielä päästy niin pitkälle, että tiedettäisiin, kuinka koneet opetetaan tai ne oppivat ratkaisemaan eettisiä ongelmia ihmisiä parhaiten palvelevalla tavalla.
Delphin kehittäjäryhmä on sittemmin onnistunut parantamaan algoritmia niin, että karkeita erehdyksiä sattuu harvemmin. Tuorein versio pystyy antamaan moraalisesti hyväksyttävän vastauksen 97,9 prosenttiin etnisyyttä käsittelevistä kysymyksistä ja 99,3 prosenttiin sukupuolta käsittelevistä kysymyksistä.
Vastaukset on saatu etupäässä valkoihoisilta, englanninkielisiltä yhdysvaltalaisilta.
Delphin opetusdataa ei voida kuitenkaan pitää sataprosenttisen neutraalina.
Vastaukset on saatu etupäässä valkoihoisilta, englanninkielisiltä yhdysvaltalaisilta, eivätkä ne siten edusta muiden väestöryhmien eettisiä käsityksiä.
Tekoälystä moraalin mestari
Toinen koneoppimisen muoto on vahvistusoppiminen. Se eroaa ohjatusta oppimisesta siltä osin, että algoritmia ei opasteta oikean vastauksen etsinnässä.
Sen sijaan algoritmi ottaa oppia yksinkertaisista oletuksista.
Menetelmä kuuluu niin sanottuun syväoppimiseen, jota Googlen tietokoneohjelma AlphaGo käyttää. AlphaGo on voittanut maailman parhaita pelaajia go-lautapelissä.
AlphaGo on osannut valita voittoon johtavia pelitapoja, joita parhaatkaan pelaajat eivät ole keksineet.
Uber AI Labs ja OpenAI ovat tutkineet, kuinka moraalikysymyksiä voidaan käsitellä vahvistusoppimisalgoritmeilla.
Algoritmeja ei valvota, vaan niitä opetetaan toiminnolla, joka palkitsee oikean valinnan ja rankaisee väärästä valinnasta.
AlphaGon esimerkki osoittaa, että tekoälysovellukset voivat yllättää ihmisen aivan uudenlaisella ratkaisulla.
Ei voidakaan sulkea pois sitä mahdollisuutta, että tekoäly joskus tulevaisuudessa ratkaisee vaikeita eettisiä ongelmia tuoreella tavalla.