Kimberly White/Getty Images

Tutkija: Tekoäly syrjii naisia ja mustia

”Tekoälyä käytetään vahvistamaan vahvoilla olevien valtaa sorrettujen kustannuksella”, toteaa tietojenkäsittelytieteilijä Timnit Gebru. Google irtisanoi hänet vuonna 2020 kannanottojen takia. Nykyään hän pyrkii tekemään tekoälystä eettisemmän eli vastuullisemman.

Tietokoneet erehtyvät naisten suhteen

Kysymys 1: Olet yhdessä MIT:n Joy Buolamwinin kanssa todennut, että tekoäly tunnistaa parhaiten valkoiset miehet. Kuinka päädyitte tähän päätelmään?

Joy Buolamwini kävi laajasti läpi erilaisia kaupallisia kasvojentunnistusjärjestelmiä. Hän tutki erityisesti sukupuolenmääritysohjelmointirajapintoja (API). Ne ovat ohjelmia, jotka luokittelevat kuvan perusteella, onko henkilö mies vai nainen.

Paljastui, että tummaihoiset naiset luokiteltiin väärin paljon useammin kuin valkoiset miehet. Näiden osalta virheprosentti oli melkein nolla.

Tekniikka heijastaa kehittäjiään

Kysymys 2: Suosiiko tekoäly yleensä valkoisia miehiä?

Tekniikka kuvastaa niitä ihmisiä, jotka ovat sen luoneet, ja sitä yhteiskuntaa, jossa sitä käytetään. Kun otetaan huomioon, että naisia ja eri vähemmistöihin kuuluvia työskentelee suhteellisen vähän tekniikan alalla ja että näitä ryhmiä sorretaan joka puolella maailmaa, on myös odotuksenmukaista, että tekoäly suosii valkoisia miehiä.

Tekniikkaa käytetään vahvistamaan vahvoilla olevien valtaa alistetussa asemassa olevien kustannuksella. Ja se on selvä ongelma.

Video: Tutustu syrjivän tekniikan vaaroihin

Timnit Gebru valottaa syrjivän tekoälyn vaarallisuutta – ja esittää ongelman ratkaisun.

Algoritmit ottavat oppia syrjivistä teksteistä

Kysymys 3: Voitko mainita jonkin muun esimerkin siitä, että tekoäly syrjii naisia, kuin kasvojentunnistuksen?

Hyvä esimerkki löytyy GPT-3:n ja sen seuraajien kaltaisista suurista kielimalleista. Kielimallit on opetettu tuottamaan kirjoitettuja lauseita sellaisen aineiston pohjalta, joka koostuu sadoista miljardeista internetistä, kirjallisuudesta ja muista teksteistä peräisin olevista sanoista. Ne ovat GPT:n kehittäjien valitsemia.

Tämä tekniikka koodautuu todistettavasti joidenkin seksististen ja rasististen näkökohtien mukaan, jotka suosivat valkoista väestöä ja syrjivät naisia ja vähemmistöryhmiä.

Tekoäly voi tukea sortoa

Kysymys 4: Mitä yleistä haittaa naisille aiheutuu siitä, että tekoäly syrjii heitä?

Tekoälyä voidaan pahimmassa tapauksessa käyttää naisten oikeuksien polkemiseen ja naisten kiusaamiseen. Viimeksi mainittua nähdään esimerkiksi nopeasti leviävissä deepfake- eli syväväärennösvideoissa. Internetistä ja sosiaalisista medioista imuroituja naisten kuvia käytetään väärennetyissä pornovideoissa.

Kun asiaa tarkastellaan laajasta näkökulmasta, tekoälystä uhkaa tulla konservatiivinen voima, joka estää yhteiskuntaa kehittymästä, vaikka tavoitteen pitäisi olla juuri päinvastainen.

Tekoäly voi ottaa kasvosi kuvasta ja tehdä sinusta uskottavan videoväärennöksen eli deepfaken.

© Shutterstock

Uusi tutkimuslaitos etsii ratkaisuja

Kysymys 5: Vuonna 2021 perustamasi tutkimuslaitos DAIR kehittää tekoälyä ilman kytköksiä suuryhtiöihin. Kuinka syrjimätön tekoäly luodaan?

DAIRissa pidetään lähtökohtana ihmisiä ja heidän tarpeitaan eikä tekniikkaa. Tekoäly ei ole välttämättömyys. Meidän ei pidä kehittää tätä tekniikkaa vain siksi, että meillä on mahdollisuus. Tarkoituksenamme on tehdä yhteistyötä väestön kanssa ja kartoittaa sen tarpeet, ennen kuin alamme luoda tekoälyä.

Lisäksi meidän on mahdollista varoittaa ihmisiä olemassa olevan tekniikan vioista ilman pelkoa aiheettomasta arvostelusta, jota minä ja entinen kollegani Margaret Mitchell saimme kokea, kun olimme Googlen palveluksessa.

Syrjintä ei ole tekninen ongelma

Kysymys 6: Olet todennut, etteivät tekoälyn viat ole teknisiä ongelmia, vaan ne ovat heijastumia siitä ympäristöstä, jossa tekniikka on kehitetty. Miksi ero on tärkeä tehdä?

Fairness and Abstraction in Sociotechnical Systems -raportin mukaan tekniset ratkaisut voivat olla ”tehottomia, epätarkkoja ja joissakin tapauksissa vaarallisen sopimattomia siihen tehtävään, johon niitä käytetään yhteiskunnallisissa yhteyksissä”.

Kun teknistä järjestelmää ajatellaan abstraktina käsitteenä eikä mietitä, mihin sitä käytetään tai kuka sitä kehittää, vikojen analyysi jää kovin yksipuoliseksi. Pitää vähintäänkin kysyä: ”Tarvitaanko tätä tekniikkaa lainkaan?”

Käytämme itse päätösvaltaa

Kysymys 7: Tekoälyn kehittäjät ovat yhä enimmäkseen valkoisia miehiä. Uskotko, että tekniikka suosii heitä tulevaisuudessa vähemmän?

Haluan muistuttaa ihmisille, että tekoäly ei ole itsenäinen yksikkö, joka hallitsee itse itseään ilman ihmisen valvontaa. Kaikkeen siihen, mitä me luomme, vaikuttavat yhteiskunnan vaikuttimet ja arvot, ja mitä paremmin tämä totuus pysyy mielessä, sitä helpompi meidän on saada aikaan ratkaisuja, joista on enemmän hyötyä kuin haittaa.

Meillä on valta vetää raja ja ilmaista mielipiteemme, kun meistä tuntuu, että jotain tekniikkaa ei pitäisi käyttää – ainakaan ennen kuin sitä on muutettu niin, että se toimii yhteiskunnan ja ihmisten hyväksi.