Keinoälyssä on kyse muustakin kuin teknologisista edistysaskeleista. Nykyisin tunnustetaan laajalti, että keinoälyjärjestelmiin liittyy keskeisesti inhimillisten arvojen ylläpitäminen ja riskienhallinta. Teknologiayritykset, kuten Googlen emoyhtiö Alphabet, Amazon, Facebook, IBM, Nokia ja Microsoft, sekä useat tieteen ja teknologian maailmassa tunnetut mielipidevaikuttajat, kuten Stephen Hawking, Elon Musk ja Bill Gates uskovat, että nyt on paras aika keskustella paitsi keinoälyn mahdollisuuksista, myös sen varjopuolista ja potentiaalisista riskeistä.
Tämän vuoksi on olennaista käydä läpi eettisiä ja ajankohtaisia kysymyksiä keinoälyyn liittyen. Tässä blogiartikkelissa esitetään yhdeksän keinoälyn yhteiskunnallista riskiä.
- Työttömyys. Mitä tapahtuu työpaikkojen loppuessa?
Yleisenä trendinä on, että automaatio sysää ihmisiä pois suorittavan tason teollisista töistä kohti korkeamman jalostusarvon työtehtäviä. Esimerkiksi kuljetusalalla on monia autonomisen ajamisen kokeiluja ympäri maailmaa, jotka saavat myös pohtimaan automaation eettistä puolta. Jos autonomisen ajamisen hyödyntämisen avulla pystytään radikaalista vähentämään liikenneonnettomuuksia taikka merenkulussa alusten uppoamisia inhimillisten virheiden seurauksena, ja tämän kustannus on ihmisten työpaikkojen menetys, voidaanko lopputulos tulkita pääasiallisesti eettiseksi?
Toisaalta työpaikkojen kohdalla kyse on myös ajankäytöstä. Onko työllä ollut liian keskeinen rooli ihmiskunnan historiassa? Automaatio ja keinoäly saattavatkin tarjota ihmisille mahdollisuuden löytää elämälleen muunlaisen tarkoituksen kuin työn. Tämän kysymyksen lisäksi Algoritmitutkimuksen tiimoilta on esitetty ajatuksia, että työpaikkojen korvaantuminen on tilapäinen ongelma, joka on toistunut historian saatossa useita kertoja.
- Epätasa-arvo. Miten yhteiskunnassa jaetaan keinoälystä kertyvä varallisuus?
Nykyinen vallitseva talousjärjestelmä perustuu ihmisten ajan ja kykyjen panoksesta saatavaan korvaukseen, joka useimmiten arvotetaan tuntipalkan muodossa. Mutta tulevaisuudessa keinoälyä hyödyntämällä yritykset voivat merkittävästi vähentää riippuvuuttaan ihmistyövoimasta. Sen seurauksena yksilöt, joilla on eniten omistuksia keinoälyyn keskittyneissä yrityksissä, keräävät suurimmat voitot. Jakaantuuko maailma siten entistä enemmän voittajiin ja häviäjiin?
Taloudellisen epätasa-arvon kasvu on jo nyt nähtävissä esimerkiksi startup-yritysten perustajien kohdalla, jotka keräävät valtaosan luomastaan taloudellisesta hyödystä. Esimerkiksi vuonna 2014 suurin piirtein samaa liikevaihtoa kerryttivät USA:ssa kolme Detroitin suurinta yritystä kuin kolme suurinta Silicon Valleyn startupia – sillä erotuksella, että jälkimmäisissä yrityksissä työskenteli 10 kertaa vähemmän työntekijöitä.
Jos haluamme kehittää ”työnteon jälkeistä” yhteiskuntaa, miten luomme siihen soveltuvan reilun talousjärjestelmän? Tämä vanha marxilainen kysymys tuotantotekijöiden omistajuudesta ja niistä koituvan varallisuuden jakautumisesta nostaa siis päätään myös keinoälyn kontekstissa. Ehdotuksena on esitetty mm. universaalia perustuloa; toisaalta siihen liittyy useita ongelmia, kuten sosialististen talouksien toimettomuuden ongelma.
- Ihmiskunta. Miten keinoäly vaikuttaa käyttäytymiseemme?
Keinoälyyn perustuvista boteista tulee jatkuvasti kehittyneempiä mallintamaan ihmisten välisiä kanssakäymisiä. Vuonna 2014 botti nimeltä Eugene Goostman voitti Turingin testin ensimmäistä kertaa. Goostman sai yli puolet häntä arvioinutta ihmistä luulemaan, että he puhuvat aidolle henkilölle.
Kyseinen virstanpylväs tuskin jää viimeiseksi. Tälläkin hetkellä moni yritys hyödyntää esimerkiksi chat-botteja asiakaspalvelussaan (Suomessa esimerkiksi IF Vakuutusyhtiön ”Emma”). Ihmisten kapasiteetti osoittaa huomiota ja huolenpitoa toisilleen on rajallinen, mutta botit pystyvät panostamaan niihin rajattomasti ja ovat siksi kenties ihanteellisempia asiakaspalvelijoita. On kuitenkin vielä kyseenalaista, miten tehokkaasti botit voivat ratkoa monimutkaisia asiakasongelmia sekä ennen kaikkea osoittamaan asiakaspalvelutyössä tärkeää empatiakykyä.
Joka tapauksessa voimme jo huomata, miten keinoäly onnistuu aktivoimaan aivojemme palkintojärjestelmiä. Esimerkkeinä klikkiotsikot, joiden tarkoituksena on testata erilaisten viestien toimivuutta mielenkiintomme herättäjänä, leviävät tehokkaasti sosiaalisen median uutisvirta-algoritmien välityksellä. Samankaltaisia keinoja käytetään myös muiden ohella luomaan videopeleistä addiktiivisia eli riippuvuutta aiheuttavia. Vaikka näissä esimerkeissä ihminen varsinaisesti luo sisällön, kone pystyy eri sisällöistä valitsemaan sen kaikkein koukuttavimman.
- Keinoälyttömyys. Miten voimme estää virheitä?
Älykkyys muodostuu oppimisen kautta, oli kyseessä ihminen tai keinoäly. Järjestelmillä on yleensä harjoitusjakso, joissa ne ”opetetaan” havaitsemaan oikeita kuvioita ja toimimaan niille syötetyn komennon perusteella. Kun järjestelmän harjoitusjakso on valmis, se voidaan siirtää haastavampaan testivaiheeseen ja sen jälkeen ottaa julkiseen käyttöön.
Järjestelmiä on kuitenkin mahdollista huijata tavoilla, joissa ihminen ei erehtyisi. Esimerkiksi satunnaiset pistekuviot voivat johtaa keinoälyn havaitsemaan jotain, mitä ei tosiasiassa ole olemassa. Jos haluamme luottaa keinoälyyn tulevaisuudessa entistä enemmän, on syytä varmistaa, että se toimii kuten suunniteltu, ja etteivät ihmiset voi saada sitä valtaansa omien etujensa ajamista varten. Ns. blackhat-hakukoneoptimointi eli Google-hakutulosten keinotekoinen manipulointi ja valeuutisten levittäminen ovat esimerkkejä algoritmipohjaisten järjestelmien manipulaatiosta, jolla voi olla laajamittaisia yhteiskunnallisia vaikutuksia. Vaikka ihmiset yhtäältä tietävät, ettei kaikkeen netissä vastaan tulevaan voi uskoa, toisaalta informaatiokuplaan ajautuminen ja sitä seuraava polarisoituminen on yllättävän yleistä koulutustasosta riippumatta.
- Robotit ja syrjintä. Miten eliminoimme keinoälyn puolueellisuuden?
Vaikka keinoäly kykenee nopeuteen ja suorituskykyyn, joka on ihmisen ulottumattomissa, sen ei voida luottaa olevan aina reilu ja neutraali. Esimerkiksi taannoin ohjelmisto, jota käytettiin tulevien rikollisten ennustamiseen, osoitti ennakkoluuloja mustia kohtaan. On tärkeä muistaa, että keinoälyn järjestelmät ovat ihmisten luomia. Ihmiset voivat olla myös puolueellisia ja tuomitsevia, ja vähintääkin erehtyväisiä. Itse asiassa algoritmi voisi teoriassa lievittää ihmisluonteen haitallisia puolia, sillä koneen päätöksentekoprosessissa ei ole mukana tarkoitusperäistä epäluotettavuutta.
- Turvallisuus. Miten pidämme keinoälyn turvassa vahingollisilta tahoilta?
Keinoälyn kehittyessä jokainen maailman valtio, myös Suomi, haluaa sen hyödyistä osansa. Oli kyse sitten ihmissotilaiden korvikkeiksi tarkoitetut roboteista, itseohjautuvista asejärjestelmistä tai keinoälyjärjestelmistä, keinoälyä voidaan käyttää monenlaisiin tarkoitusperiin. Tulevaisuuden konflikteja ei käydä vain maanpinnalla, kuten esimerkiksi kauko-ohjattavat dronet ovat osoittaneet. Siksi kyberturvallisuudesta muodostuu myös keinoälyyn liittyvän keskustelun tärkeä osa-alue.
- ”Pahat” lampunhenget. Miten suojaudumme seurauksilta, joita ei oltu tarkoitettu?
Mitä jos keinoäly kääntyisi ihmiskuntaa vastaan? Se ei välttämättä tarkoita ”pahaa” samassa mielessä kuin ihminen toimisi tai tapaa, jolla keinoälyn luomat onnettomuudet dystooppisissa elokuvissa esitetään. Sen sijaan on mahdollista kuvitella tilanne, jossa kehittyneestä keinoälystä tulee ”lampunhenki”, joka voi täyttää toiveita tai komentoja, mutta myös kauhistuttavilla seurauksilla.
Silloin kyseessä saattaa pahanteon sijaan olla kuitenkin kyse väärinymmärryksestä ja kontekstin ymmärtämättömyydestä. Kuvittele esimerkiksi keinoälyjärjestelmä, jolle on annettu komennoksi hävittää syöpä maailmasta. Prosessoituaan asiaa se muodostaa kaavan, joka tosiasiallisesti hävittää syövän – tuhoamalla kaikki ihmiset. Tavoite täytyy, mutta tuskin ihmisten tarkoittamalla tavalla.
- Singulariteetti. Miten pystymme hallitsemaan monimutkaisia keinoälyjärjestelmiä?
Ihmiskunnan valta maailmassa perustuu kekseliäisyyteen ja älykkyyteen. Pärjäämme paremmin kuin isommat, nopeammat ja vahvemmat eläimet, koska pystymme kontrolloimaan ja ehdollistamaan niitä.
Mutta onko keinoälyllä jonain päivänä vastaava etu meihin nähden? Emme voi laskea kaikkea sen varaan, että vain nappia painamalla suljemme sen, koska tarpeeksi kehittynyt keinoälyjärjestelmä osaa odottaa sellaista ja puolustaa itseään. Tätä jotkut tutkijat kutsuvat singulariteetiksi, joka voidaan määritellä ajankohtana, jolloin ihmiset eivät enää ole älykkäin olento maan päällä.
- Robottien oikeudet. Kuinka määrittelemme keinoälyn humaanin kohtelun?
Onko roboteilla oikeuksia? Vaikka neurotieteilijät työskentelevät vieläkin tietoisuuden salaisuuksien selvittämiseksi, ymmärrämme jo monia perusmekanismeja, kuten kehun ja moitteen järjestelmiä. Tavallaan kehitämme nyt tekoälyä kepin ja porkkanan avulla. Esimerkiksi algoritmin oppimisen vahvistumista palkitaan samalla tavoin kuin koiraa sen kasvatuksessa: oppimista vahvistetaan virtuaalisella palkkiolla. Tällä hetkellä kyseiset mekanismit ovat vielä lapsenkengissä, mutta niistä tulee monimutkaisempia ja arkielämää lähestyviä teknologian kehittyessä.
Kun koemme keinoälyn olevan entiteetti, joka voi muodostaa käsityksiä, tuntea ja toimia niihin perustuen, niin oikeudellisen aseman pohtiminen ei ole enää kaukaista. Pitäisikö keinoälyä kohdella kuin eläimiä tai vertaistaan älykkyyttä? Mitä ajattelemme tunteisiin kykenevän keinoälyn kärsimyksen tasoista? Myös geneettiset algoritmit, evoluutioalgoritmit, joita käytetään järjestelmän kehittämisessä etsimällä niistä paras iteraatio, joka selviytyy, kun taas huonosti menestyneet poistetaan, edustavat monimutkaisia eettisiä ongelmia. Missä kohtaa alamme pitämään geneettisiä algoritmeja massamurhana? Tällä hetkellä yleisenä rajanvetona näissä kysymyksissä pidetään tietoisuutta – niin kauan kuin robotti tai kone ei ole tietoinen itsestään samassa mielessä kuin ihminen, tuntea kipua tai toimia itsenäisesti, sitä ei pidetä olentona, jolla olisi itseisarvo.
Johtopäätös
Edellä mainittuja keinoälyn riskejä tulee pohtia ja niiden eettistä ulottuvuutta tarkastella vakavasti. Keinoälyllä on valtava potentiaali ja on yhteiskunnan tehtävänä on saada sen potentiaali edistämään kaikkien ihmisten elämää, parhaalla mahdollisella tavalla. Tämä edellyttää laajamittaista yhteistyötä tutkijoiden ja elinkeinoelämän välillä.
***
Artikkeli perustuu World Economic Forumin katsaukseen keinoälyn eettisistä ongelmista. Alkuperäinen artikkeli ”Top 9 ethical issues in artificial intelligence” on luettavissa täältä.