Koneellisen päätöksenteon hyvät ja huonot puolet

Marc Andreessenin kuuluisan software eats the world –lausahduksen (so. ohjelmat syövät maailman) mukaisesti ihmisresursseja korvataan jatkuvasti ohjelmallisilla ratkaisuilla. Tämä ilmiö näyttäytyy kaikilla yhteiskunnan alueilla, mutta yksi merkittävimmistä alueista on päätöksenteon koneellistuminen ja automatisointi. Tässä artikkelissa kartoitan lyhyesti koneelliseen päätöksentekoon liittyviä mahdollisuuksia ja riskejä.

 Mahdollisuudet  Riskit
 puolueeton  tunteeton
 nopea  arvaamaton
 skaalautuva  manipulaatioaltis

Taulukko 1 Koneellisen päätöksenteon mahdollisuudet ja riskit

Mahdollisuudet

Teoreettisesti koneelliseen päätöksentekoon liittyy merkittäviä tehokkuushyötyjä johtuen koneiden ylivertaisesta laskentakapasiteetista, loogisten virhepäätelmien vähäisyydestä ja ihmisille ominaisen asenteellisuuden puutteesta. Koneet suorittavat saamansa ohjeet täsmällisesti ja tyypillisesti virheettä, kun taas ihmiset tekevät usein loogisia ja tilastollisia virheitä. Ihmiset ohjautuvat suurelta osin viettien, tunteiden ja alitajuisen intuition varassa, kun taas koneet noudattavat jäljitettävissä olevia toimintareseptejä, jotka pohjautuvat ennalta määrättyihin käskyihin ja numeeriseen dataan. Tästä syystä koneiden päätöksentekoprosessin voidaan sanoa olevan puolueeton [1].

Miksi puolueettomuus on niin tärkeää? Itse näen sen niin, että parhaimmillaan algoritminen päätöksenteko voisi ratkaista inhimillisen käyttäytymisen ”ikuisuusongelmia”, kuten viheliäät ongelmat (Rittel & Webber, 1973) ja yhteismaan ongelman [1] (Hardin, 1968). Puolueeton algoritmi voisi olla myös tehokas sovittelija poliittisissa konflikteissa (Miorandi ym., 2014) ja lainsäädännön soveltajana (Stray, 2016). Edellä mainittujen ongelmien nähdään olevan perimmäistä laatua, eli johtuvan ihmisluonnon synnynnäisistä vajavaisuuksista. Sen vuoksi niiden korjaaminen ihmispäätöksenteolla on äärimmäisen vaikeaa.

Poliittiset ongelmat ja muut sosiaaliset konfliktitilanteet voidaan usein mallintaa peliteoreettisina tilanteina, joiden ainoa ratkaisu on kompromissi eli palkkion maksimoinnista (ts. omasta edusta) tinkiminen. Historia ja myös nykypäivän globaali tilanne osoittavat, että ihmiset eivät tähän maailmanlaajuisessa mittakaavassa pysty. Teoriassa kompromissitasapaino on erittäin helppo rikkoa yhdenkin opportunistisen tai epäloogisen [3] agentin toimesta. Mikäli päätöksenteko luovutetaan koneelle, joiden toimintalogiikan tiedetään olevan neutraali ja jonka päätäntävalta siitä syystä hyväksytään, koneen tuottama kompromissiratkaisu voisi saavuttaa kestävän tasapainon.

Koneet kykenevät myös tekemään miljoonia päätöksiä sekunnissa – etenkin klustereissa tai hajautetuissa järjestelmissä tehokkuus moninkertaistuu ja päätökset voidaan myös rajapintojen kautta panna toimeen välittömästi. Esimerkiksi mainoshuutokauppa-algoritmi kierrättää mainosnäytön  200 millisekunnissa kymmenien verkostojen ja data-alustojen läpi, ja mainosvaihdanta tapahtuu jo ennen kuin sivu on latautunut loppukäyttäjälle. Tällainen huutokauppa ei luonnollisesti olisi mahdollinen ihmisten toteuttamana.

Riskit

Kaikista mahdollisuuksista huolimatta algoritmit sisältävät myös erilaisia riskejä. Algoritmit ovat ensinnäkin ihmisten luomia, joten niiden toimintaan saattaa ajautua epäsuotuisia elementtejä. Koska ihmiset ovat ajattelultaan epätäydellisiä, myös ihmisten luomien koneiden ja algoritmien voidaan ajatella ”perivän” tätä epätäydellisyyttä. Ohjelmissa voi olla sekä suoria koodausvirheitä (bugeja) että epäsuoria suunnitteluvirheitä, joiden vuoksi koneen tekemät päätökset eivät muodostu halutun kaltaisiksi.

Lisäksi datapohjaiset algoritmit ovat alttiita väärinkäytöksille, kuten järjestäytyneelle manipuloinnille. Tästä esimerkkinä on etenkin 2000-luvun alun hakukoneoptimointi, joka pyrki kaikin keinoin nostamaan tiettyjen sivujen sijoitusta hakutulossivuilla. Sittemmin hakukoneoptimoinnista on tullut eettisempää toimintaa, mutta vain koska manipulointiin on aikoinaan määrätietoisesti puututtu esimerkiksi Googlen toimesta (ja puututaan yhä). Algoritmien tietoinen manipulointi on yleistä toimintaa eri verkkoalustoilla, mutta koneellinen päätöksenteko voi vääristyä myös tahattoman toiminnan tuloksena. Googlen algoritmi saattaa esimerkiksi oppia yhdistämään afrikkalaisamerikkalaiset nimet rikoksiin, koska niitä mainitaan useammin rikosten yhteydessä. Tällöin algoritmi voi leimata kyseisen ryhmän rikolliseksi. Toisin sanoen datalähteet saattavat olla vääristyneitä tai sisältää puolueellisuutta, jolloin myös koneen tulkinta vääristyy. Kuitenkin kyseessä on koneen näkökulmasta ainoastaan tilastollinen yleistys, eli looginen lopputulos. Ainoastaan ihminen voi tulkita lopputuloksen olevan jollain tavalla kyseenalainen.

Aikaisemmin mainitsin, että koneiden virhealttius on ihmisiä matalampi. On kuitenkin tehtäviä, joissa ihmisen ”luokittelutarkkuus” on toistaiseksi konetta parempi. Esimerkiksi äänen tulkitsemisessa kone voi saavuttaa 80 % tarkkuuden, kun ihminen saavuttaa lähes poikkeuksetta 100 %:n tarkkuuden äidinkielensä ymmärtämisessä. Vastaavanlaisia tilanteita on useita. Ihmiset esimerkiksi tunnistavat tunteita konetta tehokkaammin, ymmärtävät käsitteiden kontekstit syvällisemmin, ja keskimäärin kykenevät arvioimaan päätösten moraalisia seurauksia, ja sen vuoksi välttää kollektiivisesti haitallisia toimintamalleja. Koska kone on arvoneutraali ja tunteeton, se ei välitä niistä lopputulemista, joita ei olla kvantifioitu negatiivisen painon omaavina muuttujina. Kone pitäisi siis tutustuttaa moraaliin ja etiikkaan, mitä ei ainakaan toistaiseksi olla onnistuttu tekemään. Asia ei myöskään ole aivan yksioikoinen, vaikka keksittäisiinkin keino arvojen ja normien koneelle opettamiseksi – törmäämme silloin nimittäin universaalien ja subjektiivisten arvojen dilemmaan [4].

Aikaisemmin mainitsin myös, että koneet noudattavat määriteltyjä reseptejä päätöksiä tehdessään, ts. niiden toimintalogiikka tunnetaan hyvin ja sitä voidaan tarvittaessa muokata. Tämä seikka ei välttämättä enää päde ns. syväoppimisen (deep learning) kohdalla. Nämä oppimismallit pohjautuvat monikerroksisiin neuroverkkoihin, joiden toiminta ei ole enää tarkalleen mallinnettavissa. Kone voi siis antaa arvaamattomia tuloksia, joita algoritmin kehittäjä ei pysty ennustamaan. Esimerkiksi Googlen käännösalgoritmi kehitti oman metakielen; tarkalleen ei osata sanoa kuinka se sen teki. Lienee selvää, että mikäli päätösten laatua ei kyetä ennustamaan tarkasti, arvaamattomuus muodostaa erilaisia yhteiskunnallisia ja sosiaalisia riskejä. Tämän vuoksi koneiden päätöksentekoa täytyy valvoa ja pyrkiä kehittämään eri tilanteisiin sopivaksi.

Kone Ihminen
puolueeton  puolueellinen
 nopea  hidas
 looginen  epälooginen

Taulukko 2  Kone vs. ihminen – koneen edut

Ihminen Kone
empaattinen tunteeton
oikeudenmukainen arvoneutraali
 suhteellisuudentajuinen  naiivi

Taulukko 2 Kone vs. ihminen – ihmisen edut

Sekä kone että ihminen ovat manipuloitavissa, ja jopa samankaltaisella tavalla. Ihmiselle voidaan syöttää väärää tietoa (vrt. propaganda) ja koneelle harhaanjohtavaa dataa, ja lopputuloksena kummankin päätöksenteko vääristyy. Näiden kahden olion välillä on kuitenkin ratkaiseva ero: kritiikki ja kyseenalaistaminen. Ihmiselle on ominaista vallitsevien totuuksien kyseenalaistaminen ja toisinajattelu, kun taas koneet uskovat kaiken mitä niille kerrotaan. Klassinen esimerkki tästä on Microsoftin tekoälybotti Tay, joka lyhyen ajan sisällä käännytettiin kohteliaasta botista rasistisia vihailmaisuja viljeleväksi psykopaatiksi. Tay kuitenkin suoritti juuri sitä johon se oltiin ohjelmoitu: ihmisiltä oppimiseen. Tätä voidaan kutsua Candide-ongelmaksi – nimi tulee Voltairen vuonna 1759 kirjoittamasta kirjasta, jonka päähenkilö joutuu matkoillaan toistuviin ongelmiin lapsenuskonsa vuoksi.

Mikäli Candide-ongelma halutaan ratkaista, laajalle keinoälylle on kyettävä kehittämään suhteellisuudentajua. Sosiaalisissa ympäristöissä tämänkaltaiset ongelmat korostuvat, koska ne eivät ole lineaarisesti mallinnettavissa olevia matemaattisia yhtälöitä, kuten esimerkiksi Internet-mainonnan optimointi. Voidaan missä määrin sosiaalisten ilmiöiden redusointi algoritmisiin malleihin onnistuu, ja missä määrin joudutaan yhä turvautumaan ihmisiin algoritmisen päätöksenteon kaitsijana. Juuri tällä hetkellä näiden kahden olion yhdistäminen tuottaa parhaan lopputuloksen [5].

Viittaukset:

[1] Huomaa, että puolueeton prosessi ei tarkoita etteivätkö päätökset olisi puolueellisia, ts. jonkin ryhmän edun vastaisia.
[2] Yhteisten resurssien eettinen ja tehokas käyttö.
[3] En käytä perinteistä termiä ”rationaalinen” tai ”epärationaalinen”, koska peliteoriassa rationaalinen pelaaja pyrkii nimenomaan maksimoimaan omaa hyötyään, ja sen vuoksi pattitilanteisiin päädytään. ”Looginen” tässä yhteydessä tarkoittaa konfliktin ratkaisuun pyrkivää strategiaa.
[4] Kenen arvot ovat oikeat? Ovatko esimerkiksi liberaalit aina oikeassa ja konservatiivit aina väärässä?
[5] Kutsun tätä kone-ihmispäätöksenteon hybridimalliksi.

Vastaa

Täytä tietosi alle tai klikkaa kuvaketta kirjautuaksesi sisään:

WordPress.com-logo

Olet kommentoimassa WordPress.com -tilin nimissä. Log Out /  Muuta )

Google+ photo

Olet kommentoimassa Google+ -tilin nimissä. Log Out /  Muuta )

Twitter-kuva

Olet kommentoimassa Twitter -tilin nimissä. Log Out /  Muuta )

Facebook-kuva

Olet kommentoimassa Facebook -tilin nimissä. Log Out /  Muuta )

Muodostetaan yhteyttä palveluun %s