Category: Suomeksi

Algoritmien läpinäkyvyyden ja vastuullisuuden ohjenuorat

Kari Haakana (@Karde) piti esityksen Kone Säätiön ja Kaute-säätiön järjestämässä ”Algorytmittyvä elämä” -tilaisuudessa Helsingissä (12.5.2017). Kari mainitsi USACM:n (Association for Computing Machinery US Public Policy Council) julkaiseman ohjeistuksen algoritmien läpinäkyvyydelle ja vastuullisuudelle. Tietääkseni sitä ei ole vielä käännetty suomeksi, joten päätin kääntää sen. Alla ohjeistus.

Miksi algoritmien salaisuuksia ei paljasteta?

ACM kirjoittaa, että algoritmien läpinäkymättömyyteen on olemassa useita syitä, kuten 1) tekniset syyt (algoritmin toimintaa ei ole helppo selittää), 2) taloudelliset syyt (liikesalaisuudet estävät algoritmien toiminnan paljastamisen), ja 3) sosiaaliset syyt (tietojen paljastaminen voi rikkoa odotuksia yksityisyydensuojasta). Lisään tähän neljännen: 4) tietojen paljastaminen voi rikkoa lakeja yksityisyydensuojasta tai palvelun itse määrittelemiä käyttöehtoja. Lisäksi on huomioitava, että monet algoritmiset edistysaskeleet on julkaistu joko avoimissa konferenssi- tai journaalijulkaisuissa (ks. arxiv.org) tai avoimen lähdekoodin alla (esim. Google, Facebook, Airbnb).

Algoritmien läpinäkyvyyden ja vastuullisuuden ohjenuorat

  1. Tietoisuus: Analyyttisten järjestelmien omistajien, suunnittelijoiden, rakentajien, käyttäjien ja muiden sidosryhmien tulisi olla tietoisia mahdollisista ennakkoluuloista, jotka liittyvät niiden suunnitteluun, käyttöönottoon ja käyttöön sekä potentiaalisiin haittoihin, joita niiden puolueellisuus voi aiheuttaa yksilöille ja yhteiskunnalle.
  2. Pääsy ja oikeussuojakeinot: Lainsäätäjiä olisi kannustettava sellaisten mekanismien käyttöönottoon, jotka mahdollistavat koneellisten päätösten kyseenalaistamisen ja oikeussuojan antamisen yksilöille ja ryhmille, joita koneelliset päätökset mahdollisesti haittaavat.
  3. Vastuullisuus: Organisaatioiden tulisi olla vastuussa käytettävien algoritmien tekemistä päätöksistä, vaikka ei olisikaan mahdollista selittää yksityiskohtaisesti, miten algoritmit tuottavat tuloksensa.
  4. Selitys: Algoritmista päätöksentekoa käyttäviä järjestelmiä ja organisaatioita kannustetaan tuottamaan selityksiä sekä algoritmin suorittamista toimenpiteistä että yksittäisistä päätöksistä. Tämä on erityisen tärkeää julkishallinnon yhteydessä.
  5. Tietojen alkuperä: Algoritmien kehittäjien tulisi dokumentoida, kuinka koneoppimismallien harjoitteluaineisto kerättiin, sekä arvioida ihmisen tai koneellisen tiedonkeruuprosessin aiheuttamia mahdollisia vääristymiä. Tietojen julkinen tarkastelu tarjoaa mahdollisuuden korjata mallien aineistosta johtuvia virheitä. Kuitenkin huoli yksityisyyden suojasta, liikesalaisuuksien suojelemisesta tai sellaisten toiminnallisuuksien paljastamisesta, jotka voivat antaa pahaa tarkoittaville toimijoille mahdollisuuden hyväksikäyttää järjestelmää, voivat oikeuttaa rajoittamaan pääsyn päteviin ja luotettaviin henkilöihin.
  6. Tarkastettavuus: Mallit, algoritmit, tiedot ja päätökset on dokumentoitava siten, että ne voidaan ulkopuolisen tahon toimesta tarkastaa tapauksissa, joissa haittaa epäillään.
  7. Validointi ja testaus: Organisaatioiden tulee käyttää uskottavia menetelmiä malliensa vahvistamiseen ja dokumentoida nämä menetelmät ja tulokset. Erityisesti niiden tulisi tasaisin väliajoin suorittaa testejä arvioidakseen ja määrittääkseen, aiheuttaako malli yhteiskunnallisia haittoja. Koneellista päätöksentekoa soveltavia organisaatioita kannustetaan tekemään tällaisten testien tulokset julkiseksi.

Alkuperäinen lähde: https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf

Kuinka tunnistaa valeuutinen?

Facebook julkaisi hiljattain ohjeita käyttäjille valeuutisten tunnistamiseksi. Tarkemmin sanottuna ohjenuoria on kymmenen. Ne pohjautuvat Facebookin tekemään työhön valeuutisten tunnistamiseksi, ja perustuvat yleisiin tuntomerkkeihin. Ohjenuorat ovat alla, suomensin ne tästä lähteestä.

Mikä on valeuutinen?

Valeuutinen tarkoittaa uutisen kaltaista väärää informaatiota, jonka levittämisellä on usein poliittisia tarkoitusperiä. Valeuutinen voidaan siis ymmärtää propagandan yhtenä muotona, ja valeuutisten levittäminen sosiaalisessa mediassa on osa informaatiosodankäyntiä, jossa eri ryhmien mielipiteisiin pyritään vaikuttamaan jonkin tarkoitusperän edistämiseksi.

Facebookin ohjeet valeuutisten tunnistamiseksi

1. Ole skeptinen otsikoista. Valeuutisilla on usein tarttuvia otsikoita, ja niissä käytetään isoja kirjaimia ja huutomerkkejä. Jos otsikon väite vaikuttaa epäuskottavalta, se luultavasti on.

2. Lue tarkasti URL-osoite. Keksitty tai luotettavaa lähdettä matkiva URL-osoite voi olla varoitusmerkki vääristä uutisista. Monet valeuutissivustot jäljittelevät aitoja uutislähteitä tekemällä pieniä muutoksia URL-osoitteeseen.

3. Kiinnitä huomiota lähteeseen. Varmista, että juttu on sellaisen lähteen kirjoittama, jonka luotettavuus on uskottava. Jos juttu tulee tuntemattomasta organisaatiosta, tutustu sen ”Tietoja” -osioon saadaksesi lisätietoja.

4. Varo epätavallista muotoilua. Monilla valeuutissivustoilla on kirjoitusvirheitä tai epäilyttävän näköiset verkkosivut. Lue huolellisesti, jos näet nämä merkit.

5. Epäile valokuvia. Valeuutiset sisältävät usein manipuloituja kuvia tai videoita. Joskus kuva voi olla aito, mutta otettu pois asiayhteydestä. Voit etsiä valokuvaa tai kuvaa esimerkiksi Google-kuvahaulla tarkastaaksesi, mistä se on peräisin.

6. Tarkista päivämäärät. Väärennetyt uutiset voivat sisältää aikajaksoja, jotka eivät ole uskottavia, tai tapahtumapäivämääriä, jotka ovat muuttuneet.

7. Tarkista todistusaineisto. Tarkista tekijän lähteet varmistaaksesi, että ne ovat tarkkoja. Todisteiden puute tai tuntemattomien asiantuntijoiden käyttö voi paljastaa valeuutisen.

8. Lue muita lähteitä. Jos mikään muu uutislähde ei raportoi samaa juttua, se saattaa merkitä, että juttu on väärä. Jos juttu raportoidaan useista luotettavista lähteistä, se on todennäköisemmin totta.

9. Onko juttu vitsi? Joskus valeuutisia voi olla vaikea erottaa huumorista tai satiirista. Tarkista, onko lähde tunnettua parodia ja viittaavatko jutun yksityiskohdat ja sävy siihen, että juttu on huumoria.

10. Jotkut jutut ovat tahallaan vääriä. Ajattele kriittisesti lukemaasi ja jaa vain uutisia, joita pidät uskottavina.

Lue lisää

Facebook (6.4.2017). Working to Stop Misinformation and False News: https://newsroom.fb.com/news/2017/04/working-to-stop-misinformation-and-false-news/

Facebook (6.4.2017). A New Educational Tool Against Misinformation: https://newsroom.fb.com/news/2017/04/a-new-educational-tool-against-misinformation/

Valheenpaljastaja: Valheet leviävät faktoja nopeammin – Facebookin faktantarkistus ei toimi: http://yle.fi/aihe/artikkeli/2017/04/21/valheenpaljastaja-valheet-leviavat-faktoja-nopeammin-facebookin-faktantarkistus

Algoritmien riskit: Ratkaisuja pehmeistä tieteistä

Minua haastateltiin hiljattain Kauppalehteen. Eräs jutun lukijakommentti oli:

Mikä ihmeen humanisti-tutkija tätäkin tutkii? Saisivat pysyä kaukana luonnontieteiden alalta tuollaiset teknofoobikot, koska niissä hallitsee logiikka, ei tunne.

Yhteiskunnallisen keskustelun taso eri verkkomedioissa on silminnähden matala: Ihmiset pilkkaavat toisiaan ja tuntuvat haastavan riitaa useammin kuin suhtautuvan asioihin järkevästi. Omaa pahaa oloa puretaan kärkeviin kommentteihin, jotka eivät kuitenkaan saa ketään paremmalle mielelle. Suuri enemmistö lukijoista pysyy hiljaisena, ja tarkkailee tätä kehitystä surullisin mielin.

Tämän kirjoituksen aiheena ei kuitenkaan ole verkkokeskustelun alennustila (se tarvitsee oman artikkelinsa!), vaan tuon kommentin asiaydin. Eli argumentti: ”Humanistien ei tulisi osallistua teknologian kehittämiseen, koska he eivät siitä mitään ymmärrä.”

Ensimmäinen osa on mielestäni väärä, mutta jälkimmäisessä on pieni ripaus totuutta (ja juuri siksi poikkitieteellistä tutkimusta tarvitaan).

Miksi päätelmä on väärä? Koska eri tieteenhaaroilla on valtavasti annettavaa teknologian ja yhteiskunnan kohtaamisen problematiikkaan. Tässä muutamia esimerkkejä kysymyksistä, joihin eri tieteenalat voivat tarjota vastauksia.

  • Filosofia: Mikä on oikea ja väärää? Mihin ihmiskunnan tulisi pyrkiä? Mikä on kehityksen tarkoitus? Millaisia argumentteja koneet pystyvät käsittelemään?
  • Sosiologia: Miten ryhmäpolarisaatio ilmenee? Miksi? Miten sitä voidaan ehkäistä? (Mitä muita merkittäviä sosiologisia ilmiöitä ilmenee, joita algoritmien suunnittelijoiden tulisi huomioida?)
  • Psykologia: Miten ihmiset havainnoivat järjestelmiä? Mitä kognitiivisia ja neurologia prosesseja ilmenee ihmisen ja koneen välisessä vuorovaikutuksessa? Kuinka kone voisi oppia ymmärtämään tunteita? Kuinka ihminen oppii? Miten alustat ja algoritmit vaikuttavat yksilöiden tunnetiloihin?
  • Politiikan tutkimus: Kuinka kansalaiset suodattavat poliittista informaatiota sosiaalisessa mediassa? Miten se vaikuttaa päätöksentekoon? Kuinka massaviestintä ja propaganda voi ilmetä algoritmien ja alustojen välityksellä?
  • Kauppatieteen tutkimus: Miten kuluttajat toimivat eri alustoilla? Miten vaihdantaa voidaan helpottaa algoritmien avulla? Miten algoritmit ratkaisevat kohtaanto-ongelmia?

Kaikki edellä mainitut eivät ehkä ole ”humanistitieteitä” sanan tarkassa merkityksessä, mutta ihmistieteitä kylläkin. Koko jutun pointti on se, että järjestelmät suunnitellaan loogisesti mutta altistetaan ympäristölle, joka toimii epäloogisesti. Täydellisessä maailmassa ei tarvittaisikaan ihmistutkimusta, mutta tässä maailmassa, jossa elämme, on järkevää pyrkiä parantamaan järjestelmien toimintaa laajemman ihmisymmärryksen avulla. Sillä on merkitystä, näemmekö ihmisen käyttäjänä, yksilönä vai strategisena toimijana.

Ihmistieteiden ja tietojenkäsittelytieteen välillä on kuilu osaajien erilaisesta taustasta johtuen. Mutta siksi juuri tarvitaan rajat rikkovaa, ”humanistista” tutkimusta tietojärjestelmistä.

Suomen asema kansainvälisessä tekoälykilpailussa

Mikä on tilanne? Tällä hetkellä koneälyn kehittymistä kontrolloi kourallinen amerikkalaisia suuryrityksiä. Pidän pääministeri Sipilän ulostuloa Suomen tekoälystrategiasta hyvänä. Nokian myötä Suomi, ja oikeastaan koko Eurooppa, menetti ainoan merkittävän digitaalisen ekosysteeminsä. Nyt data ja alustat ovat amerikkalaisten hallussa. Tällä voi olla poliittisia vaikutuksia (mielipiteisiin vaikuttaminen, NSA-tyyppinen seuranta) taloudellisten vaikutusten (voittojen kotiuttaminen veroparatiiseihin, vrt. Google ja Facebook) lisäksi.

Sääntelyllä homma hoitoon? Sääntelyn lisääminen kotimarkkinoilla tai EU-tasolla ei kuitenkaan ole oikea tapa vastata. Sääntelyn sijaan tarvitaan kilpailukykyä – eurooppalaisten pitää kyetä haastamaan amerikkalaiset yritykset tekoälyn kehittämisessä. Samaa tekee myös Kiina, joka esimerkiksi tukee Baidu-hakukoneen tekoälykehitystyötä – näiden keinojen tavoitteena on pysyä mukana tekoälykilvassa. Tulevaisuuden maailmassa voi olla useita eri tekoälyratkaisuja, jotka kilpailevat toisiaan vastaan. Vielä toistaiseksi hyvää on ollut se, että isot toimijat jakavat työkalujaan avoimen lähdekoodin alla (esim. Googlen Tensorflow  ja Facebookin Torch), mutta dataa ne varjelevat tarkoin ja nämä työkalut ovat hyödyttömiä ilman dataa.

Haastena data. Haasteena on nimenomaan data. Dataan kiinnipääsyä hankaloittaa ns. voittaja vie kaiken -dynamiikka, joka on ominaista alustoille. Tarvitaan siis vaihtoehtoisia tapoja kerätä aineistoja, koska vaikkapa Facebook on hyvin suljettu ympäristö tutkijan näkökulmasta (rajapintojen kautta on rajattu pääsy ja yhteys on usein epävakaa ja hidas). Hyviä esimerkkejä suomalaisesta osaamisesta ovat tutkimuskonsortion ylläpitämä Kielipankki-palvelu ja turkulainen BioNLP-ryhmä, jonka tavoitteena on tallentaa suomenkielinen Internet.

Kohti ratkaisuja. Tarvitaan merkittäviä kansallisia panostuksia tekoälytutkimukseen ja tutkimustulosten kaupallistamiseen. Suomen etuna on vahva kieliteknologian tutkimusperinne sekä korkeatasoinen insinöörikoulutus, josta tärkein esimerkki on Teuvo Kohosen kehittämä, kansainvälisesti tunnettu neuroverkkomalli. Meillä on näin ollen kaikki avaimet osallistua koneoppimisen ja tekoälyn kehittämiseen kansainvälisellä tasolla.

Digitalisaation perussanastoa

Avaan muutaman tärkeän käsitteen, jotka eivät vaikuta olevan aivan selviä kaikille digitalisaatiosta kiinnostuneille.

Algoritmi. Algoritmi on tietokoneohjelma, joka tekee asioita tietyssä järjestyksessä. Kuuluisia algoritmeja ovat esimerkiksi Googlen PageRank, joka vaikuttaa hakutulosten järjestykseen, ja Facebook EdgeRank, joka vaikuttaa kunkin käyttäjän uutisvirran sisältöön. Algoritmit voivat tuottaa lopputuloksia, joita ihmiset eivät osaa ennustaa – esimerkiksi syväoppimisessa käytetyt neuroverkot ovat niin monimutkaisia, että niiden toiminta ei ole enää jäljitettävissä.

Alusta. Alusta tarkoittaa digitaalista paikkaa, jossa ihmiset ja järjestelmät ovat vuorovaikutuksessa keskenään. Sosiaalisessa alustassa vuorovaikutuksen tarkoitus on luonteeltaan sosiaalista, kuten keskustelu ja omasta elämästä kertominen. Vaihdanta-alustassa taas myyjät ja ostavat asioivat keskenään. Alustoja on erityyppisiä, mutta kaikissa korostuu eri osapuolten välinen enemmän tai vähemmän vapaa vuorovaikutus ja kyseisen vuorovaikutuksen itseohjautuvuus (esim. ostajat valitsevat myyjät omien preferenssiensä mukaan).

Asioiden Internet (IOT). Asioiden internet tarkoittaa sitä, että laitteet kytketään Internetiin. Tällöin niistä voidaan kerätä sensoridataa ja esimerkiksi ennustaa vikaantumista. Tällä on merkitystä vaikkapa koneiden huollossa ja korvaamisessa. Asioiden Internet voi näyttäytyä myös kuluttajien elämässä; esimerkiksi jääkaappi . tai kodin valvontajärjestelmä, saunan voi lämmittää etäyhteyden kautta, ja niin poispäin.

Digitalisaatio. Digitalisaatio on yleinen termi, jolla viitataan vähän kaikkeen. Sillä voidaan esimerkiksi liiketoiminnassa viitata disruptiivisiin innovaatioihin, joissa uudet liiketoimintamallit syrjäyttävät vanhat. Esimerkiksi Google on leikannut suuren osan perinteisten mediatalojen, kuten Sanoman, mediamyyntikakusta. Monet perinteiset yritykset kuolevat, kun niiden liiketoiminnan ottaa haltuun yritys, jolla on ylivoimainen teknologinen kilpailuetu. Mutta monet perinteisten alojen yritykset myös hankkivat kilpaa koneoppimisosaamista pysyäkseen mukana kehityksessä.

Koneoppiminen. Koneoppiminen tarkoittaa algoritmeja, jotka käyttävät tilastollista päättelyä parantaakseen toimintaansa. Koneoppiminen on tärkeää, koska yhä useammat järjestelmät tekevät päätöksiä itsenäisesti ympäröivästä maailmasta keräämänsä aineiston perusteella.

Robotisaatio. Robotit ovat tärkeässä roolissa valmistavassa teollisuudessa, jossa automatisaatio on korvannut ihmistyövoimaa. Robotisaatio on käynnissä myös Kiinassa, joten tulevaisuudessa valmistavan teollisuuden työpaikat voivat kadota tai marginalisoitua globaalissa mittakaavassa. Tällä on laajoja yhteiskunnallisia vaikutuksia, jotka edellyttävät työelämän ja yrittäjyyden uudelleenstrukturointia.

Kuten huomataan, digitalisaation käsitteillä on laajoja kytköksiä eri teemoihin, kuten politiikka, talous, liiketoiminta, kansalaisuus, ja ihmisten välinen kanssakäynti. Tämän vuoksi aihetta kannattaa lähestyä poikkitieteellisesti.

Algoritmitutkimus: käsitteellisiä ratkaisuja

Johdanto. Aikaisemmin tällä viikolla puhuin Kauppalehden toimittajan kanssa, joka halusi tietää ratkaisuista koneellisen päätöksenteon ongelmiin.

Alussa ollaan. Kerroin, että tutkimusprojekti on vasta alussa ja vielä kartoitetaan ongelmakenttää. Ongelmien luonne pitää ymmärtää, jotta voidaan päästä ratkaisuihin. Ja koneellisen päätöksenteon osalta ne ovat osaksi ei-teknisiä, liittyen psykologiseen ja sosiologisiin ihmistekijöihin, joiden syvällinen ymmärtäminen vie aikaa. (Tavoitteena on ymmärtää ja kääntää ne teknisiksi ratkaisuiksi.)

Alustavia ideoita. Kuitenkin tässä vaiheessa voidaan ehdottaa muutamia ratkaisuja käsitteellisellä tasolla. Nämä tulivat mieleen keskustelumme pohjalta.

1. Ulkoisvaikutusten ongelma

Ongelma: Sosiaalisen median alustat eivät määrittele onko sisältö totta tai jollain muulla tavalla hyvää, ts. ulkoisvaikutuksilla ei ole kustannusfunktiota.

Ratkaisu: Määritetään ulkoisvaikutukset, luodaan niille kustannusfunktio ja sisällytetään se uutisvirta-algoritmiin.

Osaongelmat: Kuka määrittelee ulkoisvaikutukset ja miten niitä mitataan?

2. Hyvän sisällön ongelma

Ongelma: Käyttäjille näytetään sisältöä jota he haluavat nähdä eikä sisältöä jota heidän tulisi nähdä; johtuu informaatioalgoritmien reaktiivisuudesta, eli opitaan mistä sisällöstä ihmiset pitävät (vrt. lapsi joka aina vaan haluaa lisää karamelleja).

Ratkaisu: Määritetään hyvä sisältö ja suositaan sitä.

Osaongelmat: Kuka määrittelee hyvän sisällön? Miten sisällön hyvyyttä voidaan mitata? Miten yksilön haitallista käyttäytymistä voidaan korjata?

Sisällön hyvyyttä voidaan tietysti mitata, jos tavoite on selkeä – eli esim. näyttää tasapainoisesti eri polaarisuuden sisältöjä (ts. yksittäinen sisältö ei ole ”hyvä”, vaan kokonaisuus). Jos polaarisuus voidaan määrittää ja tasapuolisuus otetaan tavoitteeksi, on helppo mitata ja optimoida kyseistä tavoitetta. Ihmisen käyttäytymisen korjaaminen on monimutkaisempi ongelma – se sisältää etenkin psykologisia ulottuvuuksia.

Johtopäätös. Kuten nähdään, ratkaisujen toimeenpanon esteenä on usein määrittäminen ja mittaaminen (kvantifiointi). Ilman täsmällisyyttä ja yksioikoisuutta niitä ei voida sisällyttää algoritmin toimintaan.

Koneoppimisen jämähtämisongelma

Kone oppii kuin ihminen: empiirisen havaintoaineiston (=datan) perusteella.

Tästä syytä samoin kuin ihmisen on hankala oppia pois huonoista tavoista ja asenteista (ennakkoluulot, stereotypiat), on koneen vaikea oppia nopeasti pois virheellisestä tulkinnasta.

Kysymys ei ole poisoppimisesta, mikä lienee monessa tapauksessa mahdotonta, vaan uuden oppimisesta, niin että vanhat muistirakenteet (=mallin ominaisuudet) korvataan tehokkaasti uusilla. Tehokkaasti, koska mitä kauemmin vanhat epäpätevät mallit ovat käytössä, sitä enemmän koneellinen päätöksenteko ehtii tehdä vahinkoa. Ongelma korostuu laajan mittakaavan päätöksentekojärjestelmässä, jossa koneen vastuulla voi olla tuhansia tai jopa miljoonia päätöksiä lyhyen ajan sisällä.

Esimerkki: Kone on oppinut diagnosoimaan sairauden X oireiden {x} perusteella. Tuleekin uutta tutkimustietoa, jonka mukaan sairaus X liitetään oireisiin {y}, jotka ovat lähellä oireita {x} mutta eivät identtisiä. Koneelta kestää kauan oppia uusi assosiaatio, jos sen pitää tunnistaa itse eri oireiden yhteydet sairauksiin samalla unohtaen vanhoja malleja.

Miten tätä prosessia voidaan nopeuttaa? Ts. säilyttää koneoppimisen edut (=löytää oikeat ominaisuudet, esim. oireyhdistelmät) ihmistä nopeammin, mutta ihminen voi kuitenkin ohjatusti korjata koneen oppimaa mallia paremman tiedon varassa.

Potentiaalinen ratkaisu: Spesifien kytkösten opettaminen

Teknisesti ongelman voisi mieltää ns. bandit-algoritmin kautta: jos algoritmi toteuttaa sekä eksploraatiota että eksploitaatiota, voisi ongelmaa pyrkiä ratkomaan rajoittamalla hakuavaruutta. Koneelle voisi myös syöttää tarpeeksi evidenssiä, jotta se oppisi suhteen nopeasti – ts. jos kone ei ole löytänyt samaa asiaa kuin tietty tieteellinen tutkimus, tämän tieteellisen tutkimuksen dataa voisi käyttää kouluttamaan konetta niin paljon (jopa ylipainottamalla, jos se suhteessa hukkuu muuhun dataan) että luokittelumalli korjautuu.

Koneellisen päätöksenteon hyvät ja huonot puolet

Marc Andreessenin kuuluisan software eats the world –lausahduksen (so. ohjelmat syövät maailman) mukaisesti ihmisresursseja korvataan jatkuvasti ohjelmallisilla ratkaisuilla. Tämä ilmiö näyttäytyy kaikilla yhteiskunnan alueilla, mutta yksi merkittävimmistä alueista on päätöksenteon koneellistuminen ja automatisointi. Tässä artikkelissa kartoitan lyhyesti koneelliseen päätöksentekoon liittyviä mahdollisuuksia ja riskejä.

 Mahdollisuudet  Riskit
 puolueeton  tunteeton
 nopea  arvaamaton
 skaalautuva  manipulaatioaltis

Taulukko 1 Koneellisen päätöksenteon mahdollisuudet ja riskit

Mahdollisuudet

Teoreettisesti koneelliseen päätöksentekoon liittyy merkittäviä tehokkuushyötyjä johtuen koneiden ylivertaisesta laskentakapasiteetista, loogisten virhepäätelmien vähäisyydestä ja ihmisille ominaisen asenteellisuuden puutteesta. Koneet suorittavat saamansa ohjeet täsmällisesti ja tyypillisesti virheettä, kun taas ihmiset tekevät usein loogisia ja tilastollisia virheitä. Ihmiset ohjautuvat suurelta osin viettien, tunteiden ja alitajuisen intuition varassa, kun taas koneet noudattavat jäljitettävissä olevia toimintareseptejä, jotka pohjautuvat ennalta määrättyihin käskyihin ja numeeriseen dataan. Tästä syystä koneiden päätöksentekoprosessin voidaan sanoa olevan puolueeton [1].

Miksi puolueettomuus on niin tärkeää? Itse näen sen niin, että parhaimmillaan algoritminen päätöksenteko voisi ratkaista inhimillisen käyttäytymisen ”ikuisuusongelmia”, kuten viheliäät ongelmat (Rittel & Webber, 1973) ja yhteismaan ongelman [1] (Hardin, 1968). Puolueeton algoritmi voisi olla myös tehokas sovittelija poliittisissa konflikteissa (Miorandi ym., 2014) ja lainsäädännön soveltajana (Stray, 2016). Edellä mainittujen ongelmien nähdään olevan perimmäistä laatua, eli johtuvan ihmisluonnon synnynnäisistä vajavaisuuksista. Sen vuoksi niiden korjaaminen ihmispäätöksenteolla on äärimmäisen vaikeaa.

Poliittiset ongelmat ja muut sosiaaliset konfliktitilanteet voidaan usein mallintaa peliteoreettisina tilanteina, joiden ainoa ratkaisu on kompromissi eli palkkion maksimoinnista (ts. omasta edusta) tinkiminen. Historia ja myös nykypäivän globaali tilanne osoittavat, että ihmiset eivät tähän maailmanlaajuisessa mittakaavassa pysty. Teoriassa kompromissitasapaino on erittäin helppo rikkoa yhdenkin opportunistisen tai epäloogisen [3] agentin toimesta. Mikäli päätöksenteko luovutetaan koneelle, joiden toimintalogiikan tiedetään olevan neutraali ja jonka päätäntävalta siitä syystä hyväksytään, koneen tuottama kompromissiratkaisu voisi saavuttaa kestävän tasapainon.

Koneet kykenevät myös tekemään miljoonia päätöksiä sekunnissa – etenkin klustereissa tai hajautetuissa järjestelmissä tehokkuus moninkertaistuu ja päätökset voidaan myös rajapintojen kautta panna toimeen välittömästi. Esimerkiksi mainoshuutokauppa-algoritmi kierrättää mainosnäytön  200 millisekunnissa kymmenien verkostojen ja data-alustojen läpi, ja mainosvaihdanta tapahtuu jo ennen kuin sivu on latautunut loppukäyttäjälle. Tällainen huutokauppa ei luonnollisesti olisi mahdollinen ihmisten toteuttamana.

Riskit

Kaikista mahdollisuuksista huolimatta algoritmit sisältävät myös erilaisia riskejä. Algoritmit ovat ensinnäkin ihmisten luomia, joten niiden toimintaan saattaa ajautua epäsuotuisia elementtejä. Koska ihmiset ovat ajattelultaan epätäydellisiä, myös ihmisten luomien koneiden ja algoritmien voidaan ajatella ”perivän” tätä epätäydellisyyttä. Ohjelmissa voi olla sekä suoria koodausvirheitä (bugeja) että epäsuoria suunnitteluvirheitä, joiden vuoksi koneen tekemät päätökset eivät muodostu halutun kaltaisiksi.

Lisäksi datapohjaiset algoritmit ovat alttiita väärinkäytöksille, kuten järjestäytyneelle manipuloinnille. Tästä esimerkkinä on etenkin 2000-luvun alun hakukoneoptimointi, joka pyrki kaikin keinoin nostamaan tiettyjen sivujen sijoitusta hakutulossivuilla. Sittemmin hakukoneoptimoinnista on tullut eettisempää toimintaa, mutta vain koska manipulointiin on aikoinaan määrätietoisesti puututtu esimerkiksi Googlen toimesta (ja puututaan yhä). Algoritmien tietoinen manipulointi on yleistä toimintaa eri verkkoalustoilla, mutta koneellinen päätöksenteko voi vääristyä myös tahattoman toiminnan tuloksena. Googlen algoritmi saattaa esimerkiksi oppia yhdistämään afrikkalaisamerikkalaiset nimet rikoksiin, koska niitä mainitaan useammin rikosten yhteydessä. Tällöin algoritmi voi leimata kyseisen ryhmän rikolliseksi. Toisin sanoen datalähteet saattavat olla vääristyneitä tai sisältää puolueellisuutta, jolloin myös koneen tulkinta vääristyy. Kuitenkin kyseessä on koneen näkökulmasta ainoastaan tilastollinen yleistys, eli looginen lopputulos. Ainoastaan ihminen voi tulkita lopputuloksen olevan jollain tavalla kyseenalainen.

Aikaisemmin mainitsin, että koneiden virhealttius on ihmisiä matalampi. On kuitenkin tehtäviä, joissa ihmisen ”luokittelutarkkuus” on toistaiseksi konetta parempi. Esimerkiksi äänen tulkitsemisessa kone voi saavuttaa 80 % tarkkuuden, kun ihminen saavuttaa lähes poikkeuksetta 100 %:n tarkkuuden äidinkielensä ymmärtämisessä. Vastaavanlaisia tilanteita on useita. Ihmiset esimerkiksi tunnistavat tunteita konetta tehokkaammin, ymmärtävät käsitteiden kontekstit syvällisemmin, ja keskimäärin kykenevät arvioimaan päätösten moraalisia seurauksia, ja sen vuoksi välttää kollektiivisesti haitallisia toimintamalleja. Koska kone on arvoneutraali ja tunteeton, se ei välitä niistä lopputulemista, joita ei olla kvantifioitu negatiivisen painon omaavina muuttujina. Kone pitäisi siis tutustuttaa moraaliin ja etiikkaan, mitä ei ainakaan toistaiseksi olla onnistuttu tekemään. Asia ei myöskään ole aivan yksioikoinen, vaikka keksittäisiinkin keino arvojen ja normien koneelle opettamiseksi – törmäämme silloin nimittäin universaalien ja subjektiivisten arvojen dilemmaan [4].

Aikaisemmin mainitsin myös, että koneet noudattavat määriteltyjä reseptejä päätöksiä tehdessään, ts. niiden toimintalogiikka tunnetaan hyvin ja sitä voidaan tarvittaessa muokata. Tämä seikka ei välttämättä enää päde ns. syväoppimisen (deep learning) kohdalla. Nämä oppimismallit pohjautuvat monikerroksisiin neuroverkkoihin, joiden toiminta ei ole enää tarkalleen mallinnettavissa. Kone voi siis antaa arvaamattomia tuloksia, joita algoritmin kehittäjä ei pysty ennustamaan. Esimerkiksi Googlen käännösalgoritmi kehitti oman metakielen; tarkalleen ei osata sanoa kuinka se sen teki. Lienee selvää, että mikäli päätösten laatua ei kyetä ennustamaan tarkasti, arvaamattomuus muodostaa erilaisia yhteiskunnallisia ja sosiaalisia riskejä. Tämän vuoksi koneiden päätöksentekoa täytyy valvoa ja pyrkiä kehittämään eri tilanteisiin sopivaksi.

Kone Ihminen
puolueeton  puolueellinen
 nopea  hidas
 looginen  epälooginen

Taulukko 2  Kone vs. ihminen – koneen edut

Ihminen Kone
empaattinen tunteeton
oikeudenmukainen arvoneutraali
 suhteellisuudentajuinen  naiivi

Taulukko 2 Kone vs. ihminen – ihmisen edut

Sekä kone että ihminen ovat manipuloitavissa, ja jopa samankaltaisella tavalla. Ihmiselle voidaan syöttää väärää tietoa (vrt. propaganda) ja koneelle harhaanjohtavaa dataa, ja lopputuloksena kummankin päätöksenteko vääristyy. Näiden kahden olion välillä on kuitenkin ratkaiseva ero: kritiikki ja kyseenalaistaminen. Ihmiselle on ominaista vallitsevien totuuksien kyseenalaistaminen ja toisinajattelu, kun taas koneet uskovat kaiken mitä niille kerrotaan. Klassinen esimerkki tästä on Microsoftin tekoälybotti Tay, joka lyhyen ajan sisällä käännytettiin kohteliaasta botista rasistisia vihailmaisuja viljeleväksi psykopaatiksi. Tay kuitenkin suoritti juuri sitä johon se oltiin ohjelmoitu: ihmisiltä oppimiseen. Tätä voidaan kutsua Candide-ongelmaksi – nimi tulee Voltairen vuonna 1759 kirjoittamasta kirjasta, jonka päähenkilö joutuu matkoillaan toistuviin ongelmiin lapsenuskonsa vuoksi.

Mikäli Candide-ongelma halutaan ratkaista, laajalle keinoälylle on kyettävä kehittämään suhteellisuudentajua. Sosiaalisissa ympäristöissä tämänkaltaiset ongelmat korostuvat, koska ne eivät ole lineaarisesti mallinnettavissa olevia matemaattisia yhtälöitä, kuten esimerkiksi Internet-mainonnan optimointi. Voidaan missä määrin sosiaalisten ilmiöiden redusointi algoritmisiin malleihin onnistuu, ja missä määrin joudutaan yhä turvautumaan ihmisiin algoritmisen päätöksenteon kaitsijana. Juuri tällä hetkellä näiden kahden olion yhdistäminen tuottaa parhaan lopputuloksen [5].

Viittaukset:

[1] Huomaa, että puolueeton prosessi ei tarkoita etteivätkö päätökset olisi puolueellisia, ts. jonkin ryhmän edun vastaisia.
[2] Yhteisten resurssien eettinen ja tehokas käyttö.
[3] En käytä perinteistä termiä ”rationaalinen” tai ”epärationaalinen”, koska peliteoriassa rationaalinen pelaaja pyrkii nimenomaan maksimoimaan omaa hyötyään, ja sen vuoksi pattitilanteisiin päädytään. ”Looginen” tässä yhteydessä tarkoittaa konfliktin ratkaisuun pyrkivää strategiaa.
[4] Kenen arvot ovat oikeat? Ovatko esimerkiksi liberaalit aina oikeassa ja konservatiivit aina väärässä?
[5] Kutsun tätä kone-ihmispäätöksenteon hybridimalliksi.

Miksi eurooppalaisten on ymmärrettävä koneellista päätöksentekoa?

Suomalaisen yhteiskunnan on pysyttävä ns. digitalisaation kärjessä, jotta voimme vastata kansainvälisen kilpailun haasteisiin. Paitsi kilpailullisia seikkoja, koneelliseen päätöksentekoon liittyy teknologian yhteiskunnallisten merkitysten ymmärtäminen.

Tarkastellaan koneellista päätöksentekoa eurooppalaisesta näkökulmasta. Käytännössä kaikki ns. superalustat (alusta, jolla on yli sata miljoonaa käyttäjää) ovat yhdysvaltalaisomistuksessa. Nämä kaupalliset toimijat, joiden algoritmien tarkka toiminta on ”musta laatikko” niin käyttäjille kuin lainsäätäjille, päättävät minkälaista tietoa eurooppalaisille kansalaisille päivittäin näytetään. Eurooppalaiset viettävät esimerkiksi yhteensä yli 60 miljoonaa tuntia päivässä Facebookissa ja tekevät yli 30 miljardia hakua Googlessa kuukausittain. Nuorempien sukupolvien mediakulutus on vielä enemmän verkkopainotteista, ja useille verkkomediat muodostavat tärkeimmän informaatiolähteen.

On siis poikkeuksellisen selvää, että amerikkalaisilla yrityksillä on superalustojen kautta suuri valta yleisen mielipiteen muodostumisessa niin Euroopassa kuin oikeastaan koko maailmassa. Tarkoituksenamme ei ole väittää, että tätä valtaa käytettäisiin tällä hetkellä väärin, mutta vallan luonteeseen kuuluu läheisesti väärinkäytön mahdollisuus. Sen vuoksi eurooppalaisten on kriittistä vähintäänkin ymmärtää, mistä algoritmien toiminnassa on kyse. Tämä ymmärrys voidaan kytkeä mm. lainsäädäntöön, jotta superalustojen toimintaa voidaan valvoa ja tarvittaessa kontrolloida.

Mikä on neutraali algoritmi?

Päätöksentekoalgoritmin neutraalius voidaan ymmärtää eri tavoin, esimerkiksi erottamalla toisistaan päätöksentekoprosessin ja tuloksen neutraalius (Stray, 2016). Mikäli algoritmin toimintaperiaate on läpinäkyvä ja yleisesti hyväksytty, voidaan sen katsoa olevan prosessin puolesta neutraali. Se voi kuitenkin yhä tuottaa puolueellisia tuloksia, erityisesti koneoppimisen kautta. Monet ongelmat liittyvätkin koneiden tapaan oppia, joka tapahtuu tilastollisen tulkinnan kautta (mm. Dwork, 2014). Esimerkiksi Sweeney (2013) tutki Googlen mainosjärjestelmää ja havaitsi, että järjestelmä liitti henkilöiden nimiin useammin rikoksia kuvaavia aputermejä, kun suoritettiin hakukyselyjä rotuvähemmistön suosimilla nimillä. Toinen esimerkki koneoppimisen haittapuolista on Microsoftin Tay-tekoäly, joka oppi nopeasti käyttämään rasistisia ilmauksia Twitter-trollaajien opettamana (Vincent, 2016).

Voidaan sanoa, että koneoppimiseen perustuvia algoritmeja ei yleensä tehdä tahallisen puolueelliseksi, vaan ne heijastavat ympäröivän yhteiskunnan asenteita analysoimalla saamaansa aineistoa. Tästä voidaan vetää mielenkiintoinen analogia ihmisten oppimiseen, joka myös tapahtuu omaksumalla asenteita ympäristöstä (Piaget, 1928). Eettisestä näkökulmasta voidaan väittää, että algoritmi on neutraali kun se heijastelee oikeaoppisesti (tarkasti) yhteiskunnan tilaa ilman relativistia arvopäätöksiä (Felten, 2014). Toisaalta voidaan väittää, että päätösten pitäisi olla yhteensopivia yhteiskunnallisten arvojen tai ainakin lakien kanssa, koska koneiden tekemät päätökset vaikuttavat konkreettisesti yksilöiden hyvinvointiin (Feldman ym., 2014). Neutraaliuden määritelmästä ei siis tällä hetkellä vallitse yksioikoista yhteisymmärrystä, vaan sitä tulkitaan eri lähtökohdista.

Koneellisessa päätöksenteossa voidaan erottaa ainakin kolme puolueellisuuden lähdettä (Zafar ym., 2015). Ensinnäkin 1) algoritmit ovat ihmisten suunnittelemia, joten algoritmin kehittäjän puolueellisuus saattaa tietoisesti tai tiedostamatta siirtyä sen toimintaperiaatteisiin. Toiseksi etenkin informaatioalgoritmit ovat alttiita 2) käyttäjien hyväksikäytölle, kuten järjestäytyneelle manipuloinnille. Kolmanneksi 3) datalähteet saattavat olla vääristyneitä tai sisältää puolueellisuutta, jolloin myös koneen tulkinta vääristyy ja tehdyt päätökset voivat olla epäreiluja.

Keinoja ehkäistä algoritmien puolueellisuutta ovat tarkastelleet ainakin Culotta (2014); Dwork (2014); Feldman ym. (2014); Jelveh & Luca (2015); ja Fish ym. (2015). Usein ratkaisukeinojen nähdään sisältävän valintatilanne tarkkuuden ja puolueettomuuden välillä (Feldman ym., 2014). Äärimmäisissä tapauksissa edes algoritmin kehittäjä ei kykene ennustamaan sen toimintaa, jolloin tulokset voivat olla arvaamattomia. Tällainen kaoottisuus liitetään etenkin syväoppimisessa käytettyihin neuroverkkoihin (Littmann & Ritter, 1997) ja toisaalta yleisesti ei-valvottuun koneoppimiseen, jossa luokittelu tapahtuu vapaasti aineiston pohjalta (Ngufor & Wojtusiak, 2013).

Algoritmien neutraalius ja puolueellisuus on monimutkainen ongelmavyyhti, jonka ratkaisuyrityksissä tarvitaan niin poikkitieteellistä osaamista. Läheisiä aihepiirejä ovat ainakin tietojenkäsittelyoppi (algoritmien suunnittelu), tilastotiede, sosiologia (ryhmädynamiikan ilmiöt), psykologia (vuorovaikutus), ja etiikka (päätösprosessien ja lopputulosten moraalinen hyväksyttävyys). Pelkkä tekninen osaaminen ei riitä koneellisen päätöksenteon kehittämisessä, koska sen vaikutukset ovat luonteeltaan moniulotteisia ja koskettavat koko yhteiskuntaa.

Lähteet:

Culotta, A. (2014) Reducing Sampling Bias in Social Media Data for County Health Inference. In Joint Statistical Meetings Proceedings.

Dwork, C. (2014) Can we Learn to be Fair? Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2014).

Feldman, M., Friedler, S., Moeller, J., Scheidegger, C., & Venkatasubramanian, S. (2014). Certifying and removing disparate impact. Working paper.

Fish, B., Kun, J., Lelkes, A. (2015) Fair Boosting: A Case Study. Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2015).

Jelveh, Z., Luca, M. (2015) Towards Diagnosing Accuracy Loss in Discrimination-Aware Classification: An Application to Predictive Policing. Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2015).

Littmann, E., & Ritter, H. (1997) Adaptive color segmentation-a comparison of neural and statistical methods. IEEE Transactions on Neural Networks, 8(1), 175–185.

Ngufor, C., & Wojtusiak, A. (2013) Unsupervised labeling of data for supervised learning and its application to medical claims prediction. Computer Science, 14.

Piaget, J. (1928) La causalité chez l’enfant. British Journal of Psychology. 18: 276–301.

Stray, J. (2016) Sometimes an algorithm really is (politically) unbiased. http://jonathanstray.com/sometimes-an-algorithm-really-is-politically-unbiased

Vincent, J. (2016) Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. http://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist

Zafar, M., Martinez, I., Gomez Rodriguez, M., Gummadi, K. (2015) Fairness Constraints: A Mechanism for Fair Classification. Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2015).