Tagged: algoritmit

Googlen toimintaperiaatteet eettisille algoritmeille

Googlen toimitusjohtaja Sundar Pichai kirjoitti kesäkuussa 2018 blogipostauksen Googlen eettisistä algoritmiperiaatteista. Tiivistän tässä sen ydinkohdat suomeksi.

Googlen tavoitteet tekoälysovelluksille

Kehittäessään tekoälysovelluksia Google pyrkii ottamaan huomioon seuraavat tavoitteet.

1. Ole sosiaalisesti hyödyllinen.

Uusi teknologia koskettaa yhä enemmän yhteiskuntaa kokonaisuutena. Tekoälyteknologian vaikutust tuntuu monilla eri aloilla, esimerkkeinä terveydenhuolto, turvallisuus, energia, kuljetus, teollisuus ja viihde. Googlen näkemys on, että kokonaishyödyt näillä aloilla ylittävät huomattavasti ennakoitavissa olevat riskit ja haitat. Google pyrkii tekemään laadukkaan ja täsmällisen tiedon saataville samalla kunnioitaen eri maiden kulttuurisia, sosiaalisia ja oikeudellisia normeja.

2. Vältä epäreilun puolueellisuuden luontia tai vahvistamista.

AI-algoritmit ja data voivat heijastaa, vahvistaa tai vähentää kohtuuttomia ennakkoluuloja. Google pyrkii välttämään epäoikeudenmukaisia ​​vaikutuksia ihmisiin, erityisesti liittyen arkaluonteisiin ominaisuuksiin, kuten rotuun, etniseen alkuperään, sukupuoleen, kansalaisuuteen, tuloihin, seksuaaliseen suuntautumiseen, ja poliittiseen tai uskonnolliseen vakaumukseen.

3. Rakenna ja testaa turvallisuutta.

Google kehittää ja soveltaa vahvoja turvallisuus- ja turvallisuuskäytäntöjä, jotta vältytään tahattomilta vahingoilta AI-sovelluksissa. Google suunnittelee tekoälyjärjestelmät uusimman turvallisuustutkimuksen parhaiden käytäntöjen mukaisesti. Tarvittaessa AI-tekniikoita testataan kontrolloiduissa ympäristöissä ja niiden toimintaa seurataan käyttöönoton jälkeen.

4. Ole vastuullinen ihmisille.

Google suunnittelee AI-järjestelmiä, jotka tarjoavat käyttäjille mahdollisuuden antaa palautetta, nähdä algoritmin valintoihin liittyviä selityksiä ja valittaa mahdollisista epäkohdista. Googlen AI-teknologia on ihmiskeskeistä ja antaa ihmisille mahdollisuuden vaikuttaa.

5. Sisällytä tietosuojasuunnitteluperiaatteet.

Google yhdistää tietosuojaperiaatteet AI-teknologioiden kehittämiseen ja käyttöön. Käyttäjiä tiedotetaan heidän tietojensa käytöstä ja siihen pyydetään suostumus. Lisäksi Google kehittää yksityisyyden suojaa tukevia ohjelmistoarkkitehtuureja, jotka tukevat avoimuuden periaatetta ja mahdollistavat tiedon käytön valvonnan.

6. Ylläpidä korkeatasoista tieteellistä huippuosaamista.

Teknologinen innovaatio perustuu tieteelliseen menetelmään ja avoimen tutkimuksen sekä yhteistyön periaatteisiin. AI-työkalujen avulla on mahdollista kehittää tieteellistä tutkimusta kriittisillä aloilla, kuten biologia, kemia, lääketiede ja ympäristötieteet. Google pyrkii investoimaan korkeatasoiseen tieteelliseen huippuosaamiseen.

Lisäksi Google tekee yhteistyötä eri sidosryhmien kanssa tukeakseen huippututkimusta ja kehittääkseen tieteellisesti päteviä ​​lähestymistapoja. Google lisää tekoälytietoisuutta julkaisemalla opetusmateriaaleja, parhaita käytäntöjä ja tutkimustietoa, joiden avulla eri toimijat voivat kehittää hyödyllisiä AI-sovelluksia.

7. Käyttötarkoituksia, jotka noudattavat näitä periaatteita.

Monilla tekniikoilla on useita käyttötarkoituksia. Tekoälysovellusten kehittämisessä on tärkeää mieltää ja ymmärtää sen mahdolliset käyttötarkoitukset, mukaanlukien mahdollinen väärinkäyttö. Kehittäessään tekoälysovelluksia Google pyrkii arvioimaan haitallisen käytön riskiä seuraavien kriteereiden pohjalta:

  • Ensisijainen tarkoitus ja käyttö: mikä on teknologian tai sovelluksen ensisijainen tarkoitus ja todennäköinen käyttö? Miten se soveltuu mahdolliseen haitalliseen käyttöön?
  • Ainutlaatuisuus: onko kehitetty teknologia ainutlaatuinen tai yleisesti saatavilla? Onko sen jakelua mahdollista rajoittaa?
  • Mittakaava: onko kehitetyllä teknologialla mahdollisesti kriittinen vaikutus? Millä tavalla?
  • Googlen osallistumisen luonne: tarjoaako Google yleiskäyttöisiä työkaluja, integrointeja vai mukautettuja ratkaisuja?

Musta lista

Google ei aio kehittää teknologioita, jotka täyttävät seuraavat tuntomerkit:

  • Teknologiat, jotka aiheuttavat tai todennäköisesti aiheuttavat yleistä haittaa. Jos on olemassa merkittäviä haittoja, Google tekee kehitystyötä ainoastaan mikäli odotetut hyödyt ovat huomattavasti suurempia kuin riskit.
  • Aseet tai muut teknologiat, joiden pääasiallinen tarkoitus on aiheuttaa ihmisten loukkaantuminen tai vahingoittaminen.
  • Teknologiat, jotka keräävät tai käyttävät tietoa tavalla, joka rikkoo kansainvälisesti hyväksyttyjä normeja.
  • Teknologiat, joiden tarkoitus on ristiriidassa kansainvälisen oikeuden ja ihmisoikeuksien periaatteiden kanssa.

Vaikka Google ei kehitä tekoälyä aseellisiin tarkoituksiin, se tekee yhteistyötä hallitusten ja armeijan kanssa monilla muilla aloilla. Näihin kuuluvat kyberrikollisuus, koulutus, sotilasrekrytointi, veteraanien terveydenhuolto ja pelastustoimi.

Tekoälyn vaikutusten huomiointi pitkällä aikavälillä

Googlen tavoitteena on olla mukana algoritmien eettisyyttä edistävässä toiminnassa pitkällä aikavälillä. AI-teknologioiden kehittyessä Google pyrkii tekemään poikkitieteellistä yhteistyötä eri sidosryhmien kanssa tukeakseen eettisten periaatteiden huomioimista tekoälyteknologian kehityksessä ja soveltamisessa. Liiketoimintanäkökulmasta Google on valmis tekemään lyhyen tähtäimen kompromisseja toimiakseen eettisten arvojen mukaisesti.

Algoritmipaniikki

Yhteiskuntakeskustelua algoritmeista on paikoin ahdistavaa seurata.

Ihmiset, jotka eivät ymmärrä algoritmeista, antavat niille supervoimia. Media tekee parhaansa lietsoakseen algoritmipelkoa.

Kyllä, on totta että algoritmien käytössä on riskejä. Mutta hyvin usein algoritmeja pidetään syntipukkeina ihmisten toimille.

Esimerkkikommentti eräästä Amazonin rekrytointialgoritmin havaittuja ja väitettyjä puutteita koskevasta LinkedIn-keskustelusta: ”Vaikka data jollain ihmeen kaupalla heijastelisikin 100% tasa-arvosta tilannetta (ei realistista), kyllä lopputuloksen saa vielä algoritmeilla pilattua!”

Kommentti sisältää väärää tietoa — koska algoritmi on yhtä hyvä kuin sinne syötetty data — mutta kuvastaa hyvin valloillaan olevasta ”paha algoritmi” -mentaliteetista.

Toinen esimerkki on Yhdysvaltain viimekertainen vaalitulos: on olemassa yleinen myytti siitä, että Cambridge Analytica -yhtiön ”algoritmit” saivat ihmiset maagisesti äänestämään tahtoaan vastaan. Kuvaavia tästä harha-ajattelusta ovat tämänkaltaiset väitteet: ”Facebook let Trump use AI to win the 2016 election”, joita poliittisesti puolueelliset toimittavat lietsovat.

Sami Kuusela jakoi oheisen pilakuvan Facebookissa. Mielestäni tämä tiivistää hyvin algoritmipaniikin luonteen.

algoritmipaniikki

Mistä algoritmipaniikki sitten johtuu?

Tunnistan algoritmipaniikkiin kolme syytä:

  • Pelko tuntemattomasta — kautta historian, ihmiset ovat pelänneet sitä mitä eivät ymmärrä. Suurin syy algoritmipaniikkiin on puutteellinen ymmärrys niiden toiminnasta. Kun ei tiedetä kuinka algoritmit toimivat, niille on helppo keksiä supervoimia. Mutta mitä enemmän tunnet algoritmeja, sitä enemmän ymmärrät niiden puutteet. Ne ovat erehtyväisiä ennustuksissaan, täysin riippuvaisia annetusta datasta, eivätkä järkeile, sovella tai millään lailla toimi itsenäisesti rajatun tehtävän ulkopuolella. Algoritmit eivät ole tekoälyä, ne ovat teknisiä reseptejä.
  • Pelko syrjäytymisestä — kuten luddiitit aikoinaan, nykyajan tietotyöläiset pelkäävät enenevissä määrin syrjäytymistä työmarkkinoilta algoritmien toimesta. Tämä on toinen myytti, jonka taloustieteilijät ja historia aikanaan, tulee osoittamaan vääräksi. Talous muuttuu ja uusia työtehtäviä syntyy korvaamaan vanhat, pääasiassa koska ihmisten tarpeet ja halut ovat rajattomia. Kuitenkin on fakta, että automaatio korvaa tiettyjä työtehtäviä ja väistämättä tämä johtaa tietynlaiseen antipatiaan koneita kohtaan: ”tyhmä kone vei mun työn”.
  • Antropomorfismi — jos termi ei ole tuttu, se tarkoittaa inhimillisten ominaisuuksien liittämistä eläimiin, elottomiin esineisiin tai kuvitteellisiin kohteisiin (lähde). Algoritmien tapauksessa niihin liitetään tahtotiloja ja motiiveja, kuten valta, päätöksenteko, tietoisuus… Algoritmeihin projisoidaan ihmispiirteitä ja niitä syytetään ikään kuin ne olisivat elollisia olentoja. Algoritmi ei kuitenkaan ole elävä olio, toimija tai päätöksentekijä. Se on vain kasa tekstiä, resepti joka toteuttaa mitä ihminen haluaa (usein vajavaisesti, koska sille annetut käskyt ovat vajavaisia).

Johtopäätös

Hyvässä ja pahassa, algoritmeille ei saa antaa liikaa valtaa. Niitä ei saa syyttää asioista, joissa ihminen on vastuussa. Niitä ei myöskään saa ylentää erehtymättömiksi jumalolennoiksi. Algoritmi on — yhä edelleen — resepti, ei itse lääke.

Algoritmien läpinäkyvyyden ja vastuullisuuden ohjenuorat

Kari Haakana (@Karde) piti esityksen Kone Säätiön ja Kaute-säätiön järjestämässä ”Algorytmittyvä elämä” -tilaisuudessa Helsingissä (12.5.2017). Kari mainitsi USACM:n (Association for Computing Machinery US Public Policy Council) julkaiseman ohjeistuksen algoritmien läpinäkyvyydelle ja vastuullisuudelle. Tietääkseni sitä ei ole vielä käännetty suomeksi, joten päätin kääntää sen. Alla ohjeistus.

Miksi algoritmien salaisuuksia ei paljasteta?

ACM kirjoittaa, että algoritmien läpinäkymättömyyteen on olemassa useita syitä, kuten 1) tekniset syyt (algoritmin toimintaa ei ole helppo selittää), 2) taloudelliset syyt (liikesalaisuudet estävät algoritmien toiminnan paljastamisen), ja 3) sosiaaliset syyt (tietojen paljastaminen voi rikkoa odotuksia yksityisyydensuojasta). Lisään tähän neljännen: 4) tietojen paljastaminen voi rikkoa lakeja yksityisyydensuojasta tai palvelun itse määrittelemiä käyttöehtoja. Lisäksi on huomioitava, että monet algoritmiset edistysaskeleet on julkaistu joko avoimissa konferenssi- tai journaalijulkaisuissa (ks. arxiv.org) tai avoimen lähdekoodin alla (esim. Google, Facebook, Airbnb).

Algoritmien läpinäkyvyyden ja vastuullisuuden ohjenuorat

  1. Tietoisuus: Analyyttisten järjestelmien omistajien, suunnittelijoiden, rakentajien, käyttäjien ja muiden sidosryhmien tulisi olla tietoisia mahdollisista ennakkoluuloista, jotka liittyvät niiden suunnitteluun, käyttöönottoon ja käyttöön sekä potentiaalisiin haittoihin, joita niiden puolueellisuus voi aiheuttaa yksilöille ja yhteiskunnalle.
  2. Pääsy ja oikeussuojakeinot: Lainsäätäjiä olisi kannustettava sellaisten mekanismien käyttöönottoon, jotka mahdollistavat koneellisten päätösten kyseenalaistamisen ja oikeussuojan antamisen yksilöille ja ryhmille, joita koneelliset päätökset mahdollisesti haittaavat.
  3. Vastuullisuus: Organisaatioiden tulisi olla vastuussa käytettävien algoritmien tekemistä päätöksistä, vaikka ei olisikaan mahdollista selittää yksityiskohtaisesti, miten algoritmit tuottavat tuloksensa.
  4. Selitys: Algoritmista päätöksentekoa käyttäviä järjestelmiä ja organisaatioita kannustetaan tuottamaan selityksiä sekä algoritmin suorittamista toimenpiteistä että yksittäisistä päätöksistä. Tämä on erityisen tärkeää julkishallinnon yhteydessä.
  5. Tietojen alkuperä: Algoritmien kehittäjien tulisi dokumentoida, kuinka koneoppimismallien harjoitteluaineisto kerättiin, sekä arvioida ihmisen tai koneellisen tiedonkeruuprosessin aiheuttamia mahdollisia vääristymiä. Tietojen julkinen tarkastelu tarjoaa mahdollisuuden korjata mallien aineistosta johtuvia virheitä. Kuitenkin huoli yksityisyyden suojasta, liikesalaisuuksien suojelemisesta tai sellaisten toiminnallisuuksien paljastamisesta, jotka voivat antaa pahaa tarkoittaville toimijoille mahdollisuuden hyväksikäyttää järjestelmää, voivat oikeuttaa rajoittamaan pääsyn päteviin ja luotettaviin henkilöihin.
  6. Tarkastettavuus: Mallit, algoritmit, tiedot ja päätökset on dokumentoitava siten, että ne voidaan ulkopuolisen tahon toimesta tarkastaa tapauksissa, joissa haittaa epäillään.
  7. Validointi ja testaus: Organisaatioiden tulee käyttää uskottavia menetelmiä malliensa vahvistamiseen ja dokumentoida nämä menetelmät ja tulokset. Erityisesti niiden tulisi tasaisin väliajoin suorittaa testejä arvioidakseen ja määrittääkseen, aiheuttaako malli yhteiskunnallisia haittoja. Koneellista päätöksentekoa soveltavia organisaatioita kannustetaan tekemään tällaisten testien tulokset julkiseksi.

Alkuperäinen lähde: https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf

Algoritmien riskit: Ratkaisuja pehmeistä tieteistä

Minua haastateltiin hiljattain Kauppalehteen. Eräs jutun lukijakommentti oli:

Mikä ihmeen humanisti-tutkija tätäkin tutkii? Saisivat pysyä kaukana luonnontieteiden alalta tuollaiset teknofoobikot, koska niissä hallitsee logiikka, ei tunne.

Yhteiskunnallisen keskustelun taso eri verkkomedioissa on silminnähden matala: Ihmiset pilkkaavat toisiaan ja tuntuvat haastavan riitaa useammin kuin suhtautuvan asioihin järkevästi. Omaa pahaa oloa puretaan kärkeviin kommentteihin, jotka eivät kuitenkaan saa ketään paremmalle mielelle. Suuri enemmistö lukijoista pysyy hiljaisena, ja tarkkailee tätä kehitystä surullisin mielin.

Tämän kirjoituksen aiheena ei kuitenkaan ole verkkokeskustelun alennustila (se tarvitsee oman artikkelinsa!), vaan tuon kommentin asiaydin. Eli argumentti: ”Humanistien ei tulisi osallistua teknologian kehittämiseen, koska he eivät siitä mitään ymmärrä.”

Ensimmäinen osa on mielestäni väärä, mutta jälkimmäisessä on pieni ripaus totuutta (ja juuri siksi poikkitieteellistä tutkimusta tarvitaan).

Miksi päätelmä on väärä? Koska eri tieteenhaaroilla on valtavasti annettavaa teknologian ja yhteiskunnan kohtaamisen problematiikkaan. Tässä muutamia esimerkkejä kysymyksistä, joihin eri tieteenalat voivat tarjota vastauksia.

  • Filosofia: Mikä on oikea ja väärää? Mihin ihmiskunnan tulisi pyrkiä? Mikä on kehityksen tarkoitus? Millaisia argumentteja koneet pystyvät käsittelemään?
  • Sosiologia: Miten ryhmäpolarisaatio ilmenee? Miksi? Miten sitä voidaan ehkäistä? (Mitä muita merkittäviä sosiologisia ilmiöitä ilmenee, joita algoritmien suunnittelijoiden tulisi huomioida?)
  • Psykologia: Miten ihmiset havainnoivat järjestelmiä? Mitä kognitiivisia ja neurologia prosesseja ilmenee ihmisen ja koneen välisessä vuorovaikutuksessa? Kuinka kone voisi oppia ymmärtämään tunteita? Kuinka ihminen oppii? Miten alustat ja algoritmit vaikuttavat yksilöiden tunnetiloihin?
  • Politiikan tutkimus: Kuinka kansalaiset suodattavat poliittista informaatiota sosiaalisessa mediassa? Miten se vaikuttaa päätöksentekoon? Kuinka massaviestintä ja propaganda voi ilmetä algoritmien ja alustojen välityksellä?
  • Kauppatieteen tutkimus: Miten kuluttajat toimivat eri alustoilla? Miten vaihdantaa voidaan helpottaa algoritmien avulla? Miten algoritmit ratkaisevat kohtaanto-ongelmia?

Kaikki edellä mainitut eivät ehkä ole ”humanistitieteitä” sanan tarkassa merkityksessä, mutta ihmistieteitä kylläkin. Koko jutun pointti on se, että järjestelmät suunnitellaan loogisesti mutta altistetaan ympäristölle, joka toimii epäloogisesti. Täydellisessä maailmassa ei tarvittaisikaan ihmistutkimusta, mutta tässä maailmassa, jossa elämme, on järkevää pyrkiä parantamaan järjestelmien toimintaa laajemman ihmisymmärryksen avulla. Sillä on merkitystä, näemmekö ihmisen käyttäjänä, yksilönä vai strategisena toimijana.

Ihmistieteiden ja tietojenkäsittelytieteen välillä on kuilu osaajien erilaisesta taustasta johtuen. Mutta siksi juuri tarvitaan rajat rikkovaa, ”humanistista” tutkimusta tietojärjestelmistä.

Digitalisaation perussanastoa

Avaan muutaman tärkeän käsitteen, jotka eivät vaikuta olevan aivan selviä kaikille digitalisaatiosta kiinnostuneille.

Algoritmi. Algoritmi on tietokoneohjelma, joka tekee asioita tietyssä järjestyksessä. Kuuluisia algoritmeja ovat esimerkiksi Googlen PageRank, joka vaikuttaa hakutulosten järjestykseen, ja Facebook EdgeRank, joka vaikuttaa kunkin käyttäjän uutisvirran sisältöön. Algoritmit voivat tuottaa lopputuloksia, joita ihmiset eivät osaa ennustaa – esimerkiksi syväoppimisessa käytetyt neuroverkot ovat niin monimutkaisia, että niiden toiminta ei ole enää jäljitettävissä.

Alusta. Alusta tarkoittaa digitaalista paikkaa, jossa ihmiset ja järjestelmät ovat vuorovaikutuksessa keskenään. Sosiaalisessa alustassa vuorovaikutuksen tarkoitus on luonteeltaan sosiaalista, kuten keskustelu ja omasta elämästä kertominen. Vaihdanta-alustassa taas myyjät ja ostavat asioivat keskenään. Alustoja on erityyppisiä, mutta kaikissa korostuu eri osapuolten välinen enemmän tai vähemmän vapaa vuorovaikutus ja kyseisen vuorovaikutuksen itseohjautuvuus (esim. ostajat valitsevat myyjät omien preferenssiensä mukaan).

Asioiden Internet (IOT). Asioiden internet tarkoittaa sitä, että laitteet kytketään Internetiin. Tällöin niistä voidaan kerätä sensoridataa ja esimerkiksi ennustaa vikaantumista. Tällä on merkitystä vaikkapa koneiden huollossa ja korvaamisessa. Asioiden Internet voi näyttäytyä myös kuluttajien elämässä; esimerkiksi jääkaappi . tai kodin valvontajärjestelmä, saunan voi lämmittää etäyhteyden kautta, ja niin poispäin.

Digitalisaatio. Digitalisaatio on yleinen termi, jolla viitataan vähän kaikkeen. Sillä voidaan esimerkiksi liiketoiminnassa viitata disruptiivisiin innovaatioihin, joissa uudet liiketoimintamallit syrjäyttävät vanhat. Esimerkiksi Google on leikannut suuren osan perinteisten mediatalojen, kuten Sanoman, mediamyyntikakusta. Monet perinteiset yritykset kuolevat, kun niiden liiketoiminnan ottaa haltuun yritys, jolla on ylivoimainen teknologinen kilpailuetu. Mutta monet perinteisten alojen yritykset myös hankkivat kilpaa koneoppimisosaamista pysyäkseen mukana kehityksessä.

Koneoppiminen. Koneoppiminen tarkoittaa algoritmeja, jotka käyttävät tilastollista päättelyä parantaakseen toimintaansa. Koneoppiminen on tärkeää, koska yhä useammat järjestelmät tekevät päätöksiä itsenäisesti ympäröivästä maailmasta keräämänsä aineiston perusteella.

Robotisaatio. Robotit ovat tärkeässä roolissa valmistavassa teollisuudessa, jossa automatisaatio on korvannut ihmistyövoimaa. Robotisaatio on käynnissä myös Kiinassa, joten tulevaisuudessa valmistavan teollisuuden työpaikat voivat kadota tai marginalisoitua globaalissa mittakaavassa. Tällä on laajoja yhteiskunnallisia vaikutuksia, jotka edellyttävät työelämän ja yrittäjyyden uudelleenstrukturointia.

Kuten huomataan, digitalisaation käsitteillä on laajoja kytköksiä eri teemoihin, kuten politiikka, talous, liiketoiminta, kansalaisuus, ja ihmisten välinen kanssakäynti. Tämän vuoksi aihetta kannattaa lähestyä poikkitieteellisesti.

Koneellisen päätöksenteon hyvät ja huonot puolet

Marc Andreessenin kuuluisan software eats the world –lausahduksen (so. ohjelmat syövät maailman) mukaisesti ihmisresursseja korvataan jatkuvasti ohjelmallisilla ratkaisuilla. Tämä ilmiö näyttäytyy kaikilla yhteiskunnan alueilla, mutta yksi merkittävimmistä alueista on päätöksenteon koneellistuminen ja automatisointi. Tässä artikkelissa kartoitan lyhyesti koneelliseen päätöksentekoon liittyviä mahdollisuuksia ja riskejä.

 Mahdollisuudet  Riskit
 puolueeton  tunteeton
 nopea  arvaamaton
 skaalautuva  manipulaatioaltis

Taulukko 1 Koneellisen päätöksenteon mahdollisuudet ja riskit

Mahdollisuudet

Teoreettisesti koneelliseen päätöksentekoon liittyy merkittäviä tehokkuushyötyjä johtuen koneiden ylivertaisesta laskentakapasiteetista, loogisten virhepäätelmien vähäisyydestä ja ihmisille ominaisen asenteellisuuden puutteesta. Koneet suorittavat saamansa ohjeet täsmällisesti ja tyypillisesti virheettä, kun taas ihmiset tekevät usein loogisia ja tilastollisia virheitä. Ihmiset ohjautuvat suurelta osin viettien, tunteiden ja alitajuisen intuition varassa, kun taas koneet noudattavat jäljitettävissä olevia toimintareseptejä, jotka pohjautuvat ennalta määrättyihin käskyihin ja numeeriseen dataan. Tästä syystä koneiden päätöksentekoprosessin voidaan sanoa olevan puolueeton [1].

Miksi puolueettomuus on niin tärkeää? Itse näen sen niin, että parhaimmillaan algoritminen päätöksenteko voisi ratkaista inhimillisen käyttäytymisen ”ikuisuusongelmia”, kuten viheliäät ongelmat (Rittel & Webber, 1973) ja yhteismaan ongelman [1] (Hardin, 1968). Puolueeton algoritmi voisi olla myös tehokas sovittelija poliittisissa konflikteissa (Miorandi ym., 2014) ja lainsäädännön soveltajana (Stray, 2016). Edellä mainittujen ongelmien nähdään olevan perimmäistä laatua, eli johtuvan ihmisluonnon synnynnäisistä vajavaisuuksista. Sen vuoksi niiden korjaaminen ihmispäätöksenteolla on äärimmäisen vaikeaa.

Poliittiset ongelmat ja muut sosiaaliset konfliktitilanteet voidaan usein mallintaa peliteoreettisina tilanteina, joiden ainoa ratkaisu on kompromissi eli palkkion maksimoinnista (ts. omasta edusta) tinkiminen. Historia ja myös nykypäivän globaali tilanne osoittavat, että ihmiset eivät tähän maailmanlaajuisessa mittakaavassa pysty. Teoriassa kompromissitasapaino on erittäin helppo rikkoa yhdenkin opportunistisen tai epäloogisen [3] agentin toimesta. Mikäli päätöksenteko luovutetaan koneelle, joiden toimintalogiikan tiedetään olevan neutraali ja jonka päätäntävalta siitä syystä hyväksytään, koneen tuottama kompromissiratkaisu voisi saavuttaa kestävän tasapainon.

Koneet kykenevät myös tekemään miljoonia päätöksiä sekunnissa – etenkin klustereissa tai hajautetuissa järjestelmissä tehokkuus moninkertaistuu ja päätökset voidaan myös rajapintojen kautta panna toimeen välittömästi. Esimerkiksi mainoshuutokauppa-algoritmi kierrättää mainosnäytön  200 millisekunnissa kymmenien verkostojen ja data-alustojen läpi, ja mainosvaihdanta tapahtuu jo ennen kuin sivu on latautunut loppukäyttäjälle. Tällainen huutokauppa ei luonnollisesti olisi mahdollinen ihmisten toteuttamana.

Riskit

Kaikista mahdollisuuksista huolimatta algoritmit sisältävät myös erilaisia riskejä. Algoritmit ovat ensinnäkin ihmisten luomia, joten niiden toimintaan saattaa ajautua epäsuotuisia elementtejä. Koska ihmiset ovat ajattelultaan epätäydellisiä, myös ihmisten luomien koneiden ja algoritmien voidaan ajatella ”perivän” tätä epätäydellisyyttä. Ohjelmissa voi olla sekä suoria koodausvirheitä (bugeja) että epäsuoria suunnitteluvirheitä, joiden vuoksi koneen tekemät päätökset eivät muodostu halutun kaltaisiksi.

Lisäksi datapohjaiset algoritmit ovat alttiita väärinkäytöksille, kuten järjestäytyneelle manipuloinnille. Tästä esimerkkinä on etenkin 2000-luvun alun hakukoneoptimointi, joka pyrki kaikin keinoin nostamaan tiettyjen sivujen sijoitusta hakutulossivuilla. Sittemmin hakukoneoptimoinnista on tullut eettisempää toimintaa, mutta vain koska manipulointiin on aikoinaan määrätietoisesti puututtu esimerkiksi Googlen toimesta (ja puututaan yhä). Algoritmien tietoinen manipulointi on yleistä toimintaa eri verkkoalustoilla, mutta koneellinen päätöksenteko voi vääristyä myös tahattoman toiminnan tuloksena. Googlen algoritmi saattaa esimerkiksi oppia yhdistämään afrikkalaisamerikkalaiset nimet rikoksiin, koska niitä mainitaan useammin rikosten yhteydessä. Tällöin algoritmi voi leimata kyseisen ryhmän rikolliseksi. Toisin sanoen datalähteet saattavat olla vääristyneitä tai sisältää puolueellisuutta, jolloin myös koneen tulkinta vääristyy. Kuitenkin kyseessä on koneen näkökulmasta ainoastaan tilastollinen yleistys, eli looginen lopputulos. Ainoastaan ihminen voi tulkita lopputuloksen olevan jollain tavalla kyseenalainen.

Aikaisemmin mainitsin, että koneiden virhealttius on ihmisiä matalampi. On kuitenkin tehtäviä, joissa ihmisen ”luokittelutarkkuus” on toistaiseksi konetta parempi. Esimerkiksi äänen tulkitsemisessa kone voi saavuttaa 80 % tarkkuuden, kun ihminen saavuttaa lähes poikkeuksetta 100 %:n tarkkuuden äidinkielensä ymmärtämisessä. Vastaavanlaisia tilanteita on useita. Ihmiset esimerkiksi tunnistavat tunteita konetta tehokkaammin, ymmärtävät käsitteiden kontekstit syvällisemmin, ja keskimäärin kykenevät arvioimaan päätösten moraalisia seurauksia, ja sen vuoksi välttää kollektiivisesti haitallisia toimintamalleja. Koska kone on arvoneutraali ja tunteeton, se ei välitä niistä lopputulemista, joita ei olla kvantifioitu negatiivisen painon omaavina muuttujina. Kone pitäisi siis tutustuttaa moraaliin ja etiikkaan, mitä ei ainakaan toistaiseksi olla onnistuttu tekemään. Asia ei myöskään ole aivan yksioikoinen, vaikka keksittäisiinkin keino arvojen ja normien koneelle opettamiseksi – törmäämme silloin nimittäin universaalien ja subjektiivisten arvojen dilemmaan [4].

Aikaisemmin mainitsin myös, että koneet noudattavat määriteltyjä reseptejä päätöksiä tehdessään, ts. niiden toimintalogiikka tunnetaan hyvin ja sitä voidaan tarvittaessa muokata. Tämä seikka ei välttämättä enää päde ns. syväoppimisen (deep learning) kohdalla. Nämä oppimismallit pohjautuvat monikerroksisiin neuroverkkoihin, joiden toiminta ei ole enää tarkalleen mallinnettavissa. Kone voi siis antaa arvaamattomia tuloksia, joita algoritmin kehittäjä ei pysty ennustamaan. Esimerkiksi Googlen käännösalgoritmi kehitti oman metakielen; tarkalleen ei osata sanoa kuinka se sen teki. Lienee selvää, että mikäli päätösten laatua ei kyetä ennustamaan tarkasti, arvaamattomuus muodostaa erilaisia yhteiskunnallisia ja sosiaalisia riskejä. Tämän vuoksi koneiden päätöksentekoa täytyy valvoa ja pyrkiä kehittämään eri tilanteisiin sopivaksi.

Kone Ihminen
puolueeton  puolueellinen
 nopea  hidas
 looginen  epälooginen

Taulukko 2  Kone vs. ihminen – koneen edut

Ihminen Kone
empaattinen tunteeton
oikeudenmukainen arvoneutraali
 suhteellisuudentajuinen  naiivi

Taulukko 2 Kone vs. ihminen – ihmisen edut

Sekä kone että ihminen ovat manipuloitavissa, ja jopa samankaltaisella tavalla. Ihmiselle voidaan syöttää väärää tietoa (vrt. propaganda) ja koneelle harhaanjohtavaa dataa, ja lopputuloksena kummankin päätöksenteko vääristyy. Näiden kahden olion välillä on kuitenkin ratkaiseva ero: kritiikki ja kyseenalaistaminen. Ihmiselle on ominaista vallitsevien totuuksien kyseenalaistaminen ja toisinajattelu, kun taas koneet uskovat kaiken mitä niille kerrotaan. Klassinen esimerkki tästä on Microsoftin tekoälybotti Tay, joka lyhyen ajan sisällä käännytettiin kohteliaasta botista rasistisia vihailmaisuja viljeleväksi psykopaatiksi. Tay kuitenkin suoritti juuri sitä johon se oltiin ohjelmoitu: ihmisiltä oppimiseen. Tätä voidaan kutsua Candide-ongelmaksi – nimi tulee Voltairen vuonna 1759 kirjoittamasta kirjasta, jonka päähenkilö joutuu matkoillaan toistuviin ongelmiin lapsenuskonsa vuoksi.

Mikäli Candide-ongelma halutaan ratkaista, laajalle keinoälylle on kyettävä kehittämään suhteellisuudentajua. Sosiaalisissa ympäristöissä tämänkaltaiset ongelmat korostuvat, koska ne eivät ole lineaarisesti mallinnettavissa olevia matemaattisia yhtälöitä, kuten esimerkiksi Internet-mainonnan optimointi. Voidaan missä määrin sosiaalisten ilmiöiden redusointi algoritmisiin malleihin onnistuu, ja missä määrin joudutaan yhä turvautumaan ihmisiin algoritmisen päätöksenteon kaitsijana. Juuri tällä hetkellä näiden kahden olion yhdistäminen tuottaa parhaan lopputuloksen [5].

Viittaukset:

[1] Huomaa, että puolueeton prosessi ei tarkoita etteivätkö päätökset olisi puolueellisia, ts. jonkin ryhmän edun vastaisia.
[2] Yhteisten resurssien eettinen ja tehokas käyttö.
[3] En käytä perinteistä termiä ”rationaalinen” tai ”epärationaalinen”, koska peliteoriassa rationaalinen pelaaja pyrkii nimenomaan maksimoimaan omaa hyötyään, ja sen vuoksi pattitilanteisiin päädytään. ”Looginen” tässä yhteydessä tarkoittaa konfliktin ratkaisuun pyrkivää strategiaa.
[4] Kenen arvot ovat oikeat? Ovatko esimerkiksi liberaalit aina oikeassa ja konservatiivit aina väärässä?
[5] Kutsun tätä kone-ihmispäätöksenteon hybridimalliksi.

Miksi eurooppalaisten on ymmärrettävä koneellista päätöksentekoa?

Suomalaisen yhteiskunnan on pysyttävä ns. digitalisaation kärjessä, jotta voimme vastata kansainvälisen kilpailun haasteisiin. Paitsi kilpailullisia seikkoja, koneelliseen päätöksentekoon liittyy teknologian yhteiskunnallisten merkitysten ymmärtäminen.

Tarkastellaan koneellista päätöksentekoa eurooppalaisesta näkökulmasta. Käytännössä kaikki ns. superalustat (alusta, jolla on yli sata miljoonaa käyttäjää) ovat yhdysvaltalaisomistuksessa. Nämä kaupalliset toimijat, joiden algoritmien tarkka toiminta on ”musta laatikko” niin käyttäjille kuin lainsäätäjille, päättävät minkälaista tietoa eurooppalaisille kansalaisille päivittäin näytetään. Eurooppalaiset viettävät esimerkiksi yhteensä yli 60 miljoonaa tuntia päivässä Facebookissa ja tekevät yli 30 miljardia hakua Googlessa kuukausittain. Nuorempien sukupolvien mediakulutus on vielä enemmän verkkopainotteista, ja useille verkkomediat muodostavat tärkeimmän informaatiolähteen.

On siis poikkeuksellisen selvää, että amerikkalaisilla yrityksillä on superalustojen kautta suuri valta yleisen mielipiteen muodostumisessa niin Euroopassa kuin oikeastaan koko maailmassa. Tarkoituksenamme ei ole väittää, että tätä valtaa käytettäisiin tällä hetkellä väärin, mutta vallan luonteeseen kuuluu läheisesti väärinkäytön mahdollisuus. Sen vuoksi eurooppalaisten on kriittistä vähintäänkin ymmärtää, mistä algoritmien toiminnassa on kyse. Tämä ymmärrys voidaan kytkeä mm. lainsäädäntöön, jotta superalustojen toimintaa voidaan valvoa ja tarvittaessa kontrolloida.