Tagged: algoritmit

Googlen toimintaperiaatteet eettisille algoritmeille

Googlen toimitusjohtaja Sundar Pichai kirjoitti kesäkuussa 2018 blogipostauksen Googlen eettisistä algoritmiperiaatteista. Tiivistän tässä sen ydinkohdat suomeksi.

Googlen tavoitteet tekoälysovelluksille

Kehittäessään tekoälysovelluksia Google pyrkii ottamaan huomioon seuraavat tavoitteet.

1. Ole sosiaalisesti hyödyllinen.

Uusi teknologia koskettaa yhä enemmän yhteiskuntaa kokonaisuutena. Tekoälyteknologian vaikutust tuntuu monilla eri aloilla, esimerkkeinä terveydenhuolto, turvallisuus, energia, kuljetus, teollisuus ja viihde. Googlen näkemys on, että kokonaishyödyt näillä aloilla ylittävät huomattavasti ennakoitavissa olevat riskit ja haitat. Google pyrkii tekemään laadukkaan ja täsmällisen tiedon saataville samalla kunnioitaen eri maiden kulttuurisia, sosiaalisia ja oikeudellisia normeja.

2. Vältä epäreilun puolueellisuuden luontia tai vahvistamista.

AI-algoritmit ja data voivat heijastaa, vahvistaa tai vähentää kohtuuttomia ennakkoluuloja. Google pyrkii välttämään epäoikeudenmukaisia ​​vaikutuksia ihmisiin, erityisesti liittyen arkaluonteisiin ominaisuuksiin, kuten rotuun, etniseen alkuperään, sukupuoleen, kansalaisuuteen, tuloihin, seksuaaliseen suuntautumiseen, ja poliittiseen tai uskonnolliseen vakaumukseen.

3. Rakenna ja testaa turvallisuutta.

Google kehittää ja soveltaa vahvoja turvallisuus- ja turvallisuuskäytäntöjä, jotta vältytään tahattomilta vahingoilta AI-sovelluksissa. Google suunnittelee tekoälyjärjestelmät uusimman turvallisuustutkimuksen parhaiden käytäntöjen mukaisesti. Tarvittaessa AI-tekniikoita testataan kontrolloiduissa ympäristöissä ja niiden toimintaa seurataan käyttöönoton jälkeen.

4. Ole vastuullinen ihmisille.

Google suunnittelee AI-järjestelmiä, jotka tarjoavat käyttäjille mahdollisuuden antaa palautetta, nähdä algoritmin valintoihin liittyviä selityksiä ja valittaa mahdollisista epäkohdista. Googlen AI-teknologia on ihmiskeskeistä ja antaa ihmisille mahdollisuuden vaikuttaa.

5. Sisällytä tietosuojasuunnitteluperiaatteet.

Google yhdistää tietosuojaperiaatteet AI-teknologioiden kehittämiseen ja käyttöön. Käyttäjiä tiedotetaan heidän tietojensa käytöstä ja siihen pyydetään suostumus. Lisäksi Google kehittää yksityisyyden suojaa tukevia ohjelmistoarkkitehtuureja, jotka tukevat avoimuuden periaatetta ja mahdollistavat tiedon käytön valvonnan.

6. Ylläpidä korkeatasoista tieteellistä huippuosaamista.

Teknologinen innovaatio perustuu tieteelliseen menetelmään ja avoimen tutkimuksen sekä yhteistyön periaatteisiin. AI-työkalujen avulla on mahdollista kehittää tieteellistä tutkimusta kriittisillä aloilla, kuten biologia, kemia, lääketiede ja ympäristötieteet. Google pyrkii investoimaan korkeatasoiseen tieteelliseen huippuosaamiseen.

Lisäksi Google tekee yhteistyötä eri sidosryhmien kanssa tukeakseen huippututkimusta ja kehittääkseen tieteellisesti päteviä ​​lähestymistapoja. Google lisää tekoälytietoisuutta julkaisemalla opetusmateriaaleja, parhaita käytäntöjä ja tutkimustietoa, joiden avulla eri toimijat voivat kehittää hyödyllisiä AI-sovelluksia.

7. Käyttötarkoituksia, jotka noudattavat näitä periaatteita.

Monilla tekniikoilla on useita käyttötarkoituksia. Tekoälysovellusten kehittämisessä on tärkeää mieltää ja ymmärtää sen mahdolliset käyttötarkoitukset, mukaanlukien mahdollinen väärinkäyttö. Kehittäessään tekoälysovelluksia Google pyrkii arvioimaan haitallisen käytön riskiä seuraavien kriteereiden pohjalta:

  • Ensisijainen tarkoitus ja käyttö: mikä on teknologian tai sovelluksen ensisijainen tarkoitus ja todennäköinen käyttö? Miten se soveltuu mahdolliseen haitalliseen käyttöön?
  • Ainutlaatuisuus: onko kehitetty teknologia ainutlaatuinen tai yleisesti saatavilla? Onko sen jakelua mahdollista rajoittaa?
  • Mittakaava: onko kehitetyllä teknologialla mahdollisesti kriittinen vaikutus? Millä tavalla?
  • Googlen osallistumisen luonne: tarjoaako Google yleiskäyttöisiä työkaluja, integrointeja vai mukautettuja ratkaisuja?

Musta lista

Google ei aio kehittää teknologioita, jotka täyttävät seuraavat tuntomerkit:

  • Teknologiat, jotka aiheuttavat tai todennäköisesti aiheuttavat yleistä haittaa. Jos on olemassa merkittäviä haittoja, Google tekee kehitystyötä ainoastaan mikäli odotetut hyödyt ovat huomattavasti suurempia kuin riskit.
  • Aseet tai muut teknologiat, joiden pääasiallinen tarkoitus on aiheuttaa ihmisten loukkaantuminen tai vahingoittaminen.
  • Teknologiat, jotka keräävät tai käyttävät tietoa tavalla, joka rikkoo kansainvälisesti hyväksyttyjä normeja.
  • Teknologiat, joiden tarkoitus on ristiriidassa kansainvälisen oikeuden ja ihmisoikeuksien periaatteiden kanssa.

Vaikka Google ei kehitä tekoälyä aseellisiin tarkoituksiin, se tekee yhteistyötä hallitusten ja armeijan kanssa monilla muilla aloilla. Näihin kuuluvat kyberrikollisuus, koulutus, sotilasrekrytointi, veteraanien terveydenhuolto ja pelastustoimi.

Tekoälyn vaikutusten huomiointi pitkällä aikavälillä

Googlen tavoitteena on olla mukana algoritmien eettisyyttä edistävässä toiminnassa pitkällä aikavälillä. AI-teknologioiden kehittyessä Google pyrkii tekemään poikkitieteellistä yhteistyötä eri sidosryhmien kanssa tukeakseen eettisten periaatteiden huomioimista tekoälyteknologian kehityksessä ja soveltamisessa. Liiketoimintanäkökulmasta Google on valmis tekemään lyhyen tähtäimen kompromisseja toimiakseen eettisten arvojen mukaisesti.

Algoritmipaniikki

Yhteiskuntakeskustelua algoritmeista on paikoin ahdistavaa seurata.

Ihmiset, jotka eivät ymmärrä algoritmeista, antavat niille supervoimia. Media tekee parhaansa lietsoakseen algoritmipelkoa.

Kyllä, on totta että algoritmien käytössä on riskejä. Mutta hyvin usein algoritmeja pidetään syntipukkeina ihmisten toimille.

Esimerkkikommentti eräästä Amazonin rekrytointialgoritmin havaittuja ja väitettyjä puutteita koskevasta LinkedIn-keskustelusta: ”Vaikka data jollain ihmeen kaupalla heijastelisikin 100% tasa-arvosta tilannetta (ei realistista), kyllä lopputuloksen saa vielä algoritmeilla pilattua!”

Kommentti sisältää väärää tietoa — koska algoritmi on yhtä hyvä kuin sinne syötetty data — mutta kuvastaa hyvin valloillaan olevasta ”paha algoritmi” -mentaliteetista.

Toinen esimerkki on Yhdysvaltain viimekertainen vaalitulos: on olemassa yleinen myytti siitä, että Cambridge Analytica -yhtiön ”algoritmit” saivat ihmiset maagisesti äänestämään tahtoaan vastaan. Kuvaavia tästä harha-ajattelusta ovat tämänkaltaiset väitteet: ”Facebook let Trump use AI to win the 2016 election”, joita poliittisesti puolueelliset toimittavat lietsovat.

Sami Kuusela jakoi oheisen pilakuvan Facebookissa. Mielestäni tämä tiivistää hyvin algoritmipaniikin luonteen.

algoritmipaniikki

Mistä algoritmipaniikki sitten johtuu?

Tunnistan algoritmipaniikkiin kolme syytä:

  • Pelko tuntemattomasta — kautta historian, ihmiset ovat pelänneet sitä mitä eivät ymmärrä. Suurin syy algoritmipaniikkiin on puutteellinen ymmärrys niiden toiminnasta. Kun ei tiedetä kuinka algoritmit toimivat, niille on helppo keksiä supervoimia. Mutta mitä enemmän tunnet algoritmeja, sitä enemmän ymmärrät niiden puutteet. Ne ovat erehtyväisiä ennustuksissaan, täysin riippuvaisia annetusta datasta, eivätkä järkeile, sovella tai millään lailla toimi itsenäisesti rajatun tehtävän ulkopuolella. Algoritmit eivät ole tekoälyä, ne ovat teknisiä reseptejä.
  • Pelko syrjäytymisestä — kuten luddiitit aikoinaan, nykyajan tietotyöläiset pelkäävät enenevissä määrin syrjäytymistä työmarkkinoilta algoritmien toimesta. Tämä on toinen myytti, jonka taloustieteilijät ja historia aikanaan, tulee osoittamaan vääräksi. Talous muuttuu ja uusia työtehtäviä syntyy korvaamaan vanhat, pääasiassa koska ihmisten tarpeet ja halut ovat rajattomia. Kuitenkin on fakta, että automaatio korvaa tiettyjä työtehtäviä ja väistämättä tämä johtaa tietynlaiseen antipatiaan koneita kohtaan: ”tyhmä kone vei mun työn”.
  • Antropomorfismi — jos termi ei ole tuttu, se tarkoittaa inhimillisten ominaisuuksien liittämistä eläimiin, elottomiin esineisiin tai kuvitteellisiin kohteisiin (lähde). Algoritmien tapauksessa niihin liitetään tahtotiloja ja motiiveja, kuten valta, päätöksenteko, tietoisuus… Algoritmeihin projisoidaan ihmispiirteitä ja niitä syytetään ikään kuin ne olisivat elollisia olentoja. Algoritmi ei kuitenkaan ole elävä olio, toimija tai päätöksentekijä. Se on vain kasa tekstiä, resepti joka toteuttaa mitä ihminen haluaa (usein vajavaisesti, koska sille annetut käskyt ovat vajavaisia).

Johtopäätös

Hyvässä ja pahassa, algoritmeille ei saa antaa liikaa valtaa. Niitä ei saa syyttää asioista, joissa ihminen on vastuussa. Niitä ei myöskään saa ylentää erehtymättömiksi jumalolennoiksi. Algoritmi on — yhä edelleen — resepti, ei itse lääke.

Algoritmien läpinäkyvyyden ja vastuullisuuden ohjenuorat

Kari Haakana (@Karde) piti esityksen Kone Säätiön ja Kaute-säätiön järjestämässä ”Algorytmittyvä elämä” -tilaisuudessa Helsingissä (12.5.2017). Kari mainitsi USACM:n (Association for Computing Machinery US Public Policy Council) julkaiseman ohjeistuksen algoritmien läpinäkyvyydelle ja vastuullisuudelle. Tietääkseni sitä ei ole vielä käännetty suomeksi, joten päätin kääntää sen. Alla ohjeistus.

Miksi algoritmien salaisuuksia ei paljasteta?

ACM kirjoittaa, että algoritmien läpinäkymättömyyteen on olemassa useita syitä, kuten 1) tekniset syyt (algoritmin toimintaa ei ole helppo selittää), 2) taloudelliset syyt (liikesalaisuudet estävät algoritmien toiminnan paljastamisen), ja 3) sosiaaliset syyt (tietojen paljastaminen voi rikkoa odotuksia yksityisyydensuojasta). Lisään tähän neljännen: 4) tietojen paljastaminen voi rikkoa lakeja yksityisyydensuojasta tai palvelun itse määrittelemiä käyttöehtoja. Lisäksi on huomioitava, että monet algoritmiset edistysaskeleet on julkaistu joko avoimissa konferenssi- tai journaalijulkaisuissa (ks. arxiv.org) tai avoimen lähdekoodin alla (esim. Google, Facebook, Airbnb).

Algoritmien läpinäkyvyyden ja vastuullisuuden ohjenuorat

  1. Tietoisuus: Analyyttisten järjestelmien omistajien, suunnittelijoiden, rakentajien, käyttäjien ja muiden sidosryhmien tulisi olla tietoisia mahdollisista ennakkoluuloista, jotka liittyvät niiden suunnitteluun, käyttöönottoon ja käyttöön sekä potentiaalisiin haittoihin, joita niiden puolueellisuus voi aiheuttaa yksilöille ja yhteiskunnalle.
  2. Pääsy ja oikeussuojakeinot: Lainsäätäjiä olisi kannustettava sellaisten mekanismien käyttöönottoon, jotka mahdollistavat koneellisten päätösten kyseenalaistamisen ja oikeussuojan antamisen yksilöille ja ryhmille, joita koneelliset päätökset mahdollisesti haittaavat.
  3. Vastuullisuus: Organisaatioiden tulisi olla vastuussa käytettävien algoritmien tekemistä päätöksistä, vaikka ei olisikaan mahdollista selittää yksityiskohtaisesti, miten algoritmit tuottavat tuloksensa.
  4. Selitys: Algoritmista päätöksentekoa käyttäviä järjestelmiä ja organisaatioita kannustetaan tuottamaan selityksiä sekä algoritmin suorittamista toimenpiteistä että yksittäisistä päätöksistä. Tämä on erityisen tärkeää julkishallinnon yhteydessä.
  5. Tietojen alkuperä: Algoritmien kehittäjien tulisi dokumentoida, kuinka koneoppimismallien harjoitteluaineisto kerättiin, sekä arvioida ihmisen tai koneellisen tiedonkeruuprosessin aiheuttamia mahdollisia vääristymiä. Tietojen julkinen tarkastelu tarjoaa mahdollisuuden korjata mallien aineistosta johtuvia virheitä. Kuitenkin huoli yksityisyyden suojasta, liikesalaisuuksien suojelemisesta tai sellaisten toiminnallisuuksien paljastamisesta, jotka voivat antaa pahaa tarkoittaville toimijoille mahdollisuuden hyväksikäyttää järjestelmää, voivat oikeuttaa rajoittamaan pääsyn päteviin ja luotettaviin henkilöihin.
  6. Tarkastettavuus: Mallit, algoritmit, tiedot ja päätökset on dokumentoitava siten, että ne voidaan ulkopuolisen tahon toimesta tarkastaa tapauksissa, joissa haittaa epäillään.
  7. Validointi ja testaus: Organisaatioiden tulee käyttää uskottavia menetelmiä malliensa vahvistamiseen ja dokumentoida nämä menetelmät ja tulokset. Erityisesti niiden tulisi tasaisin väliajoin suorittaa testejä arvioidakseen ja määrittääkseen, aiheuttaako malli yhteiskunnallisia haittoja. Koneellista päätöksentekoa soveltavia organisaatioita kannustetaan tekemään tällaisten testien tulokset julkiseksi.

Alkuperäinen lähde: https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf

Algoritmien riskit: Ratkaisuja pehmeistä tieteistä

Minua haastateltiin hiljattain Kauppalehteen. Eräs jutun lukijakommentti oli:

Mikä ihmeen humanisti-tutkija tätäkin tutkii? Saisivat pysyä kaukana luonnontieteiden alalta tuollaiset teknofoobikot, koska niissä hallitsee logiikka, ei tunne.

Yhteiskunnallisen keskustelun taso eri verkkomedioissa on silminnähden matala: Ihmiset pilkkaavat toisiaan ja tuntuvat haastavan riitaa useammin kuin suhtautuvan asioihin järkevästi. Omaa pahaa oloa puretaan kärkeviin kommentteihin, jotka eivät kuitenkaan saa ketään paremmalle mielelle. Suuri enemmistö lukijoista pysyy hiljaisena, ja tarkkailee tätä kehitystä surullisin mielin.

Tämän kirjoituksen aiheena ei kuitenkaan ole verkkokeskustelun alennustila (se tarvitsee oman artikkelinsa!), vaan tuon kommentin asiaydin. Eli argumentti: ”Humanistien ei tulisi osallistua teknologian kehittämiseen, koska he eivät siitä mitään ymmärrä.”

Ensimmäinen osa on mielestäni väärä, mutta jälkimmäisessä on pieni ripaus totuutta (ja juuri siksi poikkitieteellistä tutkimusta tarvitaan).

Miksi päätelmä on väärä? Koska eri tieteenhaaroilla on valtavasti annettavaa teknologian ja yhteiskunnan kohtaamisen problematiikkaan. Tässä muutamia esimerkkejä kysymyksistä, joihin eri tieteenalat voivat tarjota vastauksia.

  • Filosofia: Mikä on oikea ja väärää? Mihin ihmiskunnan tulisi pyrkiä? Mikä on kehityksen tarkoitus? Millaisia argumentteja koneet pystyvät käsittelemään?
  • Sosiologia: Miten ryhmäpolarisaatio ilmenee? Miksi? Miten sitä voidaan ehkäistä? (Mitä muita merkittäviä sosiologisia ilmiöitä ilmenee, joita algoritmien suunnittelijoiden tulisi huomioida?)
  • Psykologia: Miten ihmiset havainnoivat järjestelmiä? Mitä kognitiivisia ja neurologia prosesseja ilmenee ihmisen ja koneen välisessä vuorovaikutuksessa? Kuinka kone voisi oppia ymmärtämään tunteita? Kuinka ihminen oppii? Miten alustat ja algoritmit vaikuttavat yksilöiden tunnetiloihin?
  • Politiikan tutkimus: Kuinka kansalaiset suodattavat poliittista informaatiota sosiaalisessa mediassa? Miten se vaikuttaa päätöksentekoon? Kuinka massaviestintä ja propaganda voi ilmetä algoritmien ja alustojen välityksellä?
  • Kauppatieteen tutkimus: Miten kuluttajat toimivat eri alustoilla? Miten vaihdantaa voidaan helpottaa algoritmien avulla? Miten algoritmit ratkaisevat kohtaanto-ongelmia?

Kaikki edellä mainitut eivät ehkä ole ”humanistitieteitä” sanan tarkassa merkityksessä, mutta ihmistieteitä kylläkin. Koko jutun pointti on se, että järjestelmät suunnitellaan loogisesti mutta altistetaan ympäristölle, joka toimii epäloogisesti. Täydellisessä maailmassa ei tarvittaisikaan ihmistutkimusta, mutta tässä maailmassa, jossa elämme, on järkevää pyrkiä parantamaan järjestelmien toimintaa laajemman ihmisymmärryksen avulla. Sillä on merkitystä, näemmekö ihmisen käyttäjänä, yksilönä vai strategisena toimijana.

Ihmistieteiden ja tietojenkäsittelytieteen välillä on kuilu osaajien erilaisesta taustasta johtuen. Mutta siksi juuri tarvitaan rajat rikkovaa, ”humanistista” tutkimusta tietojärjestelmistä.

Digitalisaation perussanastoa

Avaan muutaman tärkeän käsitteen, jotka eivät vaikuta olevan aivan selviä kaikille digitalisaatiosta kiinnostuneille.

Algoritmi. Algoritmi on tietokoneohjelma, joka tekee asioita tietyssä järjestyksessä. Kuuluisia algoritmeja ovat esimerkiksi Googlen PageRank, joka vaikuttaa hakutulosten järjestykseen, ja Facebook EdgeRank, joka vaikuttaa kunkin käyttäjän uutisvirran sisältöön. Algoritmit voivat tuottaa lopputuloksia, joita ihmiset eivät osaa ennustaa – esimerkiksi syväoppimisessa käytetyt neuroverkot ovat niin monimutkaisia, että niiden toiminta ei ole enää jäljitettävissä.

Alusta. Alusta tarkoittaa digitaalista paikkaa, jossa ihmiset ja järjestelmät ovat vuorovaikutuksessa keskenään. Sosiaalisessa alustassa vuorovaikutuksen tarkoitus on luonteeltaan sosiaalista, kuten keskustelu ja omasta elämästä kertominen. Vaihdanta-alustassa taas myyjät ja ostavat asioivat keskenään. Alustoja on erityyppisiä, mutta kaikissa korostuu eri osapuolten välinen enemmän tai vähemmän vapaa vuorovaikutus ja kyseisen vuorovaikutuksen itseohjautuvuus (esim. ostajat valitsevat myyjät omien preferenssiensä mukaan).

Asioiden Internet (IOT). Asioiden internet tarkoittaa sitä, että laitteet kytketään Internetiin. Tällöin niistä voidaan kerätä sensoridataa ja esimerkiksi ennustaa vikaantumista. Tällä on merkitystä vaikkapa koneiden huollossa ja korvaamisessa. Asioiden Internet voi näyttäytyä myös kuluttajien elämässä; esimerkiksi jääkaappi . tai kodin valvontajärjestelmä, saunan voi lämmittää etäyhteyden kautta, ja niin poispäin.

Digitalisaatio. Digitalisaatio on yleinen termi, jolla viitataan vähän kaikkeen. Sillä voidaan esimerkiksi liiketoiminnassa viitata disruptiivisiin innovaatioihin, joissa uudet liiketoimintamallit syrjäyttävät vanhat. Esimerkiksi Google on leikannut suuren osan perinteisten mediatalojen, kuten Sanoman, mediamyyntikakusta. Monet perinteiset yritykset kuolevat, kun niiden liiketoiminnan ottaa haltuun yritys, jolla on ylivoimainen teknologinen kilpailuetu. Mutta monet perinteisten alojen yritykset myös hankkivat kilpaa koneoppimisosaamista pysyäkseen mukana kehityksessä.

Koneoppiminen. Koneoppiminen tarkoittaa algoritmeja, jotka käyttävät tilastollista päättelyä parantaakseen toimintaansa. Koneoppiminen on tärkeää, koska yhä useammat järjestelmät tekevät päätöksiä itsenäisesti ympäröivästä maailmasta keräämänsä aineiston perusteella.

Robotisaatio. Robotit ovat tärkeässä roolissa valmistavassa teollisuudessa, jossa automatisaatio on korvannut ihmistyövoimaa. Robotisaatio on käynnissä myös Kiinassa, joten tulevaisuudessa valmistavan teollisuuden työpaikat voivat kadota tai marginalisoitua globaalissa mittakaavassa. Tällä on laajoja yhteiskunnallisia vaikutuksia, jotka edellyttävät työelämän ja yrittäjyyden uudelleenstrukturointia.

Kuten huomataan, digitalisaation käsitteillä on laajoja kytköksiä eri teemoihin, kuten politiikka, talous, liiketoiminta, kansalaisuus, ja ihmisten välinen kanssakäynti. Tämän vuoksi aihetta kannattaa lähestyä poikkitieteellisesti.

Koneellisen päätöksenteon hyvät ja huonot puolet

Marc Andreessenin kuuluisan software eats the world –lausahduksen (so. ohjelmat syövät maailman) mukaisesti ihmisresursseja korvataan jatkuvasti ohjelmallisilla ratkaisuilla. Tämä ilmiö näyttäytyy kaikilla yhteiskunnan alueilla, mutta yksi merkittävimmistä alueista on päätöksenteon koneellistuminen ja automatisointi. Tässä artikkelissa kartoitan lyhyesti koneelliseen päätöksentekoon liittyviä mahdollisuuksia ja riskejä.

 Mahdollisuudet  Riskit
 puolueeton  tunteeton
 nopea  arvaamaton
 skaalautuva  manipulaatioaltis

Taulukko 1 Koneellisen päätöksenteon mahdollisuudet ja riskit

Mahdollisuudet

Teoreettisesti koneelliseen päätöksentekoon liittyy merkittäviä tehokkuushyötyjä johtuen koneiden ylivertaisesta laskentakapasiteetista, loogisten virhepäätelmien vähäisyydestä ja ihmisille ominaisen asenteellisuuden puutteesta. Koneet suorittavat saamansa ohjeet täsmällisesti ja tyypillisesti virheettä, kun taas ihmiset tekevät usein loogisia ja tilastollisia virheitä. Ihmiset ohjautuvat suurelta osin viettien, tunteiden ja alitajuisen intuition varassa, kun taas koneet noudattavat jäljitettävissä olevia toimintareseptejä, jotka pohjautuvat ennalta määrättyihin käskyihin ja numeeriseen dataan. Tästä syystä koneiden päätöksentekoprosessin voidaan sanoa olevan puolueeton [1].

Miksi puolueettomuus on niin tärkeää? Itse näen sen niin, että parhaimmillaan algoritminen päätöksenteko voisi ratkaista inhimillisen käyttäytymisen ”ikuisuusongelmia”, kuten viheliäät ongelmat (Rittel & Webber, 1973) ja yhteismaan ongelman [1] (Hardin, 1968). Puolueeton algoritmi voisi olla myös tehokas sovittelija poliittisissa konflikteissa (Miorandi ym., 2014) ja lainsäädännön soveltajana (Stray, 2016). Edellä mainittujen ongelmien nähdään olevan perimmäistä laatua, eli johtuvan ihmisluonnon synnynnäisistä vajavaisuuksista. Sen vuoksi niiden korjaaminen ihmispäätöksenteolla on äärimmäisen vaikeaa.

Poliittiset ongelmat ja muut sosiaaliset konfliktitilanteet voidaan usein mallintaa peliteoreettisina tilanteina, joiden ainoa ratkaisu on kompromissi eli palkkion maksimoinnista (ts. omasta edusta) tinkiminen. Historia ja myös nykypäivän globaali tilanne osoittavat, että ihmiset eivät tähän maailmanlaajuisessa mittakaavassa pysty. Teoriassa kompromissitasapaino on erittäin helppo rikkoa yhdenkin opportunistisen tai epäloogisen [3] agentin toimesta. Mikäli päätöksenteko luovutetaan koneelle, joiden toimintalogiikan tiedetään olevan neutraali ja jonka päätäntävalta siitä syystä hyväksytään, koneen tuottama kompromissiratkaisu voisi saavuttaa kestävän tasapainon.

Koneet kykenevät myös tekemään miljoonia päätöksiä sekunnissa – etenkin klustereissa tai hajautetuissa järjestelmissä tehokkuus moninkertaistuu ja päätökset voidaan myös rajapintojen kautta panna toimeen välittömästi. Esimerkiksi mainoshuutokauppa-algoritmi kierrättää mainosnäytön  200 millisekunnissa kymmenien verkostojen ja data-alustojen läpi, ja mainosvaihdanta tapahtuu jo ennen kuin sivu on latautunut loppukäyttäjälle. Tällainen huutokauppa ei luonnollisesti olisi mahdollinen ihmisten toteuttamana.

Riskit

Kaikista mahdollisuuksista huolimatta algoritmit sisältävät myös erilaisia riskejä. Algoritmit ovat ensinnäkin ihmisten luomia, joten niiden toimintaan saattaa ajautua epäsuotuisia elementtejä. Koska ihmiset ovat ajattelultaan epätäydellisiä, myös ihmisten luomien koneiden ja algoritmien voidaan ajatella ”perivän” tätä epätäydellisyyttä. Ohjelmissa voi olla sekä suoria koodausvirheitä (bugeja) että epäsuoria suunnitteluvirheitä, joiden vuoksi koneen tekemät päätökset eivät muodostu halutun kaltaisiksi.

Lisäksi datapohjaiset algoritmit ovat alttiita väärinkäytöksille, kuten järjestäytyneelle manipuloinnille. Tästä esimerkkinä on etenkin 2000-luvun alun hakukoneoptimointi, joka pyrki kaikin keinoin nostamaan tiettyjen sivujen sijoitusta hakutulossivuilla. Sittemmin hakukoneoptimoinnista on tullut eettisempää toimintaa, mutta vain koska manipulointiin on aikoinaan määrätietoisesti puututtu esimerkiksi Googlen toimesta (ja puututaan yhä). Algoritmien tietoinen manipulointi on yleistä toimintaa eri verkkoalustoilla, mutta koneellinen päätöksenteko voi vääristyä myös tahattoman toiminnan tuloksena. Googlen algoritmi saattaa esimerkiksi oppia yhdistämään afrikkalaisamerikkalaiset nimet rikoksiin, koska niitä mainitaan useammin rikosten yhteydessä. Tällöin algoritmi voi leimata kyseisen ryhmän rikolliseksi. Toisin sanoen datalähteet saattavat olla vääristyneitä tai sisältää puolueellisuutta, jolloin myös koneen tulkinta vääristyy. Kuitenkin kyseessä on koneen näkökulmasta ainoastaan tilastollinen yleistys, eli looginen lopputulos. Ainoastaan ihminen voi tulkita lopputuloksen olevan jollain tavalla kyseenalainen.

Aikaisemmin mainitsin, että koneiden virhealttius on ihmisiä matalampi. On kuitenkin tehtäviä, joissa ihmisen ”luokittelutarkkuus” on toistaiseksi konetta parempi. Esimerkiksi äänen tulkitsemisessa kone voi saavuttaa 80 % tarkkuuden, kun ihminen saavuttaa lähes poikkeuksetta 100 %:n tarkkuuden äidinkielensä ymmärtämisessä. Vastaavanlaisia tilanteita on useita. Ihmiset esimerkiksi tunnistavat tunteita konetta tehokkaammin, ymmärtävät käsitteiden kontekstit syvällisemmin, ja keskimäärin kykenevät arvioimaan päätösten moraalisia seurauksia, ja sen vuoksi välttää kollektiivisesti haitallisia toimintamalleja. Koska kone on arvoneutraali ja tunteeton, se ei välitä niistä lopputulemista, joita ei olla kvantifioitu negatiivisen painon omaavina muuttujina. Kone pitäisi siis tutustuttaa moraaliin ja etiikkaan, mitä ei ainakaan toistaiseksi olla onnistuttu tekemään. Asia ei myöskään ole aivan yksioikoinen, vaikka keksittäisiinkin keino arvojen ja normien koneelle opettamiseksi – törmäämme silloin nimittäin universaalien ja subjektiivisten arvojen dilemmaan [4].

Aikaisemmin mainitsin myös, että koneet noudattavat määriteltyjä reseptejä päätöksiä tehdessään, ts. niiden toimintalogiikka tunnetaan hyvin ja sitä voidaan tarvittaessa muokata. Tämä seikka ei välttämättä enää päde ns. syväoppimisen (deep learning) kohdalla. Nämä oppimismallit pohjautuvat monikerroksisiin neuroverkkoihin, joiden toiminta ei ole enää tarkalleen mallinnettavissa. Kone voi siis antaa arvaamattomia tuloksia, joita algoritmin kehittäjä ei pysty ennustamaan. Esimerkiksi Googlen käännösalgoritmi kehitti oman metakielen; tarkalleen ei osata sanoa kuinka se sen teki. Lienee selvää, että mikäli päätösten laatua ei kyetä ennustamaan tarkasti, arvaamattomuus muodostaa erilaisia yhteiskunnallisia ja sosiaalisia riskejä. Tämän vuoksi koneiden päätöksentekoa täytyy valvoa ja pyrkiä kehittämään eri tilanteisiin sopivaksi.

Kone Ihminen
puolueeton  puolueellinen
 nopea  hidas
 looginen  epälooginen

Taulukko 2  Kone vs. ihminen – koneen edut

Ihminen Kone
empaattinen tunteeton
oikeudenmukainen arvoneutraali
 suhteellisuudentajuinen  naiivi

Taulukko 2 Kone vs. ihminen – ihmisen edut

Sekä kone että ihminen ovat manipuloitavissa, ja jopa samankaltaisella tavalla. Ihmiselle voidaan syöttää väärää tietoa (vrt. propaganda) ja koneelle harhaanjohtavaa dataa, ja lopputuloksena kummankin päätöksenteko vääristyy. Näiden kahden olion välillä on kuitenkin ratkaiseva ero: kritiikki ja kyseenalaistaminen. Ihmiselle on ominaista vallitsevien totuuksien kyseenalaistaminen ja toisinajattelu, kun taas koneet uskovat kaiken mitä niille kerrotaan. Klassinen esimerkki tästä on Microsoftin tekoälybotti Tay, joka lyhyen ajan sisällä käännytettiin kohteliaasta botista rasistisia vihailmaisuja viljeleväksi psykopaatiksi. Tay kuitenkin suoritti juuri sitä johon se oltiin ohjelmoitu: ihmisiltä oppimiseen. Tätä voidaan kutsua Candide-ongelmaksi – nimi tulee Voltairen vuonna 1759 kirjoittamasta kirjasta, jonka päähenkilö joutuu matkoillaan toistuviin ongelmiin lapsenuskonsa vuoksi.

Mikäli Candide-ongelma halutaan ratkaista, laajalle keinoälylle on kyettävä kehittämään suhteellisuudentajua. Sosiaalisissa ympäristöissä tämänkaltaiset ongelmat korostuvat, koska ne eivät ole lineaarisesti mallinnettavissa olevia matemaattisia yhtälöitä, kuten esimerkiksi Internet-mainonnan optimointi. Voidaan missä määrin sosiaalisten ilmiöiden redusointi algoritmisiin malleihin onnistuu, ja missä määrin joudutaan yhä turvautumaan ihmisiin algoritmisen päätöksenteon kaitsijana. Juuri tällä hetkellä näiden kahden olion yhdistäminen tuottaa parhaan lopputuloksen [5].

Viittaukset:

[1] Huomaa, että puolueeton prosessi ei tarkoita etteivätkö päätökset olisi puolueellisia, ts. jonkin ryhmän edun vastaisia.
[2] Yhteisten resurssien eettinen ja tehokas käyttö.
[3] En käytä perinteistä termiä ”rationaalinen” tai ”epärationaalinen”, koska peliteoriassa rationaalinen pelaaja pyrkii nimenomaan maksimoimaan omaa hyötyään, ja sen vuoksi pattitilanteisiin päädytään. ”Looginen” tässä yhteydessä tarkoittaa konfliktin ratkaisuun pyrkivää strategiaa.
[4] Kenen arvot ovat oikeat? Ovatko esimerkiksi liberaalit aina oikeassa ja konservatiivit aina väärässä?
[5] Kutsun tätä kone-ihmispäätöksenteon hybridimalliksi.

Miksi eurooppalaisten on ymmärrettävä koneellista päätöksentekoa?

Suomalaisen yhteiskunnan on pysyttävä ns. digitalisaation kärjessä, jotta voimme vastata kansainvälisen kilpailun haasteisiin. Paitsi kilpailullisia seikkoja, koneelliseen päätöksentekoon liittyy teknologian yhteiskunnallisten merkitysten ymmärtäminen.

Tarkastellaan koneellista päätöksentekoa eurooppalaisesta näkökulmasta. Käytännössä kaikki ns. superalustat (alusta, jolla on yli sata miljoonaa käyttäjää) ovat yhdysvaltalaisomistuksessa. Nämä kaupalliset toimijat, joiden algoritmien tarkka toiminta on ”musta laatikko” niin käyttäjille kuin lainsäätäjille, päättävät minkälaista tietoa eurooppalaisille kansalaisille päivittäin näytetään. Eurooppalaiset viettävät esimerkiksi yhteensä yli 60 miljoonaa tuntia päivässä Facebookissa ja tekevät yli 30 miljardia hakua Googlessa kuukausittain. Nuorempien sukupolvien mediakulutus on vielä enemmän verkkopainotteista, ja useille verkkomediat muodostavat tärkeimmän informaatiolähteen.

On siis poikkeuksellisen selvää, että amerikkalaisilla yrityksillä on superalustojen kautta suuri valta yleisen mielipiteen muodostumisessa niin Euroopassa kuin oikeastaan koko maailmassa. Tarkoituksenamme ei ole väittää, että tätä valtaa käytettäisiin tällä hetkellä väärin, mutta vallan luonteeseen kuuluu läheisesti väärinkäytön mahdollisuus. Sen vuoksi eurooppalaisten on kriittistä vähintäänkin ymmärtää, mistä algoritmien toiminnassa on kyse. Tämä ymmärrys voidaan kytkeä mm. lainsäädäntöön, jotta superalustojen toimintaa voidaan valvoa ja tarvittaessa kontrolloida.

Mikä on neutraali algoritmi?

Päätöksentekoalgoritmin neutraalius voidaan ymmärtää eri tavoin, esimerkiksi erottamalla toisistaan päätöksentekoprosessin ja tuloksen neutraalius (Stray, 2016). Mikäli algoritmin toimintaperiaate on läpinäkyvä ja yleisesti hyväksytty, voidaan sen katsoa olevan prosessin puolesta neutraali. Se voi kuitenkin yhä tuottaa puolueellisia tuloksia, erityisesti koneoppimisen kautta. Monet ongelmat liittyvätkin koneiden tapaan oppia, joka tapahtuu tilastollisen tulkinnan kautta (mm. Dwork, 2014). Esimerkiksi Sweeney (2013) tutki Googlen mainosjärjestelmää ja havaitsi, että järjestelmä liitti henkilöiden nimiin useammin rikoksia kuvaavia aputermejä, kun suoritettiin hakukyselyjä rotuvähemmistön suosimilla nimillä. Toinen esimerkki koneoppimisen haittapuolista on Microsoftin Tay-tekoäly, joka oppi nopeasti käyttämään rasistisia ilmauksia Twitter-trollaajien opettamana (Vincent, 2016).

Voidaan sanoa, että koneoppimiseen perustuvia algoritmeja ei yleensä tehdä tahallisen puolueelliseksi, vaan ne heijastavat ympäröivän yhteiskunnan asenteita analysoimalla saamaansa aineistoa. Tästä voidaan vetää mielenkiintoinen analogia ihmisten oppimiseen, joka myös tapahtuu omaksumalla asenteita ympäristöstä (Piaget, 1928). Eettisestä näkökulmasta voidaan väittää, että algoritmi on neutraali kun se heijastelee oikeaoppisesti (tarkasti) yhteiskunnan tilaa ilman relativistia arvopäätöksiä (Felten, 2014). Toisaalta voidaan väittää, että päätösten pitäisi olla yhteensopivia yhteiskunnallisten arvojen tai ainakin lakien kanssa, koska koneiden tekemät päätökset vaikuttavat konkreettisesti yksilöiden hyvinvointiin (Feldman ym., 2014). Neutraaliuden määritelmästä ei siis tällä hetkellä vallitse yksioikoista yhteisymmärrystä, vaan sitä tulkitaan eri lähtökohdista.

Koneellisessa päätöksenteossa voidaan erottaa ainakin kolme puolueellisuuden lähdettä (Zafar ym., 2015). Ensinnäkin 1) algoritmit ovat ihmisten suunnittelemia, joten algoritmin kehittäjän puolueellisuus saattaa tietoisesti tai tiedostamatta siirtyä sen toimintaperiaatteisiin. Toiseksi etenkin informaatioalgoritmit ovat alttiita 2) käyttäjien hyväksikäytölle, kuten järjestäytyneelle manipuloinnille. Kolmanneksi 3) datalähteet saattavat olla vääristyneitä tai sisältää puolueellisuutta, jolloin myös koneen tulkinta vääristyy ja tehdyt päätökset voivat olla epäreiluja.

Keinoja ehkäistä algoritmien puolueellisuutta ovat tarkastelleet ainakin Culotta (2014); Dwork (2014); Feldman ym. (2014); Jelveh & Luca (2015); ja Fish ym. (2015). Usein ratkaisukeinojen nähdään sisältävän valintatilanne tarkkuuden ja puolueettomuuden välillä (Feldman ym., 2014). Äärimmäisissä tapauksissa edes algoritmin kehittäjä ei kykene ennustamaan sen toimintaa, jolloin tulokset voivat olla arvaamattomia. Tällainen kaoottisuus liitetään etenkin syväoppimisessa käytettyihin neuroverkkoihin (Littmann & Ritter, 1997) ja toisaalta yleisesti ei-valvottuun koneoppimiseen, jossa luokittelu tapahtuu vapaasti aineiston pohjalta (Ngufor & Wojtusiak, 2013).

Algoritmien neutraalius ja puolueellisuus on monimutkainen ongelmavyyhti, jonka ratkaisuyrityksissä tarvitaan niin poikkitieteellistä osaamista. Läheisiä aihepiirejä ovat ainakin tietojenkäsittelyoppi (algoritmien suunnittelu), tilastotiede, sosiologia (ryhmädynamiikan ilmiöt), psykologia (vuorovaikutus), ja etiikka (päätösprosessien ja lopputulosten moraalinen hyväksyttävyys). Pelkkä tekninen osaaminen ei riitä koneellisen päätöksenteon kehittämisessä, koska sen vaikutukset ovat luonteeltaan moniulotteisia ja koskettavat koko yhteiskuntaa.

Lähteet:

Culotta, A. (2014) Reducing Sampling Bias in Social Media Data for County Health Inference. In Joint Statistical Meetings Proceedings.

Dwork, C. (2014) Can we Learn to be Fair? Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2014).

Feldman, M., Friedler, S., Moeller, J., Scheidegger, C., & Venkatasubramanian, S. (2014). Certifying and removing disparate impact. Working paper.

Fish, B., Kun, J., Lelkes, A. (2015) Fair Boosting: A Case Study. Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2015).

Jelveh, Z., Luca, M. (2015) Towards Diagnosing Accuracy Loss in Discrimination-Aware Classification: An Application to Predictive Policing. Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2015).

Littmann, E., & Ritter, H. (1997) Adaptive color segmentation-a comparison of neural and statistical methods. IEEE Transactions on Neural Networks, 8(1), 175–185.

Ngufor, C., & Wojtusiak, A. (2013) Unsupervised labeling of data for supervised learning and its application to medical claims prediction. Computer Science, 14.

Piaget, J. (1928) La causalité chez l’enfant. British Journal of Psychology. 18: 276–301.

Stray, J. (2016) Sometimes an algorithm really is (politically) unbiased. http://jonathanstray.com/sometimes-an-algorithm-really-is-politically-unbiased

Vincent, J. (2016) Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. http://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist

Zafar, M., Martinez, I., Gomez Rodriguez, M., Gummadi, K. (2015) Fairness Constraints: A Mechanism for Fair Classification. Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2015).

Koneoppiminen ja Googlen algoritmi

Johdanto

Tämä postaus sisältää muutamia Rand Fiskinin (MOZ) ”What Deep Learning and Machine Learning Mean For the Future of SEO” -videosta syntyneitä ajatuksia.

Video löytyy täältä, ja se kannattaa katsoa jotta pysyy kärryillä.

Mikä on SEO:n tulevaisuus koneoppimisen myötä?

Kukaan ei varmasti tiedä, miltä osin Google on jo implementoinut koneoppimisen periaatteita sijoittelualgoritmiinsa. Kertauksen vuoksi, koneoppiminen voidaan määritellä avustetuksi tai avustamattomaksi ohjelmistotoiminnaksi, jossa algoritmi löytää ns. harjoitusaineiston avulla yleisesti tehokkaimman ratkaisun tiettyyn, määriteltyyn tavoitteeseen nähden

Fiskinin visiossa Google soveltaa koneoppimista niin, että sijoittelualgoritmin sisältö (ominaisuudet ja niiden painotukset) ei olisi enää ennalta määritelty, vaan se tehtäisiin koneoppimisen kautta. Tähän liittyen algoritmilla ei olisi yleistä muotoa, vaan se mukautuisi esim. hakuteemojen ja hakijoiden mukaan (jo nythän tuloksia personoidaan hakijan tunnettujen ominaisuuksien mukaan).

Tärkein ”uusi” hakukoneoptimoinnin parametri?

Mikäli koneoppimisalgoritmi määrittäisi kaikista saatavilla olevista datapisteistä merkittävimmät onnistuneen haun kannalta (tulkittu ei-palaavana hakijana tietyllä lyhyellä aikajaksolla), mikä olisi tärkein SEO-parametri? Tietysti ländäri, jonka pitäisi varmistaa että kävijä jää.

Toiseksi tärkein olisi SERP-teksti, johon voidaan vaikuttaa metadatalla ja HTML-tägeillä (yllätys yllätys, niillä jolla ”ei ole enää väliä”), koska siinä pitäisi a) saavuttaa suhteellisesti korkea CTR ja b) viestiä totuudenmukaisesti, jotta relevanssi SERPin ja ländärin välillä pysyy korkealla tasolla.

Kuten huomataan, kumpikaan näistä parametreistä ei ole uusi, eikä uusia parametrejä voi syntyäkään niin kauan kuin algoritmin käytettävissä olevat ominaisuudet (ominaisuusavaruus) eivät laajene.

Koneoppimisen riski

Koneoppimisen soveltamisessa on mukana yleisesti tunnettu ”big datan” helmasynti, eli harhaanjohtavat korrelaatiot. Mitä enemmän hakujen tulkinnassa mennään kontekstisidonnaisuuteen, sitä todennäköisemmin mukaan tulee harhaanjohtavia korrelaatioita. Mitä enemmän muuttujia kone ottaa mukaan (tuhansia), sitä todennäköisemmin mukaan tulee harhaanjohtavia korrelaatioita. Eli ”totuuden” selvittäminen vaatii aina kontrolloitua testausta, ja sen puute on merkittävä rajoite tavanomaisissa koneoppimisimplementoinneissa.

Johtopäätös: Ei mitään radikaalia

Jos Fiskinin visiota vertaa nykyiseen Google-algoritmiin (sellaisena kuin se yleisesti tunnetaan), niin nykyisin käytetään suoria mittareita, joiden perusteella lasketaan pistearvo ja pistearvot summaamalla määritetään indeksissä olevien sivujen sijainnit suhteessa tiettyyn hakuun.

Uudessa mallissa kone rakentaisi mallin joka mittaisi suorien mittareiden välisiä suhteita, vaikka niin että mistä mittareista bounce muodostuu (ts. mitkä ennustavat sitä parhaiten). Tämä ei siis tarkoita että SEO-parametrit muuttuisivat jotenkin turhiksi (koska ne ovat välttämätön osa ominaisuusavaruutta, josta kone rakentaa mallin), vaan että niiden painotus tarkentuisi koneoppimisen kautta.

”Käyttäjäystävällisyys” eli hakijan palveleminen on aina ollut Googlen hakualgoritmin peruskivi, ja ystäväni Viet Dang puhui jo vuonna 2010 UFO:sta (= User-Friendly Optimization) SEO:n sijaan. Niin kauan kuin yleisesti tunnetuilla tekijöillä (nopeus, hyvä copyteksti, haun suhteen relevantti tarjonta) on välillinen tai välitön kytkös käyttäjän tyytyväisyyteen (jota Google mittaa epäsuorasti), eivät hakukoneoptimoinnin perusteet muutu.

Mikä olisi paras tapa hyötyä koneoppimisesta?

Hakukoneoptimoija hyötyisi eniten, jos hän rakentaisi oman koneoppimisalgoritmin hakuja varten ja ajaisi sitä omassa hakuympäristössään (ts. oikeassa maailmassa). Koneen luoma malli mahdollistaisi hakukäyttäytymisen syvällisemmän ymmärtämisen ja tulosten yleistämisen hakukoneoptimointiin Google-ympäristössä. Koska tämä menetelmä kuitenkin vaatisi käytännössä oman hakukoneen rakentamisen, ei se liene realistinen vaihtoehto keskivertohakukoneoptimoijalle.

Mistä algoritmien valtaan keskittyvässä tutkimuksessa on kyse?

Miksi algoritmit ovat tärkeitä?

Algoritmi on tietokoneohjelma, joka kykenee tekemään itsenäisiä päätöksiä. Tällä hetkellä päätökset koskevat esimerkiksi informaation leviämistä sosiaalisessa mediassa, hakukoneiden tulosten järjestelyä sekä mainosten kohdentamista verkossa. Algoritmien päätöksillä on tärkeä rooli kansalaisten ja kuluttajien arjessa, sillä käytännössä informaatioalgoritmit määrittävät mitä sisältöä meille näytetään milläkin hetkellä. Esimerkiksi Facebook voisi näyttää käyttäjälle jopa 1500 viestiä päivää kohti, mutta koska tämä on liikaa useimmille käyttäjille, se näyttää niistä noin 300 viestiä päivässä (Facebook, 2013). Samoin Google valitsee jokaista hakukyselyä kohti ensimmäiselle hakusivulle 10 tulosta miljoonien samankaltaisten sivujen joukosta (Google, 2016). Koneilla on siis valta valita, minkälaista informaatiota kullekin yksilölle näytetään, ja tätä kautta vaikuttaa mm. kansalaisten maailmankuvaan ja yleiseen mielipiteeseen.

Neutraalit algoritmit

Jos algoritmi on neutraali, eli toimii 1) läpinäkyvästi ja 2) yleisesti hyväksyttyjen toimintaperiaatteiden mukaisesti, sen valta-asemassa ei välttämättä ole mitään ongelmaa, sillä parhaimmillaan koneelliset päätökset ovat vapaita ihmisten asenteellisuudesta ja kognitiivisista rajoitteista. Jos algoritmi kuitenkin on puolueellinen, esimerkiksi maksimoimalla sen omistajan mainostuloja käyttäjien hyödyn sijaan, piilottamalla poliittisesti arkoja aiheita taikka järjestelmällisesti syrjimällä tiettyjä käyttäjiä, voidaan algoritmien suuri valta nähdä yhteiskunnallisena riskinä. Koska merkittävimpien algoritmien kehitystä johtavat suuret pörssiyritykset, joiden pääasiallinen tehtävä on tuottaa voittoa osakkeenomistajilleen, ja koska algoritmien toimintalogiikat ovat liikesalaisuuksia, on koneellisen päätöksenteon kriittinen tarkastelu perusteltua.

Algoritmien valta on avoin yhteiskunnallinen kysymys

Koneiden valta informaationvälityksessä on kasvavan kansainvälisen huomion kohteena. Etenkin keskustelu Facebookin valtaroolista on aktiivista. Yrityksen perustajan Mark Zuckerbergin mukaan Facebook ei ole media, vaan ”sosiaalinen alusta”, mutta esimerkiksi Vietnamin sodan ikonisen lapsikuvan piilottaminen käyttäjien uutisvirrasta on herättänyt kysymyksiä koneen suorittaman sensuroinnin eettisyydestä (Oremus, 2016). Lisäksi vuoden 2016 Yhdysvaltain presidentinvaalien yhteydessä Facebookia kritisoitiin poliittisesti tietynlaisten uutisotsikoiden suosimisesta (Facebook Newsroom, 2016). Kritiikin valossa Facebook vastikään päättikin poistaa toimituksellisen ihmisryhmän aiheiden valinnasta, ja sisällön valinta on nyt siirretty täysin algoritmin harteille (Lichterman, 2016). Vaikuttaa siltä, että yhteiskunnallinen kiinnostus Facebookin ja muiden suosittujen informaatioalustojen toimintaperiaatteita kohtaan ainoastaan kasvaa tulevaisuudessa, joten teknologisten kysymysten lisäksi eri toimijat joutuvat ottamaan kantaa eettisiin, poliittisiin ja yhteiskunnallisiin kysymyksiin.

Lähteet

Facebook (2013) News Feed FYI: A Window Into News Feed. https://www.facebook.com/business/news/News-Feed-FYI-A-Window-Into-News-Feed

Facebook Newsroom (2016) Response to Chairman John Thune’s letter on Trending Topics. https://newsroom.fb.com/news/2016/05/response-to-chairman-john-thunes-letter-on-trending-topics/

Google (2016) Algorithms. https://www.google.ca/insidesearch/howsearchworks/algorithms.html

Lichterman, J. (2016) Algorithms are now controlling Facebook’s Trending topics. What does that mean for news? http://www.niemanlab.org/2016/08/algorithms-are-now-controlling-facebooks-trending-topics-what-does-that-mean-for-news/

Oremus, W. (2016) Facebook’s Censorship Problem Is What Happens When a Tech Company Controls the News. http://www.slate.com/blogs/future_tense/2016/09/09/facebook_censors_napalm_girl_photo_changes_mind_has_no_idea_what_it_s_doing.html