Tagged: yhteiskunta

10 suositusta tekoälyn hyödyntämiseen

Tekoälyyn perustuvat digitaaliset apulaiset, chatbotit ja monenlaiset algoritmit sekä koneellinen päätöksenteko koskettavat ihmisten arkea entistä enemmän – oltiin siitä tietoisia tai ei. Kehitysvauhti on kovaa, mutta standardointi ja vaikuttavuuden arviointi laahaavat perässä. Sen vuoksi on syytä pohtia ja herättää keskustelua siitä, mihin suuntaan tekoälyn kehitystä tulevaisuudessa ohjataan. Yksi tärkeistä kysymyksistä on:

Millaisia suosituksia tekoälyn parissa työskenteleville tulisi antaa?

Tässä artikkelissa esitellään 10 suositusta AI Now -instituutilta, joka on tekoälyn tutkimukseen erikoistunut organisaatio, koskien tekoälyn hyödyntämistä.

1. Mustia laatikkoja tulisi välttää: Erilaisten julkishallinnollisten organisaatioiden, kuten lakien toimeenpanosta, terveydenhuollosta tai koulutuksesta vastaavien organisaatioiden ei tulisi hyödyntää tekoälyn tai algoritmisten järjestelmien niin sanottuja mustia laatikoita, joiden toimintaperiaatteita ulkopuoliset eivät pysty arvioimaan. Tämä käsittää sekä organisaation sisällä luodut että kolmansilta osapuolilta lisensoidut tekoälyjärjestelmät, joiden toimintalogiikka ei ole julkista tietoa. Suljettujen koneoppimisjärjestelmien käyttö herättää huolta, ja on ehdotettu että niiden tulisi olla julkisen auditoinnin ja testauksen piirissä. Yhdysvalloissa ongelmia on aiheuttanut esimerkiksi algoritmi, jolla arvioidaan opettajia vertailemalla koulun oppilaiden menestystä suhteessa osavaltion keskiarvoon. Opettajien kansalaisoikeuksia on katsottu rikottavan järjestelmällä, sillä he eivät voi varmistaa tulosten oikeellisuutta. Lisääntynyt tietoisuus koneellisesta päätöksenteosta on samanaikaisesti lisännyt toiveita läpinäkyvyydestä. Avoimen datan hankkeita onkin käynnissä ympäri maailmaa, kuten Suomessa esimerkiksi Turun kaupungilla.

2. Läpinäkyvä testaaminen: Ennen kuin tekoälyjärjestelmä julkaistaan, kehittäjien tulisi suorittaa tarkkoja testausvaiheita, jotta varmistetaan puolueellisuuden ja virheiden minimointi. Testausvaiheen tulisi olla mahdollisimman avointa ja läpinäkyvää sekä korostaa nimenomaan kehittäjän vastuuta. Voidaan esimerkiksi pyrkiä tasapainottamaan käyttäjille näytettävää sisältöä tai muilla tavoin pyrkiä etukäteen varmistamaan se, että koneellisen päätöksenteon haittapuolet minimoidaan.

3. Jatkuva konepäätösten seuraaminen ja arviointi: Tekoälyjärjestelmän julkaisun jälkeen kehittäjän tulisi järjestää jatkuvaa järjestelmän seurantaa soveltuen erilaisten käyttäjien ja yhteisöjen tarpeisiin. Vähemmistöryhmien näkemykset ja kokemukset tulisi asettaa jatkuvassa kehitystyössä tärkeäksi prioriteetiksi, jotta järjestelmän monipuolisuus taataan. Kehittäjän vastuun ei tulisi myöskään päättyä järjestelmän julkaisuun ja käyttöönottoon. On esimerkiksi keinoja arvioida koneoppimisalgoritmien toiminnassa vaikuttaneita datamuuttujia, ja tulkita onko päätös mahdollisesti ollut puolueellinen.

4. Toimialakohtainen tutkimus: Tarvitaan enemmän tutkimusta tekoälyjärjestelmien käytöstä työpaikoilla, kattaen esimerkiksi rekrytoinnin ja henkilöstöpalvelut. Tämänkaltainen tutkimus edesauttaisi myös automaation vaikutusten arviointia eri konteksteissa. Kaiken kaikkiaan tekoälyn vaikutus koskettaa monia aloja, joten koneellisen päätöksenteon valtaa tulisi arvioida usealta eri kantilta. Erityistä huomiota tulisi kiinnittää työntekijän oikeusturvaan. Esimerkiksi työhaastatteluvaiheessa on alettu hyödyntämään automatiikkaa, joka analysoi työnhakijan puhetta ja kehonkieltä sekä vertaa niitä työpaikalla parhaiten suoriutuviin. Haasteellista on kuitenkin muun muassa se, että prosessi voi vahvistaa ennakkoluuloja ja yksipuolistaa henkilöstöä.

5. Tekoälykehityksen standardit: Tulisi kehittää standardeja tutkimaan tekoälyn käyttämän data-aineiston alkuperää ja kehitysvaiheita. Tekoäly pohjautuu suuriin tietomääriin, jonka avulla muodostetaan malleja ja ennusteita. Suuret tietomäärät edustavat sen sijaan ihmiskunnan historiaa, mikä eittämättä sisältää myös puolueellisia ja ennakkoluuloisia asenteita. Siksi datan alkuperää on syytä tutkia enemmän. Koneoppimisen avulla pystytään toki havaitsemaan monenlaisia tilastollisia malleja, vaikkakin tavoite muodostaa yleistyksiä saattaakin merkitä erityisten poikkeusten huomiotta jättämistä.

6. Sovellutusympäristön huomiointi: Pitäisi laajentaa tekoälyn puolueellisuuden tutkimusta ajoittain kapeahkon teknisen lähestymistavan ulkopuolelle. Perushaasteena on, että vaikka teknisessä näkökulmassa keskitytään tavoitteiden mukaisesti optimoimaan järjestelmiä, niin oleellista on myös huomioida konepäätöksenteon toimintaympäristö. Toimintaympäristön hahmottaminen vaatii kuitenkin asiantuntijuutta esimerkiksi lainsäädännöstä, lääketieteestä tai sosiologiasta. Tämän vuoksi tekoälyn kohdalla tarvitaan poikkitieteellistä tutkimusta.

7. Tekoälyarvioinnin standardit: Vahvat auditoinnin standardit ja tekoälyn toiminnan ymmärtäminen arkielämässä on tarpeellista. Kuitenkaan tällä hetkellä ei ole olemassa vakiintuneita käytänteitä tekoälyn vaikuttavuuden arvioimiseen. Tutkimushankkeet, jotka keskittyvät tekoälyn yhteiskunnallisiin vaikutuksiin ovat varsin hajanaisia niin maantieteellisesti kuin sektoritasolla. On niin julkisrahoitteisia kuin yksityisrahoitteisia hankkeita – tekoälyn valtaa tutkitaan tällä hetkellä eniten Yhdysvalloissa, mutta myös Euroopassa on useita hankkeita käynnissä. Näiden välistä koordinaatiota tulisi kuitenkin lisätä, jotta standardien luonti olisi mahdollista.

8. Monimuotoisuuden lisääminen: Yritysten, oppilaitosten, järjestöjen, konferenssien ja muiden sidosryhmien tulisi julkaista tietoja siitä, miten esimerkiksi naiset, vähemmistöt ja muut marginalisoidut ryhmät osallistuvat tekoälyn tutkimiseen ja kehitykseen. Monimuotoisuuden puute on haaste tekoälyn kehittämisessä ja saattaa myös johtaa tekoälyn puolueellisuuden lisääntymiseen. Tekoälyn kehittäjät ovat usein miehiä ja tulevat samasta kulttuuri- ja koulutustaustasta. Tämä on johtanut esimerkiksi siihen, että puheentunnistusjärjestelmät eivät ”tunnista” naisen ääntä tai että digitaaliset assistentit estävät naisten terveyteen liittyvää tiedonsaantia. Kyse ei ole siitä, että palkattaisiin vain tietyn ryhmän edustajia, vaan että rakennettaisiin tosiasiallisesti inklusiivisia työympäristöjä ja kattavampaa tekoälyn järjestelmiä.

9. Ei-tekniset näkökannat: Edellistä jatkaen, tekoälyn tutkimiseen tulisikin palkata asiantuntijoita tietojenkäsittelytieteiden ja insinöörialojen ulkopuolelta. Tekoälyn käytön siirtyessä yhä uusille toimintaympäristöille olisi hyvä varmistaa, että esimerkiksi oikeustieteilijöiden ja yhteiskuntatieteilijöiden panos tekoälyjärjestelmien suunnittelussa tulisi esille.

10. Yhteisen hyvän määrittely: Tekoälyä koskevaa eettistä säännöstöä pitäisi seurata toimintakykyinen valvontaelin ja vastuullisuuden mekanismeja tulisi jalostaa nykyisestä. Kyse on siitä, miten yhteensovittaa korkeat eettiset periaatteet ja reilun sekä turvallisen tekoälyn kehitystyö. Eettisyyden periaate on kuitenkin ainakin toistaiseksi pitkälti vapaaehtoista ja keskeisenä painotuksena on yhteinen hyvä. Mutta mikä oikeastaan on yhteistä hyvää ja kuka sen määrittelee? Kehittäjien yksipuolisuuden ja tilivelvollisuuden periaatteen lisäksi tekoälyn kehityksen keskiössä on jatkossakin eettisyys.

Artikkeli perustuu AI Now -instituutin tutkimukseen. Alkuperäinen artikkeli ”The 10 Top Recommendations for the AI Field in 2017” on luettavissa täältä.

9 eettistä ongelmaa keinoälyssä

Keinoälyssä on kyse muustakin kuin teknologisista edistysaskeleista. Nykyisin tunnustetaan laajalti, että keinoälyjärjestelmiin liittyy keskeisesti inhimillisten arvojen ylläpitäminen ja riskienhallinta. Teknologiayritykset, kuten Googlen emoyhtiö Alphabet, Amazon, Facebook, IBM, Nokia ja Microsoft, sekä useat tieteen ja teknologian maailmassa tunnetut mielipidevaikuttajat, kuten Stephen Hawking, Elon Musk ja Bill Gates uskovat, että nyt on paras aika keskustella paitsi keinoälyn mahdollisuuksista, myös sen varjopuolista ja potentiaalisista riskeistä.

Tämän vuoksi on olennaista käydä läpi eettisiä ja ajankohtaisia kysymyksiä keinoälyyn liittyen. Tässä blogiartikkelissa esitetään yhdeksän keinoälyn yhteiskunnallista riskiä.

  1. Työttömyys. Mitä tapahtuu työpaikkojen loppuessa?

Yleisenä trendinä on, että automaatio sysää ihmisiä pois suorittavan tason teollisista töistä kohti korkeamman jalostusarvon työtehtäviä. Esimerkiksi kuljetusalalla on monia autonomisen ajamisen kokeiluja ympäri maailmaa, jotka saavat myös pohtimaan automaation eettistä puolta. Jos autonomisen ajamisen hyödyntämisen avulla pystytään radikaalista vähentämään liikenneonnettomuuksia taikka merenkulussa alusten uppoamisia inhimillisten virheiden seurauksena, ja tämän kustannus on ihmisten työpaikkojen menetys, voidaanko lopputulos tulkita pääasiallisesti eettiseksi?

Toisaalta työpaikkojen kohdalla kyse on myös ajankäytöstä. Onko työllä ollut liian keskeinen rooli ihmiskunnan historiassa? Automaatio ja keinoäly saattavatkin tarjota ihmisille mahdollisuuden löytää elämälleen muunlaisen tarkoituksen kuin työn. Tämän kysymyksen lisäksi Algoritmitutkimuksen tiimoilta on esitetty ajatuksia, että työpaikkojen korvaantuminen on tilapäinen ongelma, joka on toistunut historian saatossa useita kertoja.

  1. Epätasa-arvo. Miten yhteiskunnassa jaetaan keinoälystä kertyvä varallisuus?

Nykyinen vallitseva talousjärjestelmä perustuu ihmisten ajan ja kykyjen panoksesta saatavaan korvaukseen, joka useimmiten arvotetaan tuntipalkan muodossa. Mutta tulevaisuudessa keinoälyä hyödyntämällä yritykset voivat merkittävästi vähentää riippuvuuttaan ihmistyövoimasta. Sen seurauksena yksilöt, joilla on eniten omistuksia keinoälyyn keskittyneissä yrityksissä, keräävät suurimmat voitot. Jakaantuuko maailma siten entistä enemmän voittajiin ja häviäjiin?

Taloudellisen epätasa-arvon kasvu on jo nyt nähtävissä esimerkiksi startup-yritysten perustajien kohdalla, jotka keräävät valtaosan luomastaan taloudellisesta hyödystä. Esimerkiksi vuonna 2014 suurin piirtein samaa liikevaihtoa kerryttivät USA:ssa kolme Detroitin suurinta yritystä kuin kolme suurinta Silicon Valleyn startupia – sillä erotuksella, että jälkimmäisissä yrityksissä työskenteli 10 kertaa vähemmän työntekijöitä.

Jos haluamme kehittää ”työnteon jälkeistä” yhteiskuntaa, miten luomme siihen soveltuvan reilun talousjärjestelmän? Tämä vanha marxilainen kysymys tuotantotekijöiden omistajuudesta ja niistä koituvan varallisuuden jakautumisesta nostaa siis päätään myös keinoälyn kontekstissa. Ehdotuksena on esitetty mm. universaalia perustuloa; toisaalta siihen liittyy useita ongelmia, kuten sosialististen talouksien toimettomuuden ongelma.

  1. Ihmiskunta. Miten keinoäly vaikuttaa käyttäytymiseemme?

Keinoälyyn perustuvista boteista tulee jatkuvasti kehittyneempiä mallintamaan ihmisten välisiä kanssakäymisiä. Vuonna 2014 botti nimeltä Eugene Goostman voitti Turingin testin ensimmäistä kertaa. Goostman sai yli puolet häntä arvioinutta ihmistä luulemaan, että he puhuvat aidolle henkilölle.

Kyseinen virstanpylväs tuskin jää viimeiseksi. Tälläkin hetkellä moni yritys hyödyntää esimerkiksi chat-botteja asiakaspalvelussaan (Suomessa esimerkiksi IF Vakuutusyhtiön ”Emma”). Ihmisten kapasiteetti osoittaa huomiota ja huolenpitoa toisilleen on rajallinen, mutta botit pystyvät panostamaan niihin rajattomasti ja ovat siksi kenties ihanteellisempia asiakaspalvelijoita. On kuitenkin vielä kyseenalaista, miten tehokkaasti botit voivat ratkoa monimutkaisia asiakasongelmia sekä ennen kaikkea osoittamaan asiakaspalvelutyössä tärkeää empatiakykyä.

Joka tapauksessa voimme jo huomata, miten keinoäly onnistuu aktivoimaan aivojemme palkintojärjestelmiä. Esimerkkeinä klikkiotsikot, joiden tarkoituksena on testata erilaisten viestien toimivuutta mielenkiintomme herättäjänä, leviävät tehokkaasti sosiaalisen median uutisvirta-algoritmien välityksellä. Samankaltaisia keinoja käytetään myös muiden ohella luomaan videopeleistä addiktiivisia eli riippuvuutta aiheuttavia. Vaikka näissä esimerkeissä ihminen varsinaisesti luo sisällön, kone pystyy eri sisällöistä valitsemaan sen kaikkein koukuttavimman.

  1. Keinoälyttömyys. Miten voimme estää virheitä?

Älykkyys muodostuu oppimisen kautta, oli kyseessä ihminen tai keinoäly. Järjestelmillä on yleensä harjoitusjakso, joissa ne ”opetetaan” havaitsemaan oikeita kuvioita ja toimimaan niille syötetyn komennon perusteella. Kun järjestelmän harjoitusjakso on valmis, se voidaan siirtää haastavampaan testivaiheeseen ja sen jälkeen ottaa julkiseen käyttöön.

Järjestelmiä on kuitenkin mahdollista huijata tavoilla, joissa ihminen ei erehtyisi. Esimerkiksi satunnaiset pistekuviot voivat johtaa keinoälyn havaitsemaan jotain, mitä ei tosiasiassa ole olemassa. Jos haluamme luottaa keinoälyyn tulevaisuudessa entistä enemmän, on syytä varmistaa, että se toimii kuten suunniteltu, ja etteivät ihmiset voi saada sitä valtaansa omien etujensa ajamista varten. Ns. blackhat-hakukoneoptimointi eli Google-hakutulosten keinotekoinen manipulointi ja valeuutisten levittäminen ovat esimerkkejä algoritmipohjaisten järjestelmien manipulaatiosta, jolla voi olla laajamittaisia yhteiskunnallisia vaikutuksia. Vaikka ihmiset yhtäältä tietävät, ettei kaikkeen netissä vastaan tulevaan voi uskoa, toisaalta informaatiokuplaan ajautuminen ja sitä seuraava polarisoituminen on yllättävän yleistä koulutustasosta riippumatta.

  1. Robotit ja syrjintä. Miten eliminoimme keinoälyn puolueellisuuden?

Vaikka keinoäly kykenee nopeuteen ja suorituskykyyn, joka on ihmisen ulottumattomissa, sen ei voida luottaa olevan aina reilu ja neutraali. Esimerkiksi taannoin ohjelmisto, jota käytettiin tulevien rikollisten ennustamiseen, osoitti ennakkoluuloja mustia kohtaan. On tärkeä muistaa, että keinoälyn järjestelmät ovat ihmisten luomia. Ihmiset voivat olla myös puolueellisia ja tuomitsevia, ja vähintääkin erehtyväisiä. Itse asiassa algoritmi voisi teoriassa lievittää ihmisluonteen haitallisia puolia, sillä koneen päätöksentekoprosessissa ei ole mukana tarkoitusperäistä epäluotettavuutta.

  1. Turvallisuus. Miten pidämme keinoälyn turvassa vahingollisilta tahoilta?

Keinoälyn kehittyessä jokainen maailman valtio, myös Suomi, haluaa sen hyödyistä osansa.  Oli kyse sitten ihmissotilaiden korvikkeiksi tarkoitetut roboteista, itseohjautuvista asejärjestelmistä tai keinoälyjärjestelmistä, keinoälyä voidaan käyttää monenlaisiin tarkoitusperiin. Tulevaisuuden konflikteja ei käydä vain maanpinnalla, kuten esimerkiksi kauko-ohjattavat dronet ovat osoittaneet. Siksi kyberturvallisuudesta muodostuu myös keinoälyyn liittyvän keskustelun tärkeä osa-alue.

  1. ”Pahat” lampunhenget. Miten suojaudumme seurauksilta, joita ei oltu tarkoitettu?

Mitä jos keinoäly kääntyisi ihmiskuntaa vastaan? Se ei välttämättä tarkoita ”pahaa” samassa mielessä kuin ihminen toimisi tai tapaa, jolla keinoälyn luomat onnettomuudet dystooppisissa elokuvissa esitetään. Sen sijaan on mahdollista kuvitella tilanne, jossa kehittyneestä keinoälystä tulee ”lampunhenki”, joka voi täyttää toiveita tai komentoja, mutta myös kauhistuttavilla seurauksilla.

Silloin kyseessä saattaa pahanteon sijaan olla kuitenkin kyse väärinymmärryksestä ja kontekstin ymmärtämättömyydestä. Kuvittele esimerkiksi keinoälyjärjestelmä, jolle on annettu komennoksi hävittää syöpä maailmasta. Prosessoituaan asiaa se muodostaa kaavan, joka tosiasiallisesti hävittää syövän – tuhoamalla kaikki ihmiset. Tavoite täytyy, mutta tuskin ihmisten tarkoittamalla tavalla.

  1. Singulariteetti. Miten pystymme hallitsemaan monimutkaisia keinoälyjärjestelmiä?

Ihmiskunnan valta maailmassa perustuu kekseliäisyyteen ja älykkyyteen. Pärjäämme paremmin kuin isommat, nopeammat ja vahvemmat eläimet, koska pystymme kontrolloimaan ja ehdollistamaan niitä.

Mutta onko keinoälyllä jonain päivänä vastaava etu meihin nähden? Emme voi laskea kaikkea sen varaan, että vain nappia painamalla suljemme sen, koska tarpeeksi kehittynyt keinoälyjärjestelmä osaa odottaa sellaista ja puolustaa itseään. Tätä jotkut tutkijat kutsuvat singulariteetiksi, joka voidaan määritellä ajankohtana, jolloin ihmiset eivät enää ole älykkäin olento maan päällä.

  1. Robottien oikeudet. Kuinka määrittelemme keinoälyn humaanin kohtelun?

Onko roboteilla oikeuksia? Vaikka neurotieteilijät työskentelevät vieläkin tietoisuuden salaisuuksien selvittämiseksi, ymmärrämme jo monia perusmekanismeja, kuten kehun ja moitteen järjestelmiä. Tavallaan kehitämme nyt tekoälyä kepin ja porkkanan avulla. Esimerkiksi algoritmin oppimisen vahvistumista palkitaan samalla tavoin kuin koiraa sen kasvatuksessa: oppimista vahvistetaan virtuaalisella palkkiolla. Tällä hetkellä kyseiset mekanismit ovat vielä lapsenkengissä, mutta niistä tulee monimutkaisempia ja arkielämää lähestyviä teknologian kehittyessä.

Kun koemme keinoälyn olevan entiteetti, joka voi muodostaa käsityksiä, tuntea ja toimia niihin perustuen, niin oikeudellisen aseman pohtiminen ei ole enää kaukaista. Pitäisikö keinoälyä kohdella kuin eläimiä tai vertaistaan älykkyyttä? Mitä ajattelemme tunteisiin kykenevän keinoälyn kärsimyksen tasoista? Myös geneettiset algoritmit, evoluutioalgoritmit, joita käytetään järjestelmän kehittämisessä etsimällä niistä paras iteraatio, joka selviytyy, kun taas huonosti menestyneet poistetaan, edustavat monimutkaisia eettisiä ongelmia. Missä kohtaa alamme pitämään geneettisiä algoritmeja massamurhana? Tällä hetkellä yleisenä rajanvetona näissä kysymyksissä pidetään tietoisuutta – niin kauan kuin robotti tai kone ei ole tietoinen itsestään samassa mielessä kuin ihminen, tuntea kipua tai toimia itsenäisesti, sitä ei pidetä olentona, jolla olisi itseisarvo.

Johtopäätös

Edellä mainittuja keinoälyn riskejä tulee pohtia ja niiden eettistä ulottuvuutta tarkastella vakavasti. Keinoälyllä on valtava potentiaali ja on yhteiskunnan tehtävänä on saada sen potentiaali edistämään kaikkien ihmisten elämää, parhaalla mahdollisella tavalla. Tämä edellyttää laajamittaista yhteistyötä tutkijoiden ja elinkeinoelämän välillä.

***

Artikkeli perustuu World Economic Forumin katsaukseen keinoälyn eettisistä ongelmista. Alkuperäinen artikkeli ”Top 9 ethical issues in artificial intelligence” on luettavissa täältä.

Mistä algoritmien valtaan keskittyvässä tutkimuksessa on kyse?

Miksi algoritmit ovat tärkeitä?

Algoritmi on tietokoneohjelma, joka kykenee tekemään itsenäisiä päätöksiä. Tällä hetkellä päätökset koskevat esimerkiksi informaation leviämistä sosiaalisessa mediassa, hakukoneiden tulosten järjestelyä sekä mainosten kohdentamista verkossa. Algoritmien päätöksillä on tärkeä rooli kansalaisten ja kuluttajien arjessa, sillä käytännössä informaatioalgoritmit määrittävät mitä sisältöä meille näytetään milläkin hetkellä. Esimerkiksi Facebook voisi näyttää käyttäjälle jopa 1500 viestiä päivää kohti, mutta koska tämä on liikaa useimmille käyttäjille, se näyttää niistä noin 300 viestiä päivässä (Facebook, 2013). Samoin Google valitsee jokaista hakukyselyä kohti ensimmäiselle hakusivulle 10 tulosta miljoonien samankaltaisten sivujen joukosta (Google, 2016). Koneilla on siis valta valita, minkälaista informaatiota kullekin yksilölle näytetään, ja tätä kautta vaikuttaa mm. kansalaisten maailmankuvaan ja yleiseen mielipiteeseen.

Neutraalit algoritmit

Jos algoritmi on neutraali, eli toimii 1) läpinäkyvästi ja 2) yleisesti hyväksyttyjen toimintaperiaatteiden mukaisesti, sen valta-asemassa ei välttämättä ole mitään ongelmaa, sillä parhaimmillaan koneelliset päätökset ovat vapaita ihmisten asenteellisuudesta ja kognitiivisista rajoitteista. Jos algoritmi kuitenkin on puolueellinen, esimerkiksi maksimoimalla sen omistajan mainostuloja käyttäjien hyödyn sijaan, piilottamalla poliittisesti arkoja aiheita taikka järjestelmällisesti syrjimällä tiettyjä käyttäjiä, voidaan algoritmien suuri valta nähdä yhteiskunnallisena riskinä. Koska merkittävimpien algoritmien kehitystä johtavat suuret pörssiyritykset, joiden pääasiallinen tehtävä on tuottaa voittoa osakkeenomistajilleen, ja koska algoritmien toimintalogiikat ovat liikesalaisuuksia, on koneellisen päätöksenteon kriittinen tarkastelu perusteltua.

Algoritmien valta on avoin yhteiskunnallinen kysymys

Koneiden valta informaationvälityksessä on kasvavan kansainvälisen huomion kohteena. Etenkin keskustelu Facebookin valtaroolista on aktiivista. Yrityksen perustajan Mark Zuckerbergin mukaan Facebook ei ole media, vaan ”sosiaalinen alusta”, mutta esimerkiksi Vietnamin sodan ikonisen lapsikuvan piilottaminen käyttäjien uutisvirrasta on herättänyt kysymyksiä koneen suorittaman sensuroinnin eettisyydestä (Oremus, 2016). Lisäksi vuoden 2016 Yhdysvaltain presidentinvaalien yhteydessä Facebookia kritisoitiin poliittisesti tietynlaisten uutisotsikoiden suosimisesta (Facebook Newsroom, 2016). Kritiikin valossa Facebook vastikään päättikin poistaa toimituksellisen ihmisryhmän aiheiden valinnasta, ja sisällön valinta on nyt siirretty täysin algoritmin harteille (Lichterman, 2016). Vaikuttaa siltä, että yhteiskunnallinen kiinnostus Facebookin ja muiden suosittujen informaatioalustojen toimintaperiaatteita kohtaan ainoastaan kasvaa tulevaisuudessa, joten teknologisten kysymysten lisäksi eri toimijat joutuvat ottamaan kantaa eettisiin, poliittisiin ja yhteiskunnallisiin kysymyksiin.

Lähteet

Facebook (2013) News Feed FYI: A Window Into News Feed. https://www.facebook.com/business/news/News-Feed-FYI-A-Window-Into-News-Feed

Facebook Newsroom (2016) Response to Chairman John Thune’s letter on Trending Topics. https://newsroom.fb.com/news/2016/05/response-to-chairman-john-thunes-letter-on-trending-topics/

Google (2016) Algorithms. https://www.google.ca/insidesearch/howsearchworks/algorithms.html

Lichterman, J. (2016) Algorithms are now controlling Facebook’s Trending topics. What does that mean for news? http://www.niemanlab.org/2016/08/algorithms-are-now-controlling-facebooks-trending-topics-what-does-that-mean-for-news/

Oremus, W. (2016) Facebook’s Censorship Problem Is What Happens When a Tech Company Controls the News. http://www.slate.com/blogs/future_tense/2016/09/09/facebook_censors_napalm_girl_photo_changes_mind_has_no_idea_what_it_s_doing.html