Mikä on neutraali algoritmi?

Päätöksentekoalgoritmin neutraalius voidaan ymmärtää eri tavoin, esimerkiksi erottamalla toisistaan päätöksentekoprosessin ja tuloksen neutraalius (Stray, 2016). Mikäli algoritmin toimintaperiaate on läpinäkyvä ja yleisesti hyväksytty, voidaan sen katsoa olevan prosessin puolesta neutraali. Se voi kuitenkin yhä tuottaa puolueellisia tuloksia, erityisesti koneoppimisen kautta. Monet ongelmat liittyvätkin koneiden tapaan oppia, joka tapahtuu tilastollisen tulkinnan kautta (mm. Dwork, 2014). Esimerkiksi Sweeney (2013) tutki Googlen mainosjärjestelmää ja havaitsi, että järjestelmä liitti henkilöiden nimiin useammin rikoksia kuvaavia aputermejä, kun suoritettiin hakukyselyjä rotuvähemmistön suosimilla nimillä. Toinen esimerkki koneoppimisen haittapuolista on Microsoftin Tay-tekoäly, joka oppi nopeasti käyttämään rasistisia ilmauksia Twitter-trollaajien opettamana (Vincent, 2016).

Voidaan sanoa, että koneoppimiseen perustuvia algoritmeja ei yleensä tehdä tahallisen puolueelliseksi, vaan ne heijastavat ympäröivän yhteiskunnan asenteita analysoimalla saamaansa aineistoa. Tästä voidaan vetää mielenkiintoinen analogia ihmisten oppimiseen, joka myös tapahtuu omaksumalla asenteita ympäristöstä (Piaget, 1928). Eettisestä näkökulmasta voidaan väittää, että algoritmi on neutraali kun se heijastelee oikeaoppisesti (tarkasti) yhteiskunnan tilaa ilman relativistia arvopäätöksiä (Felten, 2014). Toisaalta voidaan väittää, että päätösten pitäisi olla yhteensopivia yhteiskunnallisten arvojen tai ainakin lakien kanssa, koska koneiden tekemät päätökset vaikuttavat konkreettisesti yksilöiden hyvinvointiin (Feldman ym., 2014). Neutraaliuden määritelmästä ei siis tällä hetkellä vallitse yksioikoista yhteisymmärrystä, vaan sitä tulkitaan eri lähtökohdista.

Koneellisessa päätöksenteossa voidaan erottaa ainakin kolme puolueellisuuden lähdettä (Zafar ym., 2015). Ensinnäkin 1) algoritmit ovat ihmisten suunnittelemia, joten algoritmin kehittäjän puolueellisuus saattaa tietoisesti tai tiedostamatta siirtyä sen toimintaperiaatteisiin. Toiseksi etenkin informaatioalgoritmit ovat alttiita 2) käyttäjien hyväksikäytölle, kuten järjestäytyneelle manipuloinnille. Kolmanneksi 3) datalähteet saattavat olla vääristyneitä tai sisältää puolueellisuutta, jolloin myös koneen tulkinta vääristyy ja tehdyt päätökset voivat olla epäreiluja.

Keinoja ehkäistä algoritmien puolueellisuutta ovat tarkastelleet ainakin Culotta (2014); Dwork (2014); Feldman ym. (2014); Jelveh & Luca (2015); ja Fish ym. (2015). Usein ratkaisukeinojen nähdään sisältävän valintatilanne tarkkuuden ja puolueettomuuden välillä (Feldman ym., 2014). Äärimmäisissä tapauksissa edes algoritmin kehittäjä ei kykene ennustamaan sen toimintaa, jolloin tulokset voivat olla arvaamattomia. Tällainen kaoottisuus liitetään etenkin syväoppimisessa käytettyihin neuroverkkoihin (Littmann & Ritter, 1997) ja toisaalta yleisesti ei-valvottuun koneoppimiseen, jossa luokittelu tapahtuu vapaasti aineiston pohjalta (Ngufor & Wojtusiak, 2013).

Algoritmien neutraalius ja puolueellisuus on monimutkainen ongelmavyyhti, jonka ratkaisuyrityksissä tarvitaan niin poikkitieteellistä osaamista. Läheisiä aihepiirejä ovat ainakin tietojenkäsittelyoppi (algoritmien suunnittelu), tilastotiede, sosiologia (ryhmädynamiikan ilmiöt), psykologia (vuorovaikutus), ja etiikka (päätösprosessien ja lopputulosten moraalinen hyväksyttävyys). Pelkkä tekninen osaaminen ei riitä koneellisen päätöksenteon kehittämisessä, koska sen vaikutukset ovat luonteeltaan moniulotteisia ja koskettavat koko yhteiskuntaa.

Lähteet:

Culotta, A. (2014) Reducing Sampling Bias in Social Media Data for County Health Inference. In Joint Statistical Meetings Proceedings.

Dwork, C. (2014) Can we Learn to be Fair? Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2014).

Feldman, M., Friedler, S., Moeller, J., Scheidegger, C., & Venkatasubramanian, S. (2014). Certifying and removing disparate impact. Working paper.

Fish, B., Kun, J., Lelkes, A. (2015) Fair Boosting: A Case Study. Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2015).

Jelveh, Z., Luca, M. (2015) Towards Diagnosing Accuracy Loss in Discrimination-Aware Classification: An Application to Predictive Policing. Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2015).

Littmann, E., & Ritter, H. (1997) Adaptive color segmentation-a comparison of neural and statistical methods. IEEE Transactions on Neural Networks, 8(1), 175–185.

Ngufor, C., & Wojtusiak, A. (2013) Unsupervised labeling of data for supervised learning and its application to medical claims prediction. Computer Science, 14.

Piaget, J. (1928) La causalité chez l’enfant. British Journal of Psychology. 18: 276–301.

Stray, J. (2016) Sometimes an algorithm really is (politically) unbiased. http://jonathanstray.com/sometimes-an-algorithm-really-is-politically-unbiased

Vincent, J. (2016) Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. http://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist

Zafar, M., Martinez, I., Gomez Rodriguez, M., Gummadi, K. (2015) Fairness Constraints: A Mechanism for Fair Classification. Fairness, Accountability and Transparency in Machine Learning (FAT ML, 2015).

Vastaa

Täytä tietosi alle tai klikkaa kuvaketta kirjautuaksesi sisään:

WordPress.com-logo

Olet kommentoimassa WordPress.com -tilin nimissä. Log Out /  Muuta )

Google+ photo

Olet kommentoimassa Google+ -tilin nimissä. Log Out /  Muuta )

Twitter-kuva

Olet kommentoimassa Twitter -tilin nimissä. Log Out /  Muuta )

Facebook-kuva

Olet kommentoimassa Facebook -tilin nimissä. Log Out /  Muuta )

Muodostetaan yhteyttä palveluun %s