Tagged: poikkitieteellisyys

10 suositusta tekoälyn hyödyntämiseen

Tekoälyyn perustuvat digitaaliset apulaiset, chatbotit ja monenlaiset algoritmit sekä koneellinen päätöksenteko koskettavat ihmisten arkea entistä enemmän – oltiin siitä tietoisia tai ei. Kehitysvauhti on kovaa, mutta standardointi ja vaikuttavuuden arviointi laahaavat perässä. Sen vuoksi on syytä pohtia ja herättää keskustelua siitä, mihin suuntaan tekoälyn kehitystä tulevaisuudessa ohjataan. Yksi tärkeistä kysymyksistä on:

Millaisia suosituksia tekoälyn parissa työskenteleville tulisi antaa?

Tässä artikkelissa esitellään 10 suositusta AI Now -instituutilta, joka on tekoälyn tutkimukseen erikoistunut organisaatio, koskien tekoälyn hyödyntämistä.

1. Mustia laatikkoja tulisi välttää: Erilaisten julkishallinnollisten organisaatioiden, kuten lakien toimeenpanosta, terveydenhuollosta tai koulutuksesta vastaavien organisaatioiden ei tulisi hyödyntää tekoälyn tai algoritmisten järjestelmien niin sanottuja mustia laatikoita, joiden toimintaperiaatteita ulkopuoliset eivät pysty arvioimaan. Tämä käsittää sekä organisaation sisällä luodut että kolmansilta osapuolilta lisensoidut tekoälyjärjestelmät, joiden toimintalogiikka ei ole julkista tietoa. Suljettujen koneoppimisjärjestelmien käyttö herättää huolta, ja on ehdotettu että niiden tulisi olla julkisen auditoinnin ja testauksen piirissä. Yhdysvalloissa ongelmia on aiheuttanut esimerkiksi algoritmi, jolla arvioidaan opettajia vertailemalla koulun oppilaiden menestystä suhteessa osavaltion keskiarvoon. Opettajien kansalaisoikeuksia on katsottu rikottavan järjestelmällä, sillä he eivät voi varmistaa tulosten oikeellisuutta. Lisääntynyt tietoisuus koneellisesta päätöksenteosta on samanaikaisesti lisännyt toiveita läpinäkyvyydestä. Avoimen datan hankkeita onkin käynnissä ympäri maailmaa, kuten Suomessa esimerkiksi Turun kaupungilla.

2. Läpinäkyvä testaaminen: Ennen kuin tekoälyjärjestelmä julkaistaan, kehittäjien tulisi suorittaa tarkkoja testausvaiheita, jotta varmistetaan puolueellisuuden ja virheiden minimointi. Testausvaiheen tulisi olla mahdollisimman avointa ja läpinäkyvää sekä korostaa nimenomaan kehittäjän vastuuta. Voidaan esimerkiksi pyrkiä tasapainottamaan käyttäjille näytettävää sisältöä tai muilla tavoin pyrkiä etukäteen varmistamaan se, että koneellisen päätöksenteon haittapuolet minimoidaan.

3. Jatkuva konepäätösten seuraaminen ja arviointi: Tekoälyjärjestelmän julkaisun jälkeen kehittäjän tulisi järjestää jatkuvaa järjestelmän seurantaa soveltuen erilaisten käyttäjien ja yhteisöjen tarpeisiin. Vähemmistöryhmien näkemykset ja kokemukset tulisi asettaa jatkuvassa kehitystyössä tärkeäksi prioriteetiksi, jotta järjestelmän monipuolisuus taataan. Kehittäjän vastuun ei tulisi myöskään päättyä järjestelmän julkaisuun ja käyttöönottoon. On esimerkiksi keinoja arvioida koneoppimisalgoritmien toiminnassa vaikuttaneita datamuuttujia, ja tulkita onko päätös mahdollisesti ollut puolueellinen.

4. Toimialakohtainen tutkimus: Tarvitaan enemmän tutkimusta tekoälyjärjestelmien käytöstä työpaikoilla, kattaen esimerkiksi rekrytoinnin ja henkilöstöpalvelut. Tämänkaltainen tutkimus edesauttaisi myös automaation vaikutusten arviointia eri konteksteissa. Kaiken kaikkiaan tekoälyn vaikutus koskettaa monia aloja, joten koneellisen päätöksenteon valtaa tulisi arvioida usealta eri kantilta. Erityistä huomiota tulisi kiinnittää työntekijän oikeusturvaan. Esimerkiksi työhaastatteluvaiheessa on alettu hyödyntämään automatiikkaa, joka analysoi työnhakijan puhetta ja kehonkieltä sekä vertaa niitä työpaikalla parhaiten suoriutuviin. Haasteellista on kuitenkin muun muassa se, että prosessi voi vahvistaa ennakkoluuloja ja yksipuolistaa henkilöstöä.

5. Tekoälykehityksen standardit: Tulisi kehittää standardeja tutkimaan tekoälyn käyttämän data-aineiston alkuperää ja kehitysvaiheita. Tekoäly pohjautuu suuriin tietomääriin, jonka avulla muodostetaan malleja ja ennusteita. Suuret tietomäärät edustavat sen sijaan ihmiskunnan historiaa, mikä eittämättä sisältää myös puolueellisia ja ennakkoluuloisia asenteita. Siksi datan alkuperää on syytä tutkia enemmän. Koneoppimisen avulla pystytään toki havaitsemaan monenlaisia tilastollisia malleja, vaikkakin tavoite muodostaa yleistyksiä saattaakin merkitä erityisten poikkeusten huomiotta jättämistä.

6. Sovellutusympäristön huomiointi: Pitäisi laajentaa tekoälyn puolueellisuuden tutkimusta ajoittain kapeahkon teknisen lähestymistavan ulkopuolelle. Perushaasteena on, että vaikka teknisessä näkökulmassa keskitytään tavoitteiden mukaisesti optimoimaan järjestelmiä, niin oleellista on myös huomioida konepäätöksenteon toimintaympäristö. Toimintaympäristön hahmottaminen vaatii kuitenkin asiantuntijuutta esimerkiksi lainsäädännöstä, lääketieteestä tai sosiologiasta. Tämän vuoksi tekoälyn kohdalla tarvitaan poikkitieteellistä tutkimusta.

7. Tekoälyarvioinnin standardit: Vahvat auditoinnin standardit ja tekoälyn toiminnan ymmärtäminen arkielämässä on tarpeellista. Kuitenkaan tällä hetkellä ei ole olemassa vakiintuneita käytänteitä tekoälyn vaikuttavuuden arvioimiseen. Tutkimushankkeet, jotka keskittyvät tekoälyn yhteiskunnallisiin vaikutuksiin ovat varsin hajanaisia niin maantieteellisesti kuin sektoritasolla. On niin julkisrahoitteisia kuin yksityisrahoitteisia hankkeita – tekoälyn valtaa tutkitaan tällä hetkellä eniten Yhdysvalloissa, mutta myös Euroopassa on useita hankkeita käynnissä. Näiden välistä koordinaatiota tulisi kuitenkin lisätä, jotta standardien luonti olisi mahdollista.

8. Monimuotoisuuden lisääminen: Yritysten, oppilaitosten, järjestöjen, konferenssien ja muiden sidosryhmien tulisi julkaista tietoja siitä, miten esimerkiksi naiset, vähemmistöt ja muut marginalisoidut ryhmät osallistuvat tekoälyn tutkimiseen ja kehitykseen. Monimuotoisuuden puute on haaste tekoälyn kehittämisessä ja saattaa myös johtaa tekoälyn puolueellisuuden lisääntymiseen. Tekoälyn kehittäjät ovat usein miehiä ja tulevat samasta kulttuuri- ja koulutustaustasta. Tämä on johtanut esimerkiksi siihen, että puheentunnistusjärjestelmät eivät ”tunnista” naisen ääntä tai että digitaaliset assistentit estävät naisten terveyteen liittyvää tiedonsaantia. Kyse ei ole siitä, että palkattaisiin vain tietyn ryhmän edustajia, vaan että rakennettaisiin tosiasiallisesti inklusiivisia työympäristöjä ja kattavampaa tekoälyn järjestelmiä.

9. Ei-tekniset näkökannat: Edellistä jatkaen, tekoälyn tutkimiseen tulisikin palkata asiantuntijoita tietojenkäsittelytieteiden ja insinöörialojen ulkopuolelta. Tekoälyn käytön siirtyessä yhä uusille toimintaympäristöille olisi hyvä varmistaa, että esimerkiksi oikeustieteilijöiden ja yhteiskuntatieteilijöiden panos tekoälyjärjestelmien suunnittelussa tulisi esille.

10. Yhteisen hyvän määrittely: Tekoälyä koskevaa eettistä säännöstöä pitäisi seurata toimintakykyinen valvontaelin ja vastuullisuuden mekanismeja tulisi jalostaa nykyisestä. Kyse on siitä, miten yhteensovittaa korkeat eettiset periaatteet ja reilun sekä turvallisen tekoälyn kehitystyö. Eettisyyden periaate on kuitenkin ainakin toistaiseksi pitkälti vapaaehtoista ja keskeisenä painotuksena on yhteinen hyvä. Mutta mikä oikeastaan on yhteistä hyvää ja kuka sen määrittelee? Kehittäjien yksipuolisuuden ja tilivelvollisuuden periaatteen lisäksi tekoälyn kehityksen keskiössä on jatkossakin eettisyys.

Artikkeli perustuu AI Now -instituutin tutkimukseen. Alkuperäinen artikkeli ”The 10 Top Recommendations for the AI Field in 2017” on luettavissa täältä.

Algoritmien riskit: Ratkaisuja pehmeistä tieteistä

Minua haastateltiin hiljattain Kauppalehteen. Eräs jutun lukijakommentti oli:

Mikä ihmeen humanisti-tutkija tätäkin tutkii? Saisivat pysyä kaukana luonnontieteiden alalta tuollaiset teknofoobikot, koska niissä hallitsee logiikka, ei tunne.

Yhteiskunnallisen keskustelun taso eri verkkomedioissa on silminnähden matala: Ihmiset pilkkaavat toisiaan ja tuntuvat haastavan riitaa useammin kuin suhtautuvan asioihin järkevästi. Omaa pahaa oloa puretaan kärkeviin kommentteihin, jotka eivät kuitenkaan saa ketään paremmalle mielelle. Suuri enemmistö lukijoista pysyy hiljaisena, ja tarkkailee tätä kehitystä surullisin mielin.

Tämän kirjoituksen aiheena ei kuitenkaan ole verkkokeskustelun alennustila (se tarvitsee oman artikkelinsa!), vaan tuon kommentin asiaydin. Eli argumentti: ”Humanistien ei tulisi osallistua teknologian kehittämiseen, koska he eivät siitä mitään ymmärrä.”

Ensimmäinen osa on mielestäni väärä, mutta jälkimmäisessä on pieni ripaus totuutta (ja juuri siksi poikkitieteellistä tutkimusta tarvitaan).

Miksi päätelmä on väärä? Koska eri tieteenhaaroilla on valtavasti annettavaa teknologian ja yhteiskunnan kohtaamisen problematiikkaan. Tässä muutamia esimerkkejä kysymyksistä, joihin eri tieteenalat voivat tarjota vastauksia.

  • Filosofia: Mikä on oikea ja väärää? Mihin ihmiskunnan tulisi pyrkiä? Mikä on kehityksen tarkoitus? Millaisia argumentteja koneet pystyvät käsittelemään?
  • Sosiologia: Miten ryhmäpolarisaatio ilmenee? Miksi? Miten sitä voidaan ehkäistä? (Mitä muita merkittäviä sosiologisia ilmiöitä ilmenee, joita algoritmien suunnittelijoiden tulisi huomioida?)
  • Psykologia: Miten ihmiset havainnoivat järjestelmiä? Mitä kognitiivisia ja neurologia prosesseja ilmenee ihmisen ja koneen välisessä vuorovaikutuksessa? Kuinka kone voisi oppia ymmärtämään tunteita? Kuinka ihminen oppii? Miten alustat ja algoritmit vaikuttavat yksilöiden tunnetiloihin?
  • Politiikan tutkimus: Kuinka kansalaiset suodattavat poliittista informaatiota sosiaalisessa mediassa? Miten se vaikuttaa päätöksentekoon? Kuinka massaviestintä ja propaganda voi ilmetä algoritmien ja alustojen välityksellä?
  • Kauppatieteen tutkimus: Miten kuluttajat toimivat eri alustoilla? Miten vaihdantaa voidaan helpottaa algoritmien avulla? Miten algoritmit ratkaisevat kohtaanto-ongelmia?

Kaikki edellä mainitut eivät ehkä ole ”humanistitieteitä” sanan tarkassa merkityksessä, mutta ihmistieteitä kylläkin. Koko jutun pointti on se, että järjestelmät suunnitellaan loogisesti mutta altistetaan ympäristölle, joka toimii epäloogisesti. Täydellisessä maailmassa ei tarvittaisikaan ihmistutkimusta, mutta tässä maailmassa, jossa elämme, on järkevää pyrkiä parantamaan järjestelmien toimintaa laajemman ihmisymmärryksen avulla. Sillä on merkitystä, näemmekö ihmisen käyttäjänä, yksilönä vai strategisena toimijana.

Ihmistieteiden ja tietojenkäsittelytieteen välillä on kuilu osaajien erilaisesta taustasta johtuen. Mutta siksi juuri tarvitaan rajat rikkovaa, ”humanistista” tutkimusta tietojärjestelmistä.