Kategoriat
Suomeksi

10 suositusta tekoälyn hyödyntämiseen

Tekoälyyn perustuvat digitaaliset apulaiset, chatbotit ja monenlaiset algoritmit sekä koneellinen päätöksenteko koskettavat ihmisten arkea entistä enemmän – oltiin siitä tietoisia tai ei. Kehitysvauhti on kovaa, mutta standardointi ja vaikuttavuuden arviointi laahaavat perässä. Sen vuoksi on syytä pohtia ja herättää keskustelua siitä, mihin suuntaan tekoälyn kehitystä tulevaisuudessa ohjataan. Yksi tärkeistä kysymyksistä on:

Millaisia suosituksia tekoälyn parissa työskenteleville tulisi antaa?

Tässä artikkelissa esitellään 10 suositusta AI Now -instituutilta, joka on tekoälyn tutkimukseen erikoistunut organisaatio, koskien tekoälyn hyödyntämistä.

1. Mustia laatikkoja tulisi välttää: Erilaisten julkishallinnollisten organisaatioiden, kuten lakien toimeenpanosta, terveydenhuollosta tai koulutuksesta vastaavien organisaatioiden ei tulisi hyödyntää tekoälyn tai algoritmisten järjestelmien niin sanottuja mustia laatikoita, joiden toimintaperiaatteita ulkopuoliset eivät pysty arvioimaan. Tämä käsittää sekä organisaation sisällä luodut että kolmansilta osapuolilta lisensoidut tekoälyjärjestelmät, joiden toimintalogiikka ei ole julkista tietoa. Suljettujen koneoppimisjärjestelmien käyttö herättää huolta, ja on ehdotettu että niiden tulisi olla julkisen auditoinnin ja testauksen piirissä. Yhdysvalloissa ongelmia on aiheuttanut esimerkiksi algoritmi, jolla arvioidaan opettajia vertailemalla koulun oppilaiden menestystä suhteessa osavaltion keskiarvoon. Opettajien kansalaisoikeuksia on katsottu rikottavan järjestelmällä, sillä he eivät voi varmistaa tulosten oikeellisuutta. Lisääntynyt tietoisuus koneellisesta päätöksenteosta on samanaikaisesti lisännyt toiveita läpinäkyvyydestä. Avoimen datan hankkeita onkin käynnissä ympäri maailmaa, kuten Suomessa esimerkiksi Turun kaupungilla.

2. Läpinäkyvä testaaminen: Ennen kuin tekoälyjärjestelmä julkaistaan, kehittäjien tulisi suorittaa tarkkoja testausvaiheita, jotta varmistetaan puolueellisuuden ja virheiden minimointi. Testausvaiheen tulisi olla mahdollisimman avointa ja läpinäkyvää sekä korostaa nimenomaan kehittäjän vastuuta. Voidaan esimerkiksi pyrkiä tasapainottamaan käyttäjille näytettävää sisältöä tai muilla tavoin pyrkiä etukäteen varmistamaan se, että koneellisen päätöksenteon haittapuolet minimoidaan.

3. Jatkuva konepäätösten seuraaminen ja arviointi: Tekoälyjärjestelmän julkaisun jälkeen kehittäjän tulisi järjestää jatkuvaa järjestelmän seurantaa soveltuen erilaisten käyttäjien ja yhteisöjen tarpeisiin. Vähemmistöryhmien näkemykset ja kokemukset tulisi asettaa jatkuvassa kehitystyössä tärkeäksi prioriteetiksi, jotta järjestelmän monipuolisuus taataan. Kehittäjän vastuun ei tulisi myöskään päättyä järjestelmän julkaisuun ja käyttöönottoon. On esimerkiksi keinoja arvioida koneoppimisalgoritmien toiminnassa vaikuttaneita datamuuttujia, ja tulkita onko päätös mahdollisesti ollut puolueellinen.

4. Toimialakohtainen tutkimus: Tarvitaan enemmän tutkimusta tekoälyjärjestelmien käytöstä työpaikoilla, kattaen esimerkiksi rekrytoinnin ja henkilöstöpalvelut. Tämänkaltainen tutkimus edesauttaisi myös automaation vaikutusten arviointia eri konteksteissa. Kaiken kaikkiaan tekoälyn vaikutus koskettaa monia aloja, joten koneellisen päätöksenteon valtaa tulisi arvioida usealta eri kantilta. Erityistä huomiota tulisi kiinnittää työntekijän oikeusturvaan. Esimerkiksi työhaastatteluvaiheessa on alettu hyödyntämään automatiikkaa, joka analysoi työnhakijan puhetta ja kehonkieltä sekä vertaa niitä työpaikalla parhaiten suoriutuviin. Haasteellista on kuitenkin muun muassa se, että prosessi voi vahvistaa ennakkoluuloja ja yksipuolistaa henkilöstöä.

5. Tekoälykehityksen standardit: Tulisi kehittää standardeja tutkimaan tekoälyn käyttämän data-aineiston alkuperää ja kehitysvaiheita. Tekoäly pohjautuu suuriin tietomääriin, jonka avulla muodostetaan malleja ja ennusteita. Suuret tietomäärät edustavat sen sijaan ihmiskunnan historiaa, mikä eittämättä sisältää myös puolueellisia ja ennakkoluuloisia asenteita. Siksi datan alkuperää on syytä tutkia enemmän. Koneoppimisen avulla pystytään toki havaitsemaan monenlaisia tilastollisia malleja, vaikkakin tavoite muodostaa yleistyksiä saattaakin merkitä erityisten poikkeusten huomiotta jättämistä.

6. Sovellutusympäristön huomiointi: Pitäisi laajentaa tekoälyn puolueellisuuden tutkimusta ajoittain kapeahkon teknisen lähestymistavan ulkopuolelle. Perushaasteena on, että vaikka teknisessä näkökulmassa keskitytään tavoitteiden mukaisesti optimoimaan järjestelmiä, niin oleellista on myös huomioida konepäätöksenteon toimintaympäristö. Toimintaympäristön hahmottaminen vaatii kuitenkin asiantuntijuutta esimerkiksi lainsäädännöstä, lääketieteestä tai sosiologiasta. Tämän vuoksi tekoälyn kohdalla tarvitaan poikkitieteellistä tutkimusta.

7. Tekoälyarvioinnin standardit: Vahvat auditoinnin standardit ja tekoälyn toiminnan ymmärtäminen arkielämässä on tarpeellista. Kuitenkaan tällä hetkellä ei ole olemassa vakiintuneita käytänteitä tekoälyn vaikuttavuuden arvioimiseen. Tutkimushankkeet, jotka keskittyvät tekoälyn yhteiskunnallisiin vaikutuksiin ovat varsin hajanaisia niin maantieteellisesti kuin sektoritasolla. On niin julkisrahoitteisia kuin yksityisrahoitteisia hankkeita – tekoälyn valtaa tutkitaan tällä hetkellä eniten Yhdysvalloissa, mutta myös Euroopassa on useita hankkeita käynnissä. Näiden välistä koordinaatiota tulisi kuitenkin lisätä, jotta standardien luonti olisi mahdollista.

8. Monimuotoisuuden lisääminen: Yritysten, oppilaitosten, järjestöjen, konferenssien ja muiden sidosryhmien tulisi julkaista tietoja siitä, miten esimerkiksi naiset, vähemmistöt ja muut marginalisoidut ryhmät osallistuvat tekoälyn tutkimiseen ja kehitykseen. Monimuotoisuuden puute on haaste tekoälyn kehittämisessä ja saattaa myös johtaa tekoälyn puolueellisuuden lisääntymiseen. Tekoälyn kehittäjät ovat usein miehiä ja tulevat samasta kulttuuri- ja koulutustaustasta. Tämä on johtanut esimerkiksi siihen, että puheentunnistusjärjestelmät eivät ”tunnista” naisen ääntä tai että digitaaliset assistentit estävät naisten terveyteen liittyvää tiedonsaantia. Kyse ei ole siitä, että palkattaisiin vain tietyn ryhmän edustajia, vaan että rakennettaisiin tosiasiallisesti inklusiivisia työympäristöjä ja kattavampaa tekoälyn järjestelmiä.

9. Ei-tekniset näkökannat: Edellistä jatkaen, tekoälyn tutkimiseen tulisikin palkata asiantuntijoita tietojenkäsittelytieteiden ja insinöörialojen ulkopuolelta. Tekoälyn käytön siirtyessä yhä uusille toimintaympäristöille olisi hyvä varmistaa, että esimerkiksi oikeustieteilijöiden ja yhteiskuntatieteilijöiden panos tekoälyjärjestelmien suunnittelussa tulisi esille.

10. Yhteisen hyvän määrittely: Tekoälyä koskevaa eettistä säännöstöä pitäisi seurata toimintakykyinen valvontaelin ja vastuullisuuden mekanismeja tulisi jalostaa nykyisestä. Kyse on siitä, miten yhteensovittaa korkeat eettiset periaatteet ja reilun sekä turvallisen tekoälyn kehitystyö. Eettisyyden periaate on kuitenkin ainakin toistaiseksi pitkälti vapaaehtoista ja keskeisenä painotuksena on yhteinen hyvä. Mutta mikä oikeastaan on yhteistä hyvää ja kuka sen määrittelee? Kehittäjien yksipuolisuuden ja tilivelvollisuuden periaatteen lisäksi tekoälyn kehityksen keskiössä on jatkossakin eettisyys.

Artikkeli perustuu AI Now -instituutin tutkimukseen. Alkuperäinen artikkeli ”The 10 Top Recommendations for the AI Field in 2017” on luettavissa täältä.

Tekijä jonisalminen777

Researcher of marketing, human-computer interaction, startups, and personas.

Vastaa

Täytä tietosi alle tai klikkaa kuvaketta kirjautuaksesi sisään:

WordPress.com-logo

Olet kommentoimassa WordPress.com -tilin nimissä. Log Out /  Muuta )

Facebook-kuva

Olet kommentoimassa Facebook -tilin nimissä. Log Out /  Muuta )

Muodostetaan yhteyttä palveluun %s