Kategoriat
Suomeksi

Algoritmien läpinäkyvyyden ja vastuullisuuden ohjenuorat

Kari Haakana (@Karde) piti esityksen Kone Säätiön ja Kaute-säätiön järjestämässä ”Algorytmittyvä elämä” -tilaisuudessa Helsingissä (12.5.2017). Kari mainitsi USACM:n (Association for Computing Machinery US Public Policy Council) julkaiseman ohjeistuksen algoritmien läpinäkyvyydelle ja vastuullisuudelle. Tietääkseni sitä ei ole vielä käännetty suomeksi, joten päätin kääntää sen. Alla ohjeistus.

Miksi algoritmien salaisuuksia ei paljasteta?

ACM kirjoittaa, että algoritmien läpinäkymättömyyteen on olemassa useita syitä, kuten 1) tekniset syyt (algoritmin toimintaa ei ole helppo selittää), 2) taloudelliset syyt (liikesalaisuudet estävät algoritmien toiminnan paljastamisen), ja 3) sosiaaliset syyt (tietojen paljastaminen voi rikkoa odotuksia yksityisyydensuojasta). Lisään tähän neljännen: 4) tietojen paljastaminen voi rikkoa lakeja yksityisyydensuojasta tai palvelun itse määrittelemiä käyttöehtoja. Lisäksi on huomioitava, että monet algoritmiset edistysaskeleet on julkaistu joko avoimissa konferenssi- tai journaalijulkaisuissa (ks. arxiv.org) tai avoimen lähdekoodin alla (esim. Google, Facebook, Airbnb).

Algoritmien läpinäkyvyyden ja vastuullisuuden ohjenuorat

  1. Tietoisuus: Analyyttisten järjestelmien omistajien, suunnittelijoiden, rakentajien, käyttäjien ja muiden sidosryhmien tulisi olla tietoisia mahdollisista ennakkoluuloista, jotka liittyvät niiden suunnitteluun, käyttöönottoon ja käyttöön sekä potentiaalisiin haittoihin, joita niiden puolueellisuus voi aiheuttaa yksilöille ja yhteiskunnalle.
  2. Pääsy ja oikeussuojakeinot: Lainsäätäjiä olisi kannustettava sellaisten mekanismien käyttöönottoon, jotka mahdollistavat koneellisten päätösten kyseenalaistamisen ja oikeussuojan antamisen yksilöille ja ryhmille, joita koneelliset päätökset mahdollisesti haittaavat.
  3. Vastuullisuus: Organisaatioiden tulisi olla vastuussa käytettävien algoritmien tekemistä päätöksistä, vaikka ei olisikaan mahdollista selittää yksityiskohtaisesti, miten algoritmit tuottavat tuloksensa.
  4. Selitys: Algoritmista päätöksentekoa käyttäviä järjestelmiä ja organisaatioita kannustetaan tuottamaan selityksiä sekä algoritmin suorittamista toimenpiteistä että yksittäisistä päätöksistä. Tämä on erityisen tärkeää julkishallinnon yhteydessä.
  5. Tietojen alkuperä: Algoritmien kehittäjien tulisi dokumentoida, kuinka koneoppimismallien harjoitteluaineisto kerättiin, sekä arvioida ihmisen tai koneellisen tiedonkeruuprosessin aiheuttamia mahdollisia vääristymiä. Tietojen julkinen tarkastelu tarjoaa mahdollisuuden korjata mallien aineistosta johtuvia virheitä. Kuitenkin huoli yksityisyyden suojasta, liikesalaisuuksien suojelemisesta tai sellaisten toiminnallisuuksien paljastamisesta, jotka voivat antaa pahaa tarkoittaville toimijoille mahdollisuuden hyväksikäyttää järjestelmää, voivat oikeuttaa rajoittamaan pääsyn päteviin ja luotettaviin henkilöihin.
  6. Tarkastettavuus: Mallit, algoritmit, tiedot ja päätökset on dokumentoitava siten, että ne voidaan ulkopuolisen tahon toimesta tarkastaa tapauksissa, joissa haittaa epäillään.
  7. Validointi ja testaus: Organisaatioiden tulee käyttää uskottavia menetelmiä malliensa vahvistamiseen ja dokumentoida nämä menetelmät ja tulokset. Erityisesti niiden tulisi tasaisin väliajoin suorittaa testejä arvioidakseen ja määrittääkseen, aiheuttaako malli yhteiskunnallisia haittoja. Koneellista päätöksentekoa soveltavia organisaatioita kannustetaan tekemään tällaisten testien tulokset julkiseksi.

Alkuperäinen lähde: https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf

Tekijä jonisalminen777

Researcher of marketing, human-computer interaction, startups, and personas.

Vastaa

Täytä tietosi alle tai klikkaa kuvaketta kirjautuaksesi sisään:

WordPress.com-logo

Olet kommentoimassa WordPress.com -tilin nimissä. Log Out /  Muuta )

Facebook-kuva

Olet kommentoimassa Facebook -tilin nimissä. Log Out /  Muuta )

Muodostetaan yhteyttä palveluun %s