Tagged: google

Googlen toimintaperiaatteet eettisille algoritmeille

Googlen toimitusjohtaja Sundar Pichai kirjoitti kesäkuussa 2018 blogipostauksen Googlen eettisistä algoritmiperiaatteista. Tiivistän tässä sen ydinkohdat suomeksi.

Googlen tavoitteet tekoälysovelluksille

Kehittäessään tekoälysovelluksia Google pyrkii ottamaan huomioon seuraavat tavoitteet.

1. Ole sosiaalisesti hyödyllinen.

Uusi teknologia koskettaa yhä enemmän yhteiskuntaa kokonaisuutena. Tekoälyteknologian vaikutust tuntuu monilla eri aloilla, esimerkkeinä terveydenhuolto, turvallisuus, energia, kuljetus, teollisuus ja viihde. Googlen näkemys on, että kokonaishyödyt näillä aloilla ylittävät huomattavasti ennakoitavissa olevat riskit ja haitat. Google pyrkii tekemään laadukkaan ja täsmällisen tiedon saataville samalla kunnioitaen eri maiden kulttuurisia, sosiaalisia ja oikeudellisia normeja.

2. Vältä epäreilun puolueellisuuden luontia tai vahvistamista.

AI-algoritmit ja data voivat heijastaa, vahvistaa tai vähentää kohtuuttomia ennakkoluuloja. Google pyrkii välttämään epäoikeudenmukaisia ​​vaikutuksia ihmisiin, erityisesti liittyen arkaluonteisiin ominaisuuksiin, kuten rotuun, etniseen alkuperään, sukupuoleen, kansalaisuuteen, tuloihin, seksuaaliseen suuntautumiseen, ja poliittiseen tai uskonnolliseen vakaumukseen.

3. Rakenna ja testaa turvallisuutta.

Google kehittää ja soveltaa vahvoja turvallisuus- ja turvallisuuskäytäntöjä, jotta vältytään tahattomilta vahingoilta AI-sovelluksissa. Google suunnittelee tekoälyjärjestelmät uusimman turvallisuustutkimuksen parhaiden käytäntöjen mukaisesti. Tarvittaessa AI-tekniikoita testataan kontrolloiduissa ympäristöissä ja niiden toimintaa seurataan käyttöönoton jälkeen.

4. Ole vastuullinen ihmisille.

Google suunnittelee AI-järjestelmiä, jotka tarjoavat käyttäjille mahdollisuuden antaa palautetta, nähdä algoritmin valintoihin liittyviä selityksiä ja valittaa mahdollisista epäkohdista. Googlen AI-teknologia on ihmiskeskeistä ja antaa ihmisille mahdollisuuden vaikuttaa.

5. Sisällytä tietosuojasuunnitteluperiaatteet.

Google yhdistää tietosuojaperiaatteet AI-teknologioiden kehittämiseen ja käyttöön. Käyttäjiä tiedotetaan heidän tietojensa käytöstä ja siihen pyydetään suostumus. Lisäksi Google kehittää yksityisyyden suojaa tukevia ohjelmistoarkkitehtuureja, jotka tukevat avoimuuden periaatetta ja mahdollistavat tiedon käytön valvonnan.

6. Ylläpidä korkeatasoista tieteellistä huippuosaamista.

Teknologinen innovaatio perustuu tieteelliseen menetelmään ja avoimen tutkimuksen sekä yhteistyön periaatteisiin. AI-työkalujen avulla on mahdollista kehittää tieteellistä tutkimusta kriittisillä aloilla, kuten biologia, kemia, lääketiede ja ympäristötieteet. Google pyrkii investoimaan korkeatasoiseen tieteelliseen huippuosaamiseen.

Lisäksi Google tekee yhteistyötä eri sidosryhmien kanssa tukeakseen huippututkimusta ja kehittääkseen tieteellisesti päteviä ​​lähestymistapoja. Google lisää tekoälytietoisuutta julkaisemalla opetusmateriaaleja, parhaita käytäntöjä ja tutkimustietoa, joiden avulla eri toimijat voivat kehittää hyödyllisiä AI-sovelluksia.

7. Käyttötarkoituksia, jotka noudattavat näitä periaatteita.

Monilla tekniikoilla on useita käyttötarkoituksia. Tekoälysovellusten kehittämisessä on tärkeää mieltää ja ymmärtää sen mahdolliset käyttötarkoitukset, mukaanlukien mahdollinen väärinkäyttö. Kehittäessään tekoälysovelluksia Google pyrkii arvioimaan haitallisen käytön riskiä seuraavien kriteereiden pohjalta:

  • Ensisijainen tarkoitus ja käyttö: mikä on teknologian tai sovelluksen ensisijainen tarkoitus ja todennäköinen käyttö? Miten se soveltuu mahdolliseen haitalliseen käyttöön?
  • Ainutlaatuisuus: onko kehitetty teknologia ainutlaatuinen tai yleisesti saatavilla? Onko sen jakelua mahdollista rajoittaa?
  • Mittakaava: onko kehitetyllä teknologialla mahdollisesti kriittinen vaikutus? Millä tavalla?
  • Googlen osallistumisen luonne: tarjoaako Google yleiskäyttöisiä työkaluja, integrointeja vai mukautettuja ratkaisuja?

Musta lista

Google ei aio kehittää teknologioita, jotka täyttävät seuraavat tuntomerkit:

  • Teknologiat, jotka aiheuttavat tai todennäköisesti aiheuttavat yleistä haittaa. Jos on olemassa merkittäviä haittoja, Google tekee kehitystyötä ainoastaan mikäli odotetut hyödyt ovat huomattavasti suurempia kuin riskit.
  • Aseet tai muut teknologiat, joiden pääasiallinen tarkoitus on aiheuttaa ihmisten loukkaantuminen tai vahingoittaminen.
  • Teknologiat, jotka keräävät tai käyttävät tietoa tavalla, joka rikkoo kansainvälisesti hyväksyttyjä normeja.
  • Teknologiat, joiden tarkoitus on ristiriidassa kansainvälisen oikeuden ja ihmisoikeuksien periaatteiden kanssa.

Vaikka Google ei kehitä tekoälyä aseellisiin tarkoituksiin, se tekee yhteistyötä hallitusten ja armeijan kanssa monilla muilla aloilla. Näihin kuuluvat kyberrikollisuus, koulutus, sotilasrekrytointi, veteraanien terveydenhuolto ja pelastustoimi.

Tekoälyn vaikutusten huomiointi pitkällä aikavälillä

Googlen tavoitteena on olla mukana algoritmien eettisyyttä edistävässä toiminnassa pitkällä aikavälillä. AI-teknologioiden kehittyessä Google pyrkii tekemään poikkitieteellistä yhteistyötä eri sidosryhmien kanssa tukeakseen eettisten periaatteiden huomioimista tekoälyteknologian kehityksessä ja soveltamisessa. Liiketoimintanäkökulmasta Google on valmis tekemään lyhyen tähtäimen kompromisseja toimiakseen eettisten arvojen mukaisesti.

Questions from ICWSM17

In the ”Studying User Perceptions and Experiences with Algorithms” workshop, there were many interesting questions popping up. Here are some of them:

  • Will increased awareness of algorithm functionality change user behavior? How
  • How can we build better algorithms to diversify information users are exposed to?
  • Do most people care about knowing how Google works?
  • What’s the ”count to 10” equivalent for online discussions? How to avoid snap judgments?
  • How to defuse revenge seeking in online discussions?
  • What are individuals’ affective relationships with algorithms like?

These make for great research questions.

Koneoppiminen ja Googlen algoritmi

Johdanto

Tämä postaus sisältää muutamia Rand Fiskinin (MOZ) ”What Deep Learning and Machine Learning Mean For the Future of SEO” -videosta syntyneitä ajatuksia.

Video löytyy täältä, ja se kannattaa katsoa jotta pysyy kärryillä.

Mikä on SEO:n tulevaisuus koneoppimisen myötä?

Kukaan ei varmasti tiedä, miltä osin Google on jo implementoinut koneoppimisen periaatteita sijoittelualgoritmiinsa. Kertauksen vuoksi, koneoppiminen voidaan määritellä avustetuksi tai avustamattomaksi ohjelmistotoiminnaksi, jossa algoritmi löytää ns. harjoitusaineiston avulla yleisesti tehokkaimman ratkaisun tiettyyn, määriteltyyn tavoitteeseen nähden

Fiskinin visiossa Google soveltaa koneoppimista niin, että sijoittelualgoritmin sisältö (ominaisuudet ja niiden painotukset) ei olisi enää ennalta määritelty, vaan se tehtäisiin koneoppimisen kautta. Tähän liittyen algoritmilla ei olisi yleistä muotoa, vaan se mukautuisi esim. hakuteemojen ja hakijoiden mukaan (jo nythän tuloksia personoidaan hakijan tunnettujen ominaisuuksien mukaan).

Tärkein ”uusi” hakukoneoptimoinnin parametri?

Mikäli koneoppimisalgoritmi määrittäisi kaikista saatavilla olevista datapisteistä merkittävimmät onnistuneen haun kannalta (tulkittu ei-palaavana hakijana tietyllä lyhyellä aikajaksolla), mikä olisi tärkein SEO-parametri? Tietysti ländäri, jonka pitäisi varmistaa että kävijä jää.

Toiseksi tärkein olisi SERP-teksti, johon voidaan vaikuttaa metadatalla ja HTML-tägeillä (yllätys yllätys, niillä jolla ”ei ole enää väliä”), koska siinä pitäisi a) saavuttaa suhteellisesti korkea CTR ja b) viestiä totuudenmukaisesti, jotta relevanssi SERPin ja ländärin välillä pysyy korkealla tasolla.

Kuten huomataan, kumpikaan näistä parametreistä ei ole uusi, eikä uusia parametrejä voi syntyäkään niin kauan kuin algoritmin käytettävissä olevat ominaisuudet (ominaisuusavaruus) eivät laajene.

Koneoppimisen riski

Koneoppimisen soveltamisessa on mukana yleisesti tunnettu ”big datan” helmasynti, eli harhaanjohtavat korrelaatiot. Mitä enemmän hakujen tulkinnassa mennään kontekstisidonnaisuuteen, sitä todennäköisemmin mukaan tulee harhaanjohtavia korrelaatioita. Mitä enemmän muuttujia kone ottaa mukaan (tuhansia), sitä todennäköisemmin mukaan tulee harhaanjohtavia korrelaatioita. Eli ”totuuden” selvittäminen vaatii aina kontrolloitua testausta, ja sen puute on merkittävä rajoite tavanomaisissa koneoppimisimplementoinneissa.

Johtopäätös: Ei mitään radikaalia

Jos Fiskinin visiota vertaa nykyiseen Google-algoritmiin (sellaisena kuin se yleisesti tunnetaan), niin nykyisin käytetään suoria mittareita, joiden perusteella lasketaan pistearvo ja pistearvot summaamalla määritetään indeksissä olevien sivujen sijainnit suhteessa tiettyyn hakuun.

Uudessa mallissa kone rakentaisi mallin joka mittaisi suorien mittareiden välisiä suhteita, vaikka niin että mistä mittareista bounce muodostuu (ts. mitkä ennustavat sitä parhaiten). Tämä ei siis tarkoita että SEO-parametrit muuttuisivat jotenkin turhiksi (koska ne ovat välttämätön osa ominaisuusavaruutta, josta kone rakentaa mallin), vaan että niiden painotus tarkentuisi koneoppimisen kautta.

”Käyttäjäystävällisyys” eli hakijan palveleminen on aina ollut Googlen hakualgoritmin peruskivi, ja ystäväni Viet Dang puhui jo vuonna 2010 UFO:sta (= User-Friendly Optimization) SEO:n sijaan. Niin kauan kuin yleisesti tunnetuilla tekijöillä (nopeus, hyvä copyteksti, haun suhteen relevantti tarjonta) on välillinen tai välitön kytkös käyttäjän tyytyväisyyteen (jota Google mittaa epäsuorasti), eivät hakukoneoptimoinnin perusteet muutu.

Mikä olisi paras tapa hyötyä koneoppimisesta?

Hakukoneoptimoija hyötyisi eniten, jos hän rakentaisi oman koneoppimisalgoritmin hakuja varten ja ajaisi sitä omassa hakuympäristössään (ts. oikeassa maailmassa). Koneen luoma malli mahdollistaisi hakukäyttäytymisen syvällisemmän ymmärtämisen ja tulosten yleistämisen hakukoneoptimointiin Google-ympäristössä. Koska tämä menetelmä kuitenkin vaatisi käytännössä oman hakukoneen rakentamisen, ei se liene realistinen vaihtoehto keskivertohakukoneoptimoijalle.