Sinut on nähty!

Tämän vuosisadan Isoveli ei ehkä löydykään Totuusministeriöstä, vaan omasta taskusta. Tekoälyä käyttävä teknologia on kehittynyt vauhdilla viime vuosien aikana, ja uusia käyttökohteita putkahtelee kuin voikukkia kesänurmelle. Mutta kenellä on vastuu uuden teknologian eettisestä käytöstä?

TEKSTI Heidi Niemi

KUVAT Ville Paananen

”Teleruutu oli sekä vastaanotin että lähetin. Se kuuli jokaisen Winstonin hiirenhienoa hiiskausta kovemman äännähdyksen, ja niin kauan kuin hän pysyi metallilevyn näkökentässä, häntä ei vain kuunneltu, hänet myös nähtiin siinä. Hän ei tietenkään koskaan tiennyt, millä hetkellä häntä tarkkailtiin. Saattoi vain arvata, kuinka usein tai minkä menetelmän avulla ajatuspoliisi kytkeytyi yksityisen ihmisen verkkoon. Oli jopa mahdollista että kaikkea valvottiin koko ajan.”

(George Orwell: Vuonna 1984)

 

George Orwellin klassikkoteos Vuonna 1984 (1949) sijoittuu kuvitteelliseen Oseaniaan (entiseen Britanniaan), jonka hierarkian huipulla nököttää Isoveli. Asukkaita valvotaan herkeämättä, ja Totuusministeriön silmät näkevät melkein kaiken. Melkein.

Oseaniassa vääränlainen ajattelu on ajatusrikos. Rikoksen voi kuitenkin salata ainakin tilapäisesti, jos sen pitää visusti oman mielensä sopukoissa ja ilmeensä kurissa. Isoveljen raju rakkaus ei yllä aivan joka soppeen ja onkaloon.

Voisiko Isoveljeä ja Totuusministeriötä huijata vuonna 2019? Tunnistaisiko konenäkö ajatusrikoksen Winston Smithin kasvoilta, vaikka tämä ei puhua pukahtaisi sanaakaan?

Konenäön avulla voi havaita joitain tunteita ihmiskasvoilta, mutta kasvotiedon lisäksi tarvitaan tietoa kehon liikkeistä sekä eleistä.

Professori Matti Pietikäinen Oulun yliopiston Konenäön ja signaalianalyysin tutkimuskeskuksesta (CMVS) muistuttaa, että teknologia ei vielä ole tarpeeksi pitkällä paljastaakseen tunteita kenen tahansa kasvoilta.

Professori Guoying Zhao ryhmineen tutkii CMVS:ssä tunteiden tunnistamista konenäön avulla. Kone osaa lukea ihmisen kasvoilta ilmeitä ja mikroilmeitä.

Mikroilmeet ovat lyhytkestoisia ja tahdosta riippumattomia ilmeitä, jotka kertovat ihmisen tunteesta ja mielentilasta – tarkemmin todellisesta tunteesta ja mielentilasta. Ihmissilmä ei välttämättä erota nopeita mikroilmeitä, ja aikuiset ihmiset osaavat teeskennellä tavallisia, tiedostettuja ilmeitä.

Mikroilme syntyy ristiriidasta: siitä, kun ihminen tukahduttaa sisäisen tunteensa. Pitkän tähtäimen tavoitteena on, että kaupan myyjän iloinen hymy voi hämätä asiakasta, mutta tietokone ehtii havaita sitä edeltäneen häivähdyksen: mikroilmeet paljastavat, onko kassan takana rauhallinen vai kiihtynyt tai neutraali, iloinen, surullinen, vihainen tai jopa pelokas asiakaspalvelija.

Lentokentän turvatarkastuksessa mikroilmeitä lukeva konenäkö voisi tunnistaa kiihtyneitä ja hermostuneita matkustajia, ja seuloa heidät matkustajavirrasta.

Piiloleikkiä Isoveljen kanssa

Tekoälyä käyttävä teknologia on kehittynyt vauhdilla viime vuosien aikana, ja uusia käyttökohteita putkahtelee kuin voikukkia kesänurmelle. Konenäön käyttäminen kasvojentunnistukseen on lyönyt läpi syväoppimisen myötä, ja yleistynyt nopeasti.

Kiinassa uusi teknologia on otettu laajamittaisesti käyttöön: paikallinen poliisi partioi kasvojentunnistusaurinkolasit päässään, punaisia päin kävelleen postiluukusta voi kolahtaa sakko, ja etsintäkuulutettu henkilö osataan tunnistaa 50 000 ihmisen väkijoukosta. Maa kehittää valvontajärjestelmää, joka koostuu valtavasta valvontakameraverkostosta, kattavasta kansalaistietokannasta sekä kasvojentunnistusteknologiasta.

Eihän meillä tällaista sentään. Aamulehti vitsaili 1.4.2019, että poliisi aloittaa jalankulkijoiden automaattivalvonnan kasvojentunnistuksen avulla Tampereella, ja myöhemmin koko maassa. 170 euron sakko seuraa, mikäli tien ylittää väärästä kohdasta tai punaisella valolla.

Valvontaa motivoivat kuvitteellisen komisario Pannis Destersteinin mukaan sakkotulot, ketutus sekä “mukava totalitaarinen fiilinki”. Rahoitus hoituu veronkorotuksilla, ja kansa nielee uudistuksen, kunhan se perustellaan turvallisuudella. 

“Vetoamme geneerisiin ja vanhentuneisiin tutkimustuloksiin, ja hyvin menee läpi. Kehä ykkösen kameravalvonnassa esimerkiksi väitämme, että tutkimuksen mukaan kuolonkolarit vähenevät kameroiden ansioista. Tosin sillä tiellä ei kukaan ole ennenkään kuollut, joten tutkimus on täyttä roskaa, mutta Suomessa kansa uskoo mitä tahansa, kun poliisi sanoo”, siteeraa Aamulehti Destersteinia.

Aprillia! Kuravettä päälle.

Ylen MOT:n artikkelin mukaan (30.4.2018) Suomen Keskusrikospoliisin kasvojentunnistuksen pilottiohjelma tunnetaan lempinimellä Nassu. Järjestelmä voi seuloa valvontakamerakuvia ja tunnistaa niistä poliisin rekistereistä löytyviä henkilöitä (MTV 24.10.2018).

Poliisiylijohtaja Seppo Kolehmainen haikaili MTV:n haastattelussa 16.6.2018 mahdollisuutta ulottaa kasvojentunnistus valvontakamerajärjestelmään.

Kalevan mukaan (27.9.2018) Oulun kaupungin kameravalvontajärjestelmä eli esimerkiksi oululaiskoulujen kamerat ovat yhdistettävissä poliisin johtokeskusjärjestelmään, ja reaaliaikainen valvonta kytketään päälle tarvittaessa. Samaan järjestelmään voidaan yhdistää yhteensä yli tuhat kameraa, jotka on sijoitettu kaupungin kiinteistöihin, keskeisille risteysalueille sekä yleisille alueille kuten puistoihin.

Ylikomisario Arto Autio Oulun poliisista totesi Kalevalle, että koulujen sisätiloja seurataan esimerkiksi vakavan vaaran uhatessa tai merkittävien operatiivisten tapahtumien aikana. Esimerkkinä oli valtiovierailu.

Henkilön tunnistaminen missä ja milloin vain on helppoa, kun valitsee oikeat työkalut. Datan yhdisteleminen eri lähteistä mahdollistaa pääsyn aivan uudenlaiseen informaatioon. Esimerkiksi Suomen passitietokannassa on tällä hetkellä biometrinen tunniste kaikista passinhaltijoista. Sosiaalisen median palvelut tietävät meistä enemmän kuin haluamme tietää niiden tietävän.

Kasvojentunnistus ja konenäkö mahdollistavat paljon, mutta niiden herättämät eettiset kysymykset eivät ole helppoja vastattavaksi. Kenellä on oikeus kerätä, käyttää ja yhdistellä tietoa, jota algoritmit käyttävät?

Henkilön tunnistaminen missä ja milloin vain on helppoa, kun valitsee oikeat työkalut.

Ihmisten yksityisyydensuojasta ja varsinkin sen vähittäisestä murentumisesta on keskustelu julkisuudessa paljon.

Missä tilanteissa yksityisyydensuojaa voi rikkoa, eli milloin jokin muu periaate on yksityisyyttä ja tietosuojaa tärkeämpi? Kuka päättää säännöt konenäön sekä kasvojentunnistuksen käyttämiselle?

Tutkijan vastuun rajat

Lääketieteellisen tutkimuksen eettisyys on lain nojalla arvioitava ennen tutkimuksen alkua. Pohjois-Pohjanmaan alueella Pohjois-Pohjanmaan sairaanhoitopiirin eettinen toimikunta antaa lausunnon tutkimuslain piiriin kuuluvista lääke- ja terveystieteellisistä tutkimuksista. Kaiken lain alaisen tutkimuksen on kunnioitettava ihmisarvon loukkaamattomuuden periaatetta.

Muita tutkimusaloja, eli vaikka teknologian kehittämisen eettisyyttä ei säädellä laeilla, vaan tiedeyhteisöllä on oma etiikkansa sekä moraalinsa, jota ohjataan suosituksilla. Opetus- ja kulttuuriministeriön asiantuntijaelin Tutkimuseettinen neuvottelukunta eli TENK on julkaissut suosituksen ihmistieteellisen tutkimuksen eettiseen ennakkoarviointiin. Alan eettisiin periaatteisiin kuuluu tutkittavan itsemääräämisoikeuden kunnioittaminen, vahingoittamisen välttäminen sekä yksityisyys ja tietosuoja. Muut tieteenalat nojaavat TENK:n hyvän tieteellisen käytännön (HTK) malliin, sekä muihin ammattieettisiin ohjeistuksiin. Konenäkötutkimukseen ei siis ole yksilöityä eettistä ohjetta.

HTK ohjeistaa tutkijoita eettisesti kestävään tiedonhankintaan, tutkimukseen ja arviointiin, sekä avoimuuteen ja vastuulliseen tiedeviestintään. Lääke- ja ihmistieteen aloilla vaadittavan eettisen ennakkoarvioinnin tekemisestä muistutetaan. Tutkimusorganisaatiossa on huomioitava tietosuojakysymykset.

Konenäkötutkimukseen ei ole yksilöityä eettistä ohjetta.

HTK vastuuttaa ensisijaisesti jokaisen tutkijan ja tutkimusryhmän jäsenen noudattamaan ohjeistuksia henkilökohtaisesti. Vastuu kuuluu TENK:n mukaan myös koko tiedeyhteisölle, ja yliopistojen on huolehdittava työntekijöidensä ja opiskelijoidensa perehdytyksestä hyvään tieteelliseen käytäntöön.

Hyvän tieteellisen käytännön loukkaukseksi luetaan vilppi tieteellisessä toiminnassa ja piittaamattomuus hyvistä tieteellisistä käytännöistä, eli esimerkiksi havaintojen vääristely tai sepittäminen ja laiminlyönnit sekä holtittomuus tutkimustyön eri vaiheissa. Tutkijan vastuu rajautuu TENK:n hyvän tieteellisen käytännön rajoissa tämän omaan toimintaan: tutkimuksen tekemiseen ja julkaisemiseen sekä julkiseen esiintymiseen.

Tulosten käyttöön – eli esimerkiksi siihen, miten konenäköä voi hyödyntää eettisesti – HTK ei ota kantaa.

Tieteen sosiaalisen vastuun käsite vastaa tutkimustiedon käyttämisen ulottuvuuteen. Veikko Launiksen pääkirjoitus Tieteessä tapahtuu -lehdessä (4/2015) pohtii tutkijan sosiaalisen vastuun rajoja.

Onko tutkija velvollinen estämään tulosten kaksoiskäyttöä, eli tiedon hyödyntämistä jollain tavalla haitallisiin tai moraalisesti paheksuttaviin tarkoituksiin? Miten tulee toimia, jos uusi tieto on potentiaalisesti vahingollista? Entä jos tieto on vahingollista, mutta sitä ei käytetä eettisesti arveluttavasti? Onko eettinen toiminta tutkijan vai tiedeyhteisön valvonnassa?

HTK ulottuu yhteiskunnalliseen vuorovaikutukseen sekä tiedeyhteisössä että sen ulkopuolella, eikä tutkija saa harhauttaa yleisöä tutkimuksensa merkityksestä tai sen sovellettavuudesta. Vaan tuleeko tutkijan osaltaan vaikuttaa siihen, miten ja mihin tutkimustuloksia käytetään? Launis ehdottaa ratkaisuksi sääntöjen sijaan yhteiskunnalliseen keskusteluun osallistumista sekä tutkijoiden henkilökohtaista pohdiskelua työnsä mahdollisista eettisistä ongelmakohdista.

TENK:n pääsihteeri Sanna Kaisa Spoofin mukaan Tutkimuseettisellä neuvottelukunnalla ei ole kantaa tutkijan vastuusta tulosten jatkokäyttöön vaikuttamisessa.

“Suomen lain mukaan tutkija on velvollinen ilmoittamaan viranomaisille, jos hän saa tietoonsa asian, joka voi vahingoittaa kansalaisten terveyttä tms.”, hän kertoo sähköpostitse.

 

Professori Guoying Zhaon mielestä konenäön ja tekoälyn sovellutusten etiikan pohtiminen on maailman, yhteiskunnan ja yksilöiden tehtävä.
Professori Guoying Zhaon mielestä konenäön ja tekoälyn sovellutusten etiikan pohtiminen on maailman, yhteiskunnan ja yksilöiden tehtävä.

 

Kone ei ole erehtymätön – ihmisestä puhumattakaan

Kasvojentunnistuksen käyttäminen ei ole riskitöntä: ihmisistä kerättyä tietoa voidaan väärinkäyttää tai hyödyntää rikollisiin tarkoituksiin.

Konenäkö on päässyt kasvojentunnistuksessa parhaimmillaan hämmästyttävään tarkkuuteen, mutta virheiden mahdollisuus on silti olemassa. Autoritääriset yhteiskunnat voivat valvoa kansalaisiaan kasvojentunnistuksen avulla.

Syväoppimiseen ja kaikkeen koneoppimiseen tarvitaan oppimisdataa, eli esimerkkejä. Vinoumat, puolueellisuus ja ennakko-oletukset, jopa syrjintä siirtyvät oppimisaineistosta koneen toimintaan.

Entä jos kone erehtyy, ja lentokentällä pysäytetään väärä henkilö, tai ylinopeussakko lätkähtää väärän asunnon eteisen matolle? Tai syytön henkilö pidätetään epäiltynä vakavasta rikoksesta siksi, että kasvojentunnistusjärjestelmä on erehtynyt?

Syväoppimiseen ja kaikkeen koneoppimiseen tarvitaan oppimisdataa, eli esimerkkejä. Vinoumat, puolueellisuus ja ennakko-oletukset, jopa syrjintä siirtyvät oppimisaineistosta koneen toimintaan.

Algoritmit ja laskentamallit ovat ihmisten tekeleitä, ja ihmisen käytös sekä valinnat voivat olla vinoutuneita, professori Zhao muistuttaa. Syrjintä voidaan siis kalastaa neuroverkkoihin jo aineistonsyöttämisvaiheessa.

Tekoäly, konenäkö ja kasvojentunnistus ovat kuitenkin vain työkaluja, joita ihminen käyttää, Zhao painottaa. Kysymys kuuluukin, että kuka suunnittelee nämä työkalut? Kuka tekee päätökset?

Pärjäisimmekö ilman tekoälyä?

Teknologian kehittämisen eettiset kysymykset eivät ole mitään uutta kevätauringon alla, vaan uhkadiskurssi kasvattaa uusia päitä sitä mukaa kun uusia laitteita, ohjelmia ja ominaisuuksia syntyy.

Uusi pelottaa. Terve skeptisyys on usein paikallaan, sillä yhdellä uudella teknologialla ei ratkaista kaikkia maailman ongelmia.

Zhao tiedostaa eettiset riskit, mutta korostaa kuitenkin teknologian kehittymisen hyviä puolia. Tekoäly on osoittautunut ihmistä tehokkaammaksi, tarkemmaksi ja taloudellisemmaksi tietyissä tehtävissä, kuten esimerkiksi puheen tunnistamisessa. Tekoälyn kapasiteetti datan käsittelyyn ja analysointiin päihittää ihmisaivot. Professori Zhaon mukaan tekoäly on joissain tehtävissä paljon ihmistä etevämpi.

“Tekoäly voi auttaa meitä niin monissa eri asioissa. Miten pärjäisimme ilman sitä?”

Maanjäristyksen uhrien etsiminen ja syvänmeren pohjan tutkiminen on ihmiselle vaarallista. Sen sijaan pinnan alle tai järistysalueen raunioihin voi lähettää tekoälyä hyödyntävän robotin, Zhao kertoo.

Tekoälyyn perustuvat koneet hoitavat useita vaikeissa tai ihmiselle mahdottomissa olosuhteissa tehtäviä töitä. Tekoälyn hyödyt ulottuvat myös esimerkiksi terveydenhoitoon, koulutukseen ja sähköiseen asiointiin. Puhelimessa ja tietokoneessa toimivat puheentunnistustoiminto sekä sanelu puheesta tekstiksi helpottavat kuulo- ja näkövammaisten arkea.

“Tekoäly voi auttaa meitä niin monissa eri asioissa. Miten pärjäisimme ilman sitä?”

Tekoälyyn perustuu yhtä lailla monelle suoratoistopalveluista tuttu musiikkia tai elokuvia suositteleva ominaisuus, Zhao kertoo. Tekoäly etsii artisteja, kappaleita ja elokuvia, joista käyttäjä saattaisi pitää aiemman kuuntelu- ja katseluhistoriansa perusteella

Tietämättömyys ei ole voimaa

Zhao ja hänen tutkimusryhmänsä varmistavat, että tutkimukseen osallistuneet hyväksyvät tietojensa käytön, ja tietävät mihin tarkoituksiin tietoja käytetään. Henkilöt voivat vetäytyä tutkimuksesta ja kieltää tietojensa käytön milloin vain. Zhao korostaa, että heidän tutkimusdatansa on aina suostumuksellisesti hankittua.

“Kerromme selkeästi miksi ja mihin tarkoituksiin keräämme tietoa. Teknologian kehittäjillä ja datan käsittelijöillä on oltava tutkimukseen osallistuvien henkilön suostumus, että he voivat kerätä, käsitellä, analysoida ja käyttää ihmisten tietoja.”

“Lääkärikin tarvitsee riittävästi tietoa, että voi tehdä oikean diagnoosin.”

Ilman dataa tutkimus ja teknologian kehitys olisi liki mahdotonta, tai ainakin hyvin vaikeaa. Tekoäly- ja konenäkötutkimuksessa täytyy huomioida sekä yksityisyydensuoja että tutkimukseen tarvittavan datan kerääminen.

Tutkijoiden on saatava sellaista tietoa, mitä voidaan käyttää ja mikä auttaa tutkimuksessa, Zhao kertoo.

“Lääkärikin tarvitsee riittävästi tietoa, että voi tehdä oikean diagnoosin.”

Zhaon mielestä on tärkeää, että ihmiset tietävät, mihin heidän tietojaan käytetään, ja että valta tiedon käyttämisestä on ihmisellä itsellään. Tieto vähentää huolia ja pelkoja.

“Ihmisillä on oltava oikeus kieltäytyä tietojensa käytöstä.”

Yksityisyys vai yhteiskunnan etu?

Eurooppalaisten tietoja ja yksityisyyttä suojaa Euroopan unionin yleinen tietosuoja-asetus, eli GDPR. Se ulottaa henkilötiedon määritelmän kuviin, eli jos henkilö on tunnistettavissa kuvasta, kyseessä on henkilötieto.

Asetuksen ytimessä on ihmisten oikeus tietää, mitä tietoa heistä rekisteröidään, mihin tarkoitukseen sitä käytetään, ja pyytää tietojansa poistettavaksi. GDPR:ää täydentää Suomessa vuoden alussa voimaan astunut tietosuojalaki.

GDPR pisti EU:n alueella toimivat yritykset ja yhdistykset tietosuojaremonttiin. Asetuksen laiminlyömisestä sopivaksi sanktioksi on katsottu ankarimmillaan tuntuva sakotus. Euroissa mitattava rangaistus kannustaa varsinkin yrityksiä pitämään huolta henkilötiedoistaan, mutta onko yksityishenkilön antama suostumus tietojensa käyttöön ja käsittelyyn aidosti myönnetty?

Suuryritysten tietosuojakohuista kertovat otsikot ovat arkipäivää. Isoveli kulkee mukana taskussa yliopistolla, ruokakaupassa ja kotona.

Tekoäly voi myös suojella yksityisyyttä, Zhao kertoo. Tekoälypohjaisella järjestelmällä voidaan mallintaa ihmisten, kuten myymälän asiakkaiden tarpeita ja käyttäytymistä. Oikeiden ihmisten kasvoja ja tietoja ei tarvita, jos käytetään virtuaalista avatar-hahmoa.

Milloin yhteiskunnan tai yksilön hyvä menee yksityisyydensuojan edelle?

Moni älypuhelin avautuu sormenjäljellä, ja jotkut mallit tunnistavat omistajansa kasvot. Älypuhelinten kasvojentunnistuksella toimivaa lukitusta on yritetty huijata vaihtelevalla menestyksellä. Naamio, 3D-malli kasvoista ja omistajan kaksoissisarus saattavat avata lukituksen puhelinmallista ja käyttöjärjestelmästä riippuen.

Konenäkö voi seuloa laajoja aineistoja paljon ihmistä tehokkaammin. Yhdistämällä dataa eri lähteistä voidaan nykyteknologiaa hyödyntää tehokkaasti.

Zhao painottaa, että ihmisten yksityisyyttä on aina suojattava sekä kunnioitettava. Joskus kuitenkin yksityisyydensuoja on ristiriidassa teknologian mahdollistamien etujen kanssa. Kasvojentunnistuksen avulla voidaan vaikkapa löytää kadonnut lapsi, hän kertoo.

”Lähes kaikkea teknologiaa voidaan käyttää sekä väärin että oikein. Autoilla voidaan ajaa ihmisten päälle, jos niin halutaan.”

Professori Guoying Zhaon mielestä tehtävämme ihmisinä ja yhteiskuntana on päättää tärkeysjärjestyksestä eri tilanteissa.

Milloin yhteiskunnan tai yksilön hyvä menee yksityisyydensuojan edelle? Yksilön yksityisyyden ja teknologian tuoman hyödyn välillä tasapainotteleminen on eettinen valinta.

“Teemme perustutkimusta, ja kaikki julkaistut tuloksemme ovat avoimesti saatavilla tieteen käytäntöjen sekä rahoittajien, kuten Suomen Akatemian ja EU:n vaatimusten mukaisesti”, professori Matti Pietikäinen kertoo.

“Lähes kaikkea teknologiaa voidaan käyttää sekä väärin että oikein. Autoilla voidaan ajaa ihmisten päälle, jos niin halutaan. Entäpä millaisia vaaroja sosiaalisen median käytössä on?” Pietikäinen kysyy.

Zhaon mielestä konenäön ja tekoälyn sovellutusten etiikan pohtiminen on meidän jokaisen: maailman, yhteiskunnan ja yksilöiden tehtävä. Sinun ja minun. Teknologian kehittämistä ja käyttämistä säätelevien lakien ja moraalisten valintojen tulisi olla yhdessä päätettyjä.

Ihminen määrittää tärkeysjärjestyksen. Ihminen tekee valinnat. Näennäisesti tekoälyn tekemien päätösten taustalla on kuitenkin aina laskentamallin sekä päätöksentekostrategian määrittänyt ihminen, Zhao painottaa.

Tekoälyllä ei ole omaa etiikkaa tai moraalintajua. Tietokone tekee sen, mihin se on ohjelmoitu.

“Me olemme ne ihmiset. Me käytämme teknologiaa ja teemme valinnat.”

 

Juttua varten on haettu inspiraatiota mm. seuraavista teoksista: Tutkimusetiikan ABC (Tammi, 2006), Tutkijan arkipäivän etiikka (Vastapaino, 2007), Etiikkaa ihmistieteille (SKS, 2006).

Heidi Niemi

Tiedeviestinnän ja kirjallisuuden opiskelija, joka ei tiedä, mutta ottaa selvää.

Lue lisää: