Kun juristi puhuu tekoälystä, tieteisfiktioihin ei ole varaa
Tekoäly on yksi viime vuosien suurimmista megatrendeistä. Saamme lähes viikoittain lukea, kuinka tekoälykehityksen ennustetaan muuttavan maailmaa. Monille kehitys näyttäytyy pelottavana ja riskialttiina, vaikka takaraivossa kolkuttaisi ajatus, että kehityksessä on myös paljon hyvää.
Syy on ymmärrettävä. Iltapäivälehtiä lukemalla on vaikeaa välttyä mielikuvalta, jossa tekoälykehitys synnyttää lopulta punasilmäisiä robotteja, jotka tuhoavat kaiken tielleen osuvan. Todellisuuden ja tieteisfiktion välille on vaikeaa tehdä eroa, ellei ole valmis sukeltamaan teknisen kirjallisuuden loputtomaan suohon.
Osittain huolet ovat myös perusteltuja. Esimerkiksi joukko johtavia tekoälytutkijoita julkaisi jo vuonna 2015 avoimen kirjeen, jossa he varoittivat teknisen kehityksen olevan niin pitkällä, että se mahdollistaisi autonomisten asejärjestelmien käyttöönoton jo lähivuosien aikana. Käytännössä kyse oli päättäjille suunnatusta vetoomuksesta, jonka toivottiin johtavan tällaisten itsenäisesti kohteensa valitsevien asejärjestelmien kieltämiseen.
Tutkijoiden huolta ei kuitenkaan tule ymmärtää niin, että yleisen tekoälyn – siis kaikin tavoin ihmiseen rinnastuvan keinotekoisen älykkyyden – kehittyminen olisi vielä näköpiirissä. Kun tieteiselokuvissa koneet saavuttavat tietoisuuden ja alistavat ihmiskunnan valtaansa, tosielämässä tilanne on toinen. Kyse on toistaiseksi lähinnä välineistä, jotka mahdollistavat yhä monimutkaisempien tehtävien automatisoinnin.
Monia tekoälykehittäjiä ei erityisemmin edes kiinnosta, kykeneekö järjestelmä tiedostamaan oman olemassaolonsa. Haastetta on aivan riittämiin siinä, että tekoälysovelluksen saa toimimaan halutulla tavalla.
Insinööreille edellä mainitut huomiot ovat luultavasti itsestäänselvyyksiä. Tekoälyä tutkivan juristin kannalta ne ovat kuitenkin elintärkeitä. Ne kertovat esimerkiksi sen, ettei tekoälyn perusoikeuksia ole toistaiseksi tarpeen pohtia, vaikka se kuinka kiehtovaa saattaisikin tutkijalle olla.
Toisaalta myös yksityiskohdilla on merkitystä. Jos jokin järjestelmä hyödyntää koneoppimista, juristin on hahmotettava, millä tavoin se sitä hyödyntää. Muutoin oikeudellinen keskustelu saattaa kiinnittyä asioihin, joilla ei ole mitään tekemistä todellisuuden kanssa.
Koneiden oppimiskyky on huomattavasti ihmistä rajoitetumpi. Kun ihminen oppii uusia asioita läpi elämänsä, koneiden oppiminen rajoittuu pääosin niiden kehitysvaiheeseen. Ihminen päättää, mitä järjestelmän annetaan oppia, ja käyttöönoton jälkeistä oppimista hyödynnetään vain silloin, kun se on aidosti tarpeen.
Jos itseajava auto voisi vapaasti kehittää itseään käyttöönottonsa jälkeen, se saattaisi ajan kuluessa oppia ajamaan kuin rattijuoppo. Sitä ei halua kukaan – eivät myöskään insinöörit. Koneoppimista on siis hyödynnettävä varoen.
Antamani esimerkki on kärjistetty, mutta se paljastaa olennaisen seikan. Kun tekoälykehityksen kauhukuvissa tekoäly näyttäytyy kontrolloimattomana, vapaasti itseään kehittävänä toimijana, tosielämässä tilanne on ainakin toistaiseksi toinen. On ihmisen vastuulla varmistaa, ettei tekoäly opi mitään sellaista, jonka seuraukset olisivat katastrofaaliset.
Oikeudellisen keskustelun kannalta edellä tehdyt huomiot ovat tärkeitä. Kun unohdamme tieteisfiktioissa luodut mielikuvat ja asetamme lähtökohdaksi, että vastuu järjestelmien turvallisuudesta on ihmisellä, tekoälyyn liittyvät oikeudelliset ongelmat näyttäytyvät äkisti kovin erilaisina.
Felix Collin
Kirjoittaja on oikeustieteen tohtorikoulutettava, joka tutkii väitöskirjassaan tekoälyn ja robotiikan vaikutuksia vahingonkorvausoikeuden peruslähtökohtiin.