Maailmanloppu vältetään välittämällä

Tapio Salakoski

Tänä aamuna herätessämme uuteen päivään maailma on taas yhden päivän lähempänä tuhoaan. Tai tuhoa ja tuhoa – pikemminkin uutta maailmanjärjestystä, jossa ihmistä ei enää tarvita. Eikä se ole välttämättä ole ollenkaan huono asia kenenkään muun mielestä paitsi meidän ihmisten.

Mistä näin synkät mietteet? Kuluneen viikon suurin uutinen oli fyysikko Stephen Hawkingin kuolema 14.3.2018. Kohtalon oikku on, että modernin tieteen isänä tunnetun Galileo Galilein kuoleman 300-vuotispäivänä 8.1.1942 syntynyt  Hawking kuoli tunnetuimman oppi-isänsä Albert Einsteinin syntymäpäivänä. Hawking oli kuollessaan 76-vuotias, mikä on yli 50 vuotta enemmän kuin mitä lääkärit ennustivat diagnosoidessaan 21-vuotiaan opiskelijan parantumattoman harvinaisen ALS-sairauden.

Toivoa sopii, että Hawking menee yhtä paljon pieleen omissa maailmanlopun ennustuksissaan. Hän on jo pitkään ennustanut, että ihmisellä on alle 1000 vuotta aikaa etsiä uusi koti ennen kuin Maa tuhoutuu. Ennuste perustuu yhtäältä luonnonkatastrofien väistämättömyyteen ja toisaalta ihmisen toimiin: väestön ja energiankulutuksen eksponentiaalisen kasvun seurauksiin. Viime vuonna hän korjasi ennustettaan dramaattisesti pudottamalla siitä yhden nollan pois: ihmisen armonaika onkin vain 100 vuotta.

Maailmanloppu on toki ollut tulossa usein aiemminkin. Tunnetuimpia maailmanloppuja ovat raamatullinen vedenpaisumus ja luonnonhistoriallinen dinosaurusten sukupuutto. Uudempia maailmanloppuja edustavat globaalien tietojärjestelmien joukkotuho vuonna 2000 sekä Mayojen kuuluisa (väärin ymmärretty) ajanlaskun loppu 2012. Näistä kuitenkin selvittiin. Tai no, kuka selvisi ja kuka ei. Maailman valtalajit dinosaurukset eivät 65 miljoonan vuoden takaisesta asteroiditörmäyksestä selvinneet, mutta pienille ja ketterille nisäkkäille se maailmanloppu oli onnenpotku.

Maailmanloppua osataan ennustaa Suomessakin. Ohitan tässä uskonnollisten herätysliikkeiden tuomiopäivän odotukset, ja viittaan suomalaisten kognitiotieteilijöiden viime syksynä Helsingin Sanomissa julkaisemaan kirjoitukseen, jonka mukaan maailmanloppu koittaa jo ennen vuotta 2060. Tällä kertaa syynä on tekoäly. Helsingin yliopiston tutkijatohtori Michael Laakasuon mukaan maailmalla lähivuosikymmeninä kehitettävän supertekoälyn ei tarvitse edes olla vihamielinen; riittää, ettei se välitä. Välittäminen on hyvin tärkeää: arvoja voidaan pitää tärkeimpänä ihmistä luonnehtivana ominaisuutena. Arvot ohjaavat kaikkea käyttäytymistämme perustavanlaatuisella tavalla, jota ei suinkaan aina tiedosteta.

Turun yliopiston tulevaisuuden teknologioiden laitoksella kehitämme luonnollisiin kieliin ja ihmisten väliseen vuorovaikutukseen liittyvää tekoälyä, jota olen kutsunut ymmärtämisen teknologiaksi. Sen tavoitteena on auttaa ihmisiä ymmärtämään dataa, joka on ihmisten tuottamaa tai kuvaa ihmisten toimintaa. Kielen konekääntäminen on kulunut mutta toimiva esimerkki siitä, miten teknologia auttaa ihmisiä ymmärtämään toisiaan.

Ehkä meidän pitäisi ryhtyä puhumaan välittämisen teknologiasta; termiin liittyvä suomenkielinen sanaleikki on osuva. Paitsi että pyrimme välittämään informaatiota ja siten lisäämään ymmärrystä ihmisten välillä, meidän tekoälyn kehittäjien pitää myös välittää ihmisille tärkeistä arvoista, kuten terveydestä ja hyvinvoinnista, luonnosta, kulttuurista ja yhteiskunnallisesta oikeudenmukaisuudesta. Terve tekoäly ei voi olla objektiivista ja arvoneutraalia, jos haluamme ihmiskunnan pelastuvan maailmanlopulta.

Toteamus hätkähdyttää objektiivisuuteen pyrkivää, luonnontieteellisen maailmankuvan omistavaa tieteentekijää. Juuri tietokoneen maailmankuvan luomisen vaikeus on ollut tekoälyn suurin haaste jo pitkään. Nykyinen datalähtöinen läpimurto koneoppimisen teknologiassa on johtanut tilanteeseen, missä lähes mikä tahansa ilmiö kyetään oppimaan tarkasti ja luotettavasti, kunhan siitä on saatavilla riittävästi dataa. Asian merkityksen oivaltamiseksi ei tarvitse kuin vilkaista maailman suurimpien yritysten listan uusia kärkinimiä. Se kuka omistaa datan, hallitsee maailmaa! Data is the new oil.

Tekoälyä tulee siksi kehittää kontekstissa, useissa paikoissa. Sitä ei saa jättää maailman vauraimpien yliopistojen harteille – puhumattakaan valtiollisista tiedustelupalveluista ja sotateollisuudesta! Tekoälyä tulee kehittää erityisesti Turun yliopiston kaltaisissa aidosti monialaisissa tiedeyliopistoissa aktiivisessa tieteidenvälisessä vuorovaikutuksessa. Vain monipuolisen ja syvällisen arvoympäristön tasapainottavan vaikutuksen avulla voidaan varmistaa teknologian kehityksen seurausten ennakointi ja välittävän teknologian kehitys.

Olen entistäkin vakuuttuneempi siitä, että päätöksemme panostaa vahvasti tekoälyyn Turun yliopistossa on oikea. Luonnontieteiden ja tekniikan tiedekunnassa juuri päättyneessä haussa avoimina olleisiin 19 tekoälyyn liittyvään pysyvään tehtävään saimme ennätykselliset 370 hakemusta, joista 67 % ulkomailta. Luku on hämmästyttävän upea; nyt en puhu siis opiskelijaksi hakijoista, vaan tohtorin tutkintoa edellyttävien asiantuntijatyöpaikkojen hakijoista! 11 professuuriin saimme keskimäärin noin 25 hakemusta kuhunkin. Arvoista kertoo valitettavasti sekin, että alle 10 % hakijoista on naisia. Joka tapauksessa pätevien hakijoiden kirjo on rikas, ja edessä olevasta valintaprosessista tulee raskas mutta antoisa.

Myös tekoälykoulutukseen tulee panostaa. Viime viikolla olin Ho Chi Minh Cityssä puhumassa Smart City –workshopissa yhdessä Tulevaisuuden teknologioiden laitoksen tietoturvatutkijan Seppo Virtasen ja Tulevaisuuden tutkimuskeskuksen kaupunkitutkijan Sari Puustisen kanssa. Tulevaisuusorientoituneen Turun yliopiston edustajien laaja-alainen näkökulma älykkäiden teknologioiden kehittämiseen ja hyödyntämiseen herätti ansaittua huomiota. Vietnamilaisen opiskelijanuorukaisen esittämä kysymys jäi kaivamaan mieltäni: onko tekoäly todella uhka ihmiskunnalle?

Omassa puheenvuorossani päädyin kahteen avainhuomioon: Ensinnäkin tulevaisuuden älykästä teknologiaa tule kehittää aktiivisessa dialogissa insinöörien ja muiden tutkijoiden, yhteiskunnan päätöksentekijöiden ja käyttäjien eli kansalaisten kesken. Tässä monialaisilla yliopistoilla on keskeinen rooli. Toiseksi koulutukseen tulee panostaa kaikilla tasoilla: tekoälytutkijoiden ja muiden digieksperttien koulutuksen ohella tulee huolehtia monialaisen tekoäly-ymmärryksen sisällyttämisestä kaikkien tieteenalojen korkeakoulutukseen sekä yleissivistävään koulutukseen lukioissa ja peruskouluissa.

Pääministeri Juha Sipilän maanantaina Turussa esittämän näkemyksen mukaan Suomessa tulee täydennyskouluttaa peräti miljoona ihmistä seuraavan 10 vuoden aikana. Tehtävä on massiivinen: yliopistolle, joka edustaa noin 10% maan yliopistolaitoksesta, se tarkoittaa vuosittain noin 10 000 ihmisen täydennyskoulutukseen kontribuoimista eri koulutustasoilla! Turun yliopistossa otamme asiassa proaktiivisen roolin ja kehitämme omaa koulutustamme tiedekuntien välisessä yhteistyössä valmistautuen samalla myös täydennyskoulutuksen kysynnän merkittävään kasvuun.

Koulutustarve ei rajoitu maamme rajojen sisälle, vaan on globaali. Siksi meneillään oleva ”maailmanlopun kehitys” on paitsi vakavasti otettava uhka, myös ja etenkin todellinen mahdollisuus suomalaiselle koulutusviennille ja teknologiansiirrolle. Välittämisen teknologiaa tule paitsi kehittää, myös välittää kaikkialle maailmassa.

Tapio Salakoski
Kirjoittaja on luonnontieteiden ja tekniikan tiedekunnan dekaani, tekoälytutkija ja monialaisen sivistysyliopiston vankkumaton kannattaja

Categories: Koulutus, Koulutuspolitiikka, Koulutusvienti, Monitieteisyys, TiedeKeywords: , ,

4 vastausta artikkeliin “Maailmanloppu vältetään välittämällä”

  1. Eipä tässä nyt ihan maailmanloppua ennustettu.

    Todettiin, että supertekoälyn syntyä ovat alan asiantuntijat povanneet vuoteen 2060 mennessä yli 50% todennäköisyydellä. Supertekoälystä ei vielä nyt automaattisesti seuraa maailmanloppua. Blogikirjoituksen on toki tarkoitus olla raflaava, mutta toivoisin hieman tarkkuutta siihen, että kuka ennusti ja mitä.
    Hyvä ja tarpeellinen kirjoitus noin muuten.

    Parhain terveisin,

    –Michael Laakasuo

    • Kiitos Michael, juuri näin!

      Maailmanlopun ennustaminen ei ole tieteen tehtävä, vaan kuuluu enemmänkin muunlaisten liikkeiden tontille. Tällaiset raflaavat ulostulot, kuten sinun ja minun kirjoitukset, ovat tärkeitä siksi, että asia tiedostetaan ja siihen kiinnitetään sen ansaitsemaa huomiota. Tärkeämpää kuin uhkaavan maailmanlopun vuosiluku on tekoälyn kehityksen luoman todellisen uhan tunnistaminen ja tunnustaminen.

      Keskeinen viesti on se, että teknologian kehityksen luomat uhat voidaan torjua sitä tehokkaammin, mitä enemmän ja mitä aiemmin niihin kiinnitetään huomiota. Kun asioille oikeasti tehdään jotakin, saadaan tekoälystä irti sen parhaat puolet, joita todella tarvitaan ihmiskunnan globaalien haasteiden ratkaisemiseksi.

      Jatketaan työtämme yhteisen hyvän puolesta,

      Tapio

      • Heippa,

        Kyllä, ollaan samalla karttaruudulla. Asioista pitää keskustella ja riskianalyysit pitää tehdä huolella — mielenkiintoista ja huolestuttavaa on se, että MIRIn tyypit on todenneet, että nk. ”off-kytkin ongelma” on erittäin vaikea. Eli jos on yleistekoäly, sitä ei hevin saa sammutettua enää. Yudkowskin luento aiheesta löytyy youtubesta, kandee vilkaista.

        Sitten kun aloitatte täydennyskoulutuksia, ilmoitelkaa, niin tuun mukaan päivittämään koneoppimistaitojani ja ihmettelemään viimeisen 10-vuoden aikana tapahtunutta kehitystä.

        • Jossain määrin väärän tieteenalan suunnasta ongelmaa pohdiskelevana on aina lohdullista huomata, että parina viime vuotena ihan realistiset AI-uhkakuvat ovat saaneet vakavaa huomiota, vaikka samalla esiintyykin tietysti myös raflaavaa skandaalinhakuisuutta. Yleisesti toivoisi tietysti, että tekoälyä tutkiessa muistettaisiin myös aina kysyä miksi niin tehdään, eikä tehdä ihmiskunnan olosuhteita radikaalisti muuttavia tai uhkaavia asioita vain siksi, että se on mahdollista (ja siihen uskotaan saatavan helposti rahoitusta aiheen mediaseksikkyyden takia).

          Tärkeää on kyllä juurikin tiedostaa se, että pahantahtoisuus ei ole mikään vaatimus tuomiopäivän skenaariolle, vaan paljon todennäköisempi on klassinen spefi-tilanne, jossa kaikkea hallitseva mega-ai ohjeistetaan minimoimaan inhimillinen kärsimys mutta unohdetaan antaa muita optimoitavia parametreja, jolloin ohjelma päättää pääsevänsä tavoitteeseensa nopeimmin tuhoamalla koko ihmiskunnan, jolloin kärsimys tipahtaa nollaan. Ja kaikkihan tietävät, miten helppoa on kirjoittaa bugitonta koodia…

          Että pitäisiköhän tutkimusresurssit suunnata siihen että ihan ensiksi kehitetään semmoinen AI, joka suojelee ihmiskuntaa muilta keinoälyiltä?

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *