Henkilö istuu sohvalla ja käy videopuhelua kännykällä lääkärin kanssa.

Tekoäly tunnistaa lääkärin ja hoitajan tunteet

Rasmus Kyyhkynen katsoo kameraan ja hymyilee lähikuvassa.
Rasmus Kyyhkynen

Kuinka mukavaa onkaan, kun voit lähteä tyytyväisenä ulos lääkärin tai hoitajan vastaanottohuoneesta todeten, että sainpas kerrottua kaiken mitä pitikin ja vaivani tuli jopa ymmärretyksi. Onnistuneessa potilastapaamisessa hoitotyöntekijä osaa empaattisuudellaan luoda lämpimän ja turvallisen tunnelman, jotta potilas uskaltaa kertoa vaivoistaan. Mitä laajemmat ja totuudenmukaisemmat tiedot hoitotyöntekijä saa potilaalta, sen todennäköisemmin myös hoito voi onnistua.

Mitä jos voisimme kehittää hoitotyöntekijöiden tunnetaitoja teknologialla, joka tunnistaa käyttäjän mahdollisia tunnetiloja esimerkiksi kasvojen ilmeistä ja pystyy antamaan palautetta niistä? Ai tietokone, joka osaa lukea käyttäjän tunteita? Kuulostaa hieman erikoiselta, mutta tämä voi hyvinkin olla mahdollista jo lähitulevaisuudessa.

Affektiivisella tietojenkäsittelyllä (affective computing) tarkoitetaan tutkimusalaa, joka pyrkii kehittämään järjestelmiä ja laitteita, jotka tunnistavat ihmisen tunteita ja osaavat jäljitellä niitä [1]. Tutkimusalan kehittäjä Rosalind Picard sanoo, että tietokoneet olisivat älykkäämpiä, jos ne tunnistaisivat ihmisen tunteita. Tunteita voidaan tunnistaa esimerkiksi kasvojen ilmeistä tai puheesta eri koneoppimismenetelmiä hyödyntäen. Koneoppimisella tarkoitetaan sekä algoritmeja, joita opetetaan että algoritmeja, jotka oppivat itse tunnistamaan tiettyjä asioita sille syötetystä datasta: esimerkiksi havaitsemaan kuvasta ihmisen kasvot.

Tunteiden tunnistus kasvojen ilmeistä perustuu amerikkalaisen psykologin Paul Ekmanin empiirisiin tutkimuksiin [2]. Ekman havaitsi, että ihmiset reagoivat esimerkiksi inhottaviin asioihin samanlaisella kasvojen ilmeellä maasta tai kulttuurista riippumatta. Ekmanin mukaan ihmisen kasvoilta tunnistettavia perusemootiota ovat onnellisuus, suru, viha, inho, pelko ja hämmästys.

Australialaisessa tutkimuksessa kehitettiin videoneuvottelusovellus, johon lisätty teknologia tunnistaa automaattisesti nonverbaalista viestintää [3]. Teknologia havaitsee esimerkiksi ilmeitä lääkäriopiskelijan kasvoilta, kun hän harjoittelee potilastapaamisessa kommunikointia harjoituspotilaan kanssa. Sovellus osaa myös antaa palautteen opiskelijalle, eli kertoa, kuinka paljon hän käytti erilaisia kasvojen ilmeitä tai nyökytteli potilastapaamisen aikana. Palautteen tarkoituksena on kehittää opiskelijan kommunikaatiotaitoja ja auttaa heitä ymmärtämään sanattoman viestinnän tärkeys. Hoitotyöntekijän käyttämä nonverbaalinen viestintä voi vaikuttaa siihen, miten potilas on kokenut tilanteen.

Nähtäväksi jää miten hyväksi tunteiden tunnistajaksi tietokoneesta on.

[1] R. W. Picard, Affective computing. Cambridge, Massachusetts: MIT Press, 1997.

[2] M. Jeon, Ed., Emotions and affect in human factors and human-computer interaction, 1st ed. San Diego, California: Academic Press, 2017.

[3] C. Liu, R. A. Calvo, and R. Lim, “Improving Medical Students’ Awareness of Their Non-Verbal Communication through Automated Non-Verbal Behavior Feedback,” Front. ICT, vol. 3, Jun. 2016, doi: 10.3389/fict.2016.00011.

Kuvituskuva: Drazen Zigic / Freepik

Rasmus Kyyhkynen
Kirjoittaja on väitöskirjatutkija, jonka tutkimuksessa kehitetään sovellusta, jolla lääkäri- ja hoitajaopiskelija saa tiedot hänen omasta potilastapaamisen aikana käytetystä nonverbaalisesta viestinnästä.