Generatiivinen tekoäly ja suuret kielimallit tarjoavat lupaavia mahdollisuuksia hoitotyön tehostamiseen, tarjoten työkaluja diagnoosien tarkentamiseen, hoitosuunnitelmien räätälöintiin sekä potilasviestinnän parantamiseen. Esimerkiksi tekoälyn avulla voidaan analysoida suuria määriä potilastietoja nopeasti, mikä mahdollistaa yksilöllisten terveysriskien ennustamisen ja ennaltaehkäisevien toimenpiteiden suunnittelun. Samoin, kielimallit voivat auttaa laatimaan ymmärrettäviä ja selkeitä hoito-ohjeita potilaille, sekä tarjota tukivälineitä monimutkaisten lääketieteellisten tietojen käsittelyyn. Yleisimpiin odotuksiin kuuluu näiden teknologioiden kyky parantaa potilasturvallisuutta ja hoitotyön laatua, kun taas huolia herättää yksityisyydensuoja, tekoälyn päätöksenteon läpinäkyvyys, sekä teknologian saavutettavuus eri hoitoympäristöissä. (ChatGPT 3.5, 2024).
Generatiivinen tekoäly on kattokäsite järjestelmille, jotka pystyvät tuottamaan muun muassa tekstiä, kuvia, ääniä tai videoita (Feuerriegel et al., 2024). Suuret kielimallit ovat puolestaan isoilla tekstiaineistoilla koulutettu generatiivisen tekoälyn alakategoria (Yang et al., 2023). Nimi ”tekoäly” johtaa kuitenkin usein harhaan: generatiivinen tekoäly ei matki ihmisälykkyyttä päätöksenteossaan. Toiminta perustuu laskentaan, jossa järjestelmä pyrkii koulutusaineistonsa perusteella ennustamaan, mikä sana todennäköisimmin seuraisi edellistä (Feuerriegel et al., 2024). Suurten kielimallien kyky tuottaa uskottavaa ihmismäistä tekstiä eri kielillä on herättänyt huomiota maailmanlaajuisesti. Tähän blogitekstiin olenkin valinnut kirjoituskumppaneiksi kaksi avoimesti käytettävää suurta kielimallia: Open AI:n ChatGPT 3.5:en sekä Google AI:n Bardin. Ihmiskirjoittajana ja väitöskirjatutkijana minulla on velvollisuus vastata siitä, että kielimallien esittämät väitteet ovat perusteltavissa tieteellisesti tutkitulla tiedolla ja että merkitsen selkeästi, mikä osa tekstistä on kielimallin tuottamaa.
Hoitotieteessä suuret kielimallit ovat herättäneet kiinnostusta niiden osoittaman suuren potentiaalin vuoksi. Rapid review -kirjallisuuskatsaus (Hobensack et al., 2024) on koonnut yhteen ajantasaista tieteellistä kirjallisuutta suurten kielimallien nykyisistä sekä mahdollisista käyttötavoista hoitotyön tukena. Katsauksesta käy ilmi, että varsinaista tutkimustietoa on tarjolla vielä hyvin vähän. Suurin osa katsaukseen mukaan otetuista 33:sta artikkeleista on tieteellisiin julkaisuihin kirjoitettuja pääkirjoituksia, kirjeitä päätoimittajalle tai kommentteja, vain seitsemän varsinaisia tutkimusartikkeleita. Lisäksi 28 artikkelia (93%) esittelee ChatGPT:n käyttöä, ja näissä kahdesta ChatGPT on listattu yhdeksi kirjoittajista. Myös katsauksessa kielimallien potentiaaliset käyttökohteet tukevat hoitotyötä esimerkiksi automatisoimalla hoitotyön kirjaamista sekä tukemalla potilaan tietoon perustuvaa päätöksentekoa. Hoitotyön koulutuksessa kielimallit voisivat tukea yksilöllistä oppimista ja kriittisten ajattelutaitojen kehittymistä sekä auttaa tehtävien suorittamisessa, ja tutkimuksessa kielimalleja voisi käyttää esimerkiksi kirjallisuuskatsauksen aineiston läpi käymisessä. Potilasturvallisuuden ja hoidon jatkuvuuden, hoitajien ammatillisen kehityksen sekä eettisesti kestävän tieteen turvaamiseksi tarvitaan kuitenkin vielä runsaasti tutkimusta sekä toimintamalleja näiden mallien suunniteluun, kehittämiseen, arviointiin ja turvalliseen käyttöönottoon liittyen. (Hobensack et al., 2024.)
Mustaksi laatikoksi kutsutaan järjestelmää, jonka päätöksenteko- tai toimintaprosessit eivät ole käyttäjälle läpinäkyviä. Sekä lailliset että eettiset velvoitteet estävät sen, että emme voi kytkeä ChatGPT:n tai Bardin kaltaista mustaa laatikkoa äärimmäisen arkaluonteista ja salassa pidettävää tietoa sisältäviin potilastietojärjestelmiin. On kuitenkin todennäköistä, että generatiivinen tekoäly sekä suuret kielimallit tulevat tiiviiksi osaksi hoitotyön arkea tulevaisuudessa. Mitä siis jokaisen hoitotyön ammattilaisen tulisi tietää, jotta generatiivisen tekoälyn sekä suurien kielimallien käyttö hoitotyössä olisi turvallista? Tähän vastauksen osaa antaa kielimalli itse:
- Teknologian ymmärtäminen: Perehdy generatiivisen tekoälyn ja kielimallien periaatteisiin ja niiden käyttöön hoitotyössä.
- Käyttömahdollisuudet: Tunnista tekoälyn ja kielimallien tarjoamat mahdollisuudet potilashoidon, dokumentaation ja tutkimuksen parantamisessa.
- Rajoitukset: Ole tietoinen tekoälyn ja kielimallien rajoituksista ja virheriskeistä.
- Eettiset näkökohdat: Ymmärrä tekoälyn ja kielimallien käyttöön liittyvät eettiset kysymykset, kuten tietosuoja ja puolueellisuus.
- Yhteistyö: Tee yhteistyötä tekoälyn ja kielimallien kehittäjien kanssa varmistaaksesi, että ne vastaavat hoitotyöntekijöiden ja potilaiden tarpeita. (Bard, 2024.)
Onkin tärkeää, että hoitotyön ammattilaisia ei vain opeteta käyttämään hoitotyössä tarvittavia työkaluja. Turvallinen ja eettisesti kestävä tekoäly tarvitsee tuekseen motivoituneita hoitotyön ammattilaisia, jotka myös ymmärtävät miten nämä järjestelmät toimivat, mihin niiden tuottama tieto perustuu ja miten tätä tietoa tulisi tulkita.
Hanna von Gerich
Turun yliopisto, hoitotieteen laitos
Kirjoittaja on väitöskirjatutkija sekä sairaanhoitaja/terveydenhoitaja, jonka tutkimus käsittelee terveydenhuollossa muodostetun tiedon toisiokäyttöä hoitotyön johtamisen näkökulmasta sekä tekoälypohjaisten ratkaisujen hyödyntämistä hoitotyön tukena. Kirjoittaja vastaa tässä blogissa esitettyjen kielimallien antamien vastausten asiasisällön oikeellisuudesta.
hanna.m.vongerich@utu.fi
ChatGPT
ChatGPT, OpenAI:n kehittämä tekoäly, mullistaa kirjoittamisen maailmaa tarjoamalla syvällisiä ja luovia tekstejä aiheesta kuin aiheesta. Tämä edistynyt tekstigeneraattori yhdistää uusimman tekoälyteknologian ja valtavan datamäärän oppiakseen ja mukaillakseen ihmisen kirjoitustyyliä ainutlaatuisella tavalla. (ChatGPT 3.5, 2024.)
https://chat.openai.com/
Bard
Tämä teksti on kirjoitettu yhteistyössä Bardin kanssa. Bard on Google AI:n tosiasiallinen kielimalli, joka on koulutettu massiivisella teksti- ja koodidatalla. Se voi tuottaa tekstiä, kääntää kieliä, kirjoittaa luovia sisältöjä ja vastata kysymyksiisi informatiivisella tavalla. (Bard, 2024.)
https://deepmind.google/
Lähteet
Feuerriegel S, Hartmann J, Janiesch C, Zschech P. (2024). Generative AI. Bus Inf Syst Eng 66, 111–126. doi: 10.1007/s12599-023-00834-7
Hobensack M, von Gerich H, Vyas P, Withall J, Peltonen LM, Block LJ, Davies S, Chan R, Van Bulck L, Cho H, Paquin R, Mitchell J, Topaz M, Song J. (2024). A rapid review on current and potential uses of large language models in nursing. Int J Nurs Stud. 2024 Mar 13;154:104753. doi: 10.1016/j.ijnurstu.2024.104753. Epub ahead of print.
Yang, R., Tan, T. F., Lu, W., Thirunavukarasu, A. J., Ting, D. S. W., & Liu, N. (2023). Large language models in health care: Development, applications, and challenges. Health Care Science (Print), 2(4), 255–263. https://doi.org/10.1002/hcs2.61
ChatGPT 3.5. (2024). Käytetty: 8.4.2024. Saatavilla: https://chat.openai.com/. Käytetyt hakulausekkeet:
- Kirjoita yhden kappaleen esittelyteksti liittyen generatiivisen tekoälyn sekä suurten kielimallien käytöstä hoitotyössä, jossa kuvailet teknologiat esimerkkien kanssa sekä käyt läpi yleisimmät odotukset sekä huolet näiden teknologioiden käytöstä hoitotyön tukena neljällä lauseella
- Kirjoita esittelyteksti ChatGPT:stä kirjoittajana blogitekstissä. Enintään kaksi lausetta.
- Luotko kuvan, jota chatGPT voisi käyttää virallisessa työhakemuksessa kuvaamaan itseään? Voitko muokata kuvaa niin, että se näyttäisi realistiselta valokuvalta?
Bard. (2024.) Google AI. Käytetty: 8.4.2024. Saatavilla: https://deepmind.google/. Käytetyt hakulausekkeet:
- Mitkä viisi asiaa jokaisen hoitotyöntekijän tulisi ymmärtää generatiivisen tekoälyn ja suurten kielimallien käytöstä hoitotyön tukena? Lyhyt vastaus
- Kirjoita esittelyteksti Bardista kirjoittajana blogitekstissä. Enintään kaksi lausetta.
Kuvituskuva: Microsoft Designer Image Creator. Käytetty 8.4.2024. Saatavilla: https://bing.com/create. Käytetty hakulauseke: Nurse replaced by generative artificial intelligence in Finland painted by Leonardo Da Vinci.