Laatste nieuws
Eva Kneepkens
Eva Kneepkens
8 minuten leestijd
Achter het nieuws

Taalmodel achter ChatGPT dringt langzaam het epd binnen

‘Dit is disruptief, er is geen weg meer terug’

3 reacties
Getty Images
Getty Images

Onlangs vierde ChatGPT, de bekende chatbot van OpenAI en Microsoft, zijn eerste verjaardag. Het taalmodel – oftewel Large Language Model (LLM) – achter ChatGPT kan de administratie­last in de zorg flink verminderen. Wat kan er nu al? Wat binnen­kort, en over een paar jaar?

Hoe kan een taalmodel zoals dat achter ChatGPT in de spreek­kamer worden ingezet? Medisch Contact vroeg dat aan kno-arts Tom van der Laan van het UMCG, een ziekenhuis dat het elektronisch patiëntendossier van Epic gebruikt, en aan cardioloog in opleiding Aaram Omar Khader van het Erasmus MC dat met het epd (HiX) van Chipsoft werkt. Beiden zijn in hun ziekenhuis nauw betrokken bij het implementeren van een taalmodel in het epd.

Breinloos werk

‘Vorig jaar kwam ChatGPT uit’, zegt Van der Laan, ‘en heeft Epic direct gekeken hoe ze dit in hun epd konden integreren. Toen kozen ze ervoor om niet met het spannende deel te beginnen – dus het taalmodel in te zetten als medisch hulpmiddel waarbij het daadwerkelijk invloed heeft op medische keuzes – maar puur met de administratieve kant. Dat is veilig, qua regulering in ieder geval.’

Ook het Erasmus MC gebruikt het taalmodel om de administratielast te verminderen. ‘Er is zoveel breinloos werk dat we moeten doen. Daarmee beginnen is een voor de hand liggende stap’, zegt Omar Khader. ‘Maar uiteindelijk kom je op het punt dat deze taalmodellen op de stoel van de dokter gaan zitten’, zegt Van der Laan. ‘Binnen een jaar of twee jaar misschien al.’ Die termijn wordt vooral bepaald door de wet- en regel­geving zoals voor medische hulpmiddelen, privacy en het gebruik van kunstmatige intelligentie.

Human-in-the-loop

De eerste functionaliteit die het UMCG medio november in gebruik nam, is het beantwoorden van schriftelijke vragen van patiënten, bijvoorbeeld over medicatiegebruik. ‘Die kunnen via het patiëntenportaal vragen stellen aan iedere zorgverlener met wie ze een behandelrelatie hebben.’ Vervolgens stelt het taalmodel een con­-
cept­­antwoord voor op basis van die vraag en de relevante informatie uit het epd. ‘Dat voorstel kun je níét direct doorsturen naar de pa­­­tiënt. Er zit dus altijd een human-in-the-loop.’

Chipsoft biedt nog niet de optie aan om een taalmodel in het epd te integreren, maar het bedrijf zegt desgevraagd wel de ‘mogelijk­heden van kunstmatige intelligentie in relatie tot het epd’ te verkennen. Daarom werkt het Erasmus MC vooralsnog zelf aan die integratie. Een tijdrovende klus, aldus Omar Khader. Net als in het UMCG gaat het ook hier om concept­­­antwoorden, maar dan op logistieke vragen van patiënten aan het servicecentrum. Artsen hebben vooral profijt van de koppeling van het taalmodel met het platform Digizorg. Dat is zichtbaar als een apart tabblad in HiX en bestaat uit een app waarmee patiënten en zorgverleners met elkaar kunnen communiceren en een ‘cockpit’ waar zorgverleners onder andere orders kunnen klaarzetten. Met behulp van een paar steekwoorden kan de arts bijvoorbeeld een vragenlijst in de app klaarzetten of orders in de cockpit, zoals een thuis­meting. Na controle door een zorgverlener, doet het taalmodel vervolgens de rest. ‘We zijn eerst met de chat live gegaan en daarna pas met de orderverwerking.’

‘GPT is een soort tolk tussen mens en computer’

Een soort tolk

‘De volgende stap is het samenvatten van het dossier’, zegt Van der Laan. ‘Als ik een patiënt op mijn spreekuur krijg die een halfjaar geleden bij mij was, kost het mij veel tijd – zeker bij de multimorbide patiënten – om door alle noties en documenten te bladeren om te kijken: wat is relevant voor mij en de behandeling die ik bij deze patiënt uitvoer?’ Het UMCG gaat monitoren welke tijdwinst en/of kwaliteitsverbetering dat gaat opleveren. ‘Ik verwacht dat de samenvatting van het taalmodel accurater zal zijn dan de polivoorbereiding die ik doe als ik vluchtig een paar notities doorneem.’ Door over de samenvatting te scrollen, kan de arts zien waar het taalmodel de informatie vandaan heeft en die zo nodig verifiëren.

Ook in het Erasmus MC verkennen ze een volgende stap. ‘We willen dat het taalmodel ook orders in HiX klaarzet, zoals voor bloedonderzoek, medicatiewijziging of de volgende afspraak. Het ordersysteem is ooit gemaakt omdat we niet in mensentaal met de computer konden praten. GPT is een soort tolk waardoor dat nu wel kan’, aldus Omar Khader.

Gamechanger

Een daaropvolgende stap is volgens Omar Khader ‘het gesprek opnemen tijdens het polibezoek’. Het taalmodel voert dan enerzijds de hele anamnese in en anderzijds zet het de orders klaar. Volgens Van der Laan wordt de ‘combinatie van spraakherkenning met LLM’s de gamechanger’. Dan kan een consult er in de toekomst als volgt uit gaan zien, zegt hij. ‘Je bespreekt de operatie, de complicaties en informed consent met de patiënt en de spraak-naar-tekstfunctionaliteit zet het gesprek om naar gestructureerde notities, dus een anamnese. Tijdens het lichamelijk onderzoek zeg je dan hardop, zoiets als “ik neem een biopt van het weefsel in de nasofarynx aan de rechterzijde”. Als je dan terugkomt bij de computer, staat de order voor pathologisch onderzoek al klaar. Dan hoef je aan het einde alleen nog alles te controleren samen met de patiënt.’ Zo zit de arts tijdens een consult niet langer meer typend en verscholen achter een computerscherm, stelt hij vast. ‘Dat maakt de zorg menselijker.’

Gevaren

‘Met kunstmatige intelligentie zijn er gevaren’, zegt Omar Khader. ‘De vraag is hoe je het taalmodel gebruikt.’ De eerste ‘beveiliging’ is dat een mens altijd het voorstel van het taalmodel controleert. ‘Dan minimaliseer je het gevaar’, onder andere van hallucinaties door het taalmodel. ‘Maar de angst bestaat dat de arts dat niet gaat doen omdat die lui wordt en eraan gewend raakt’, vult Van der Laan aan. Volgens Omar Khader moet je het als een ‘digitale assistent’ zien. ‘Ook in de echte wereld, als je aan een coassistent of een secretaresse iets vraagt wat enig belang heeft, kijk je dat vaak toch kort na.’ Hoe meer het taalmodel medische informatie gaat interpreteren, hoe ingrijpender de consequenties worden als het een fout maakt. Omar Khader: ‘Dat kun je ondervangen met trucjes, maar dat is wel een gevaar waar je bij stil moet staan.’ Volgens hem zijn er uiteindelijk taalmodellen nodig die ‘specifiek voor de gezondheidszorg zijn gemaakt’.

‘Ook zijn er natuurlijk altijd privacy- en datalekgevaren’, zegt Omar Khader. Het taalmodel van de ziekenhuizen is statisch en leert niet van de informatie die het gevoed krijgt. Bovendien komen het taalmodel, de opdracht en de relevante informatie uit het epd van de patiënt samen in een beveiligde omgeving waartoe derden, zoals OpenAI, Microsoft en Epic, geen toegang hebben. Ook verloopt alles via servers in Europa waardoor de Europese privacywetgeving van toepassing is.

Geen weg terug

‘Op de langere termijn, als je alles goed regelt, krijg je de administratielast echt heel laag. Daar ben ik van overtuigd’, zegt Omar Khader. ‘Dit is disruptief, er is geen weg meer terug’, zegt Van der Laan. Hij betwijfelt of artsen er voldoende van doordrongen zijn dat het vak gaat veranderen. ‘Voor nu gaat het om administratieve taken, maar binnen vijf jaar – als de regelgeving het niet vertraagt of blokkeert – is het bijvoorbeeld echt passé om zelf alle informatie proberen te combineren om tot een differentiaaldiagnose te komen.’ 

De juiste instructies

Het taalmodel achter ChatGPT is een ‘woordvoorspeller’, zegt Omar Khader. Zo’n taalmodel of LLM lijkt op een neuraal netwerk maar werkt niet zoals het menselijk brein. Als iemand ChatGPT een vraag stelt, herkent het taalmodel daarachter patronen en verbanden tussen woorden. Hierdoor kan het voorspellen welke opeenvolgende serie van woorden logischerwijs volgt op de vraag. ChatGPT heeft dus geen idee wát het schrijft en toch leest het antwoord als een logisch geheel – hallucinaties daargelaten. Door het model te trainen, wordt het hier steeds beter in. Het trainingsmateriaal voor ChatGPT bestond uit ongeveer 300 miljard woorden. Allemaal afkomstig uit teksten van internet tot 2021. Daarnaast is het zelflerend. ‘Als je ChatGPT op het internet gebruikt en iets intypt, dan gebeurt dit in het systeem en kan het taalmodel jouw informatie gebruiken om de vraag van een ander te beantwoorden.’ De taalmodellen die de ziekenhuizen gebruiken zijn daarom niet zelflerend. Hierdoor is het belangrijk om het taalmodel de juiste instructies mee te geven. Het UMCG doet dat via ‘prompt engineering’ en het EMC via een combinatie van prompt engineering en steekwoorden.

Prompt engineering

In het UMCG werken ze met prompts, oftewel opdrachten, zoals: doe je voor als een kno-arts in een Nederlands ziekenhuis die een conceptantwoord moet geven op een vraag van een patiënt. ‘Daar staan allemaal instructies in’, vertelt Tom van der Laan, ‘zoals: je mag geen medisch advies geven, als de patiënt jonger is dan 18 jaar moet je tutoyeren en anders schrijf je u. De instructies bepalen we zelf. Dat is prompt engineering.’

Prompt engineering is minder voorspelbaar dan het programmeren via ‘computertaal’ zoals we dat tot nu toe kenden. ‘De grootste uitdaging is het veranderen van de prompt. Dat leidt soms tot verrassingen.’ Zo stelde het taalmodel telkens voor om een afspraak bij de huisarts te maken, terwijl de patiënt al bij de medisch specialist van het ziekenhuis in behandeling is. Daarom voegden ze aan de prompt toe: stel onder geen beding voor om een afspraak bij de huisarts te maken. ‘En dan luistert zo’n taalmodel niet.’ Na verschillende experimenten bleek dat hoofdletters het verschil maakten. Van der Laan: ‘Als je met koeienletters schrijft: YOU MAY NOT SUGGEST dit en dat, dan luistert het taalmodel opeens wel.’ Op dit moment experimenteert een handvol zorgverleners in het UMCG met het taalmodel. Artsen kunnen er altijd voor kiezen om het concept van het taalmodel niet te gebruiken en zelf alles te typen.

Steekwoorden

‘Voor de app en cockpit hebben we een cloudomgeving waar we alles programmeren en dergelijke’, vertelt Aaram Omar Khader. ‘Daarin zit ook een OpenAI-service, het moederbedrijf van ChatGPT. Die service betekent dat we het taalmodel van OpenAI mogen gebruiken om ermee te doen wat we willen. Hiervoor hebben we een contract met Microsoft met een clausule waarin staat wat zij wel en niet met de data mogen doen.’

Ook bij het EMC komt er prompt engineering aan te pas. ‘Er worden achter de schermen instructies gegeven op een gelijkaardige wijze als in het UMCG’, zegt Omar Khader. Daarnaast kan de eindgebruiker aan de voorkant het taalmodel instrueren door steekwoorden in te vullen. Het taalmodel kan dan conceptantwoorden schrijven of orders uitzetten. ‘Bijvoorbeeld: een patiënt komt bij mij op de poli. Die heeft lab geprikt, maar de resultaten heb ik nog niet. Zodra ik die heb, wil ik sturen: uw labwaarden zijn goed. Maar dat komt niet zo vriendelijk over. Je typt dan ‘uw labwaarden zijn goed’ en drukt op “uitwerken”.’ Het taalmodel stelt een mooie concepttekst op, met aanhef en dergelijke.

Omdat het taalmodel niet door Chipsoft in het epd is geïntegreerd, moet het EMC meer zelf doen. ‘De orderverwerking, dus het omzetten van mensentaal naar gestructureerde computertaal, is het makkelijke gedeelte met een LLM. Het moeilijke gedeelte is het omzetten van die gestructureerde dingen in orders. Omdat wij niet Chipsoft zelf zijn, moeten we die terugschrijven naar Chipsoft. Dat kost ons wel wat tijd en moeite.’ Er wordt binnenkort onderzocht hoe vaak de functionaliteit gebruikt wordt.

Lees ook:

download dit artikel (in pdf)

Achter het nieuws EPD
  • Eva Kneepkens

    Eva Kneepkens is arts en promoveerde binnen de reumatologie. Na een postacademische cursus wetenschapsjournalistiek en een stage bij de Volkskrant koos ze voor het journalistieke pad. Ze schrijft voor Medisch Contact onder andere over wetenschap, tuchtzaken en inrichting van zorg.  

Op dit artikel reageren inloggen
Reacties
  • psychiater, Heerenveen

    Niet te bevatten, dit breinloze enthousiasme voor AI!
    Straks kan niemand meer zelf nog een tekst schrijven en atrofieert onze taalvaardigheid verder. Menig arts-assistent is nu al niet meer in staat om zonder fouten in d's, t's en dt's een brief af t...e leveren.
    En zo handig wordt gesteld: je hoeft niet meer zelf in het dossier te spitten om er achter te komen wat er ook weer speelt maar je krijgt de voorgeschiedenis blijkbaar als een kant-en-klaar uittrekseltje voorgeschoteld.
    Dan de computer die hoort wat je zegt tijdens het onderzoek van de patiënt..., ik heb nu al het idee dat Bill Gates meeluistert in onze huiskamer als ik mijn smart-tv aan heb staan. Dit valt natuurlijk nooit goed te beveiligen.
    Zo patiëntvriendelijk wordt beweerd, want je hoeft je niet meer achter een scherm te verstoppen tijdens het consult. Wel, dat hoeft nu ook niet. Ik vind het ook nu erg onfatsoenlijk om met een patiënt vanachter het computerscherm te communiceren en al turend op scherm en toetsenbord aantekeningen te maken. Schrijf een paar steekwoorden op en werk die uit als de patiënt de kamer uit is, klaar ben je!
    Terug naar de menselijke maat. Dokters die zelf praten, schrijven, luisteren en behandelen. Het lukt al eeuwenlang prima.
    H. v.d. Pol

    [Reactie gewijzigd door op 10-01-2024 20:25]

  • A. G?bel

    Huisarts, Amstelveen

    Ik vind het shockerend dat we meegaan met het idee dat AI taken van ons gaat overnemen, en dat we dat nog zien zitten ook. Waar is de kritische benadering uit de jaren 80 gebleven? Zijn we kritiekloos geworden en omarmen we opeens alle noviteiten, om...dat we in uitdagingen denken in plaats van problemen?
    Onbegrijpelijk om te propageren dat AI teksten voor de arts gaat schrijven en dat 'de arts die dan moet controleren op fouten'. Computertechnologie is bedoeld om óns te ondersteunen - niet omgekeerd!

    Er wordt in dit artikel gesproken over 'breinloze taken die door AI gedaan kunnen worden'. Maar breinloze taken zouden we überhaupt niet moeten uitvoeren. En niet door computers laten doen. Als je als dokter een bepaalde tekst niet meer wil schrijven omdat het teveel tijd kost, moet je die gewoon beknopter gaan schrijven. Nu wordt de keuze gemaakt om uitgebreide standaardteksten door chatGPT te laten maken en dan onze handtekening eronder te zetten. Overbodig en nutteloos. Niet aan beginnen. Vooral omdat doelbewust de suggestie gewekt wordt dát ze door een persoon zijn geschreven.

    Het is absurd om een computer in je spreekkamer te laten meeluisteren en dan de woorden 'we gaan een biopt nemen uit uw rechter nasopharynx' te laten opvangen waardoor er gelijk een aanvraag klaarstaat. Je kan met een sneltoets bepaalde aanvragen heel makkelijk doen, daarvoor hoef je niet de computer te laten meeluisteren.

    Ik vind het een onverantwoorde en absurde ontwikkeling, die eigenlijk nog verder gaat dan futuristische films in de vorige eeuw ons wilden doen geloven. De snelheid waarmee Erasmus MC en andere instellingen hiermee in zee gaan om maar niet achter te blijven, vind ik verbazingwekkend.

    [Reactie gewijzigd door G?bel op 10-01-2024 16:29]

  • J.M. Keppel Hesselink

    arts np, farmacoloog, Bosch en Duin


    "Het is absoluut opwindend dat het Taalmodel achter ChatGPT nu in staat is om toegang te krijgen tot het Elektronisch Patiëntendossier (EPD) en een rol te spelen in de geneeskunde. Deze innovatie opent deuren naar nieuwe mogelijkheden en verbetering...en in de manier waarop we medische informatie begrijpen, communiceren en beheren. Door de kracht van natuurlijke taalverwerking te benutten, kan het Taalmodel helpen bij het efficiënt analyseren van complexe medische gegevens, het genereren van begrijpelijke samenvattingen voor zowel professionals in de gezondheidszorg als patiënten, en het mogelijk maken van meer gepersonaliseerde en toegankelijke zorg. Deze ontwikkeling vertegenwoordigt een belangrijke stap voorwaarts in het gebruik van geavanceerde technologieën om de gezondheidszorg te verbeteren, waarbij de nadruk ligt op het bevorderen van nauwkeurige, begrijpelijke en toegankelijke informatie voor alle belanghebbenden in de medische wereld."

    Zegt ChatGPT tegen mij als ik hierom vraag. Dus! Dat u het maar weet, we hoeven zelfs niets meer ons af te vragen op dit gebied. De ChatGPT is erg duidelijk in haar stellingname! Oja, wij van WC eend....

    [Reactie gewijzigd door Keppel Hesselink, Jan op 10-01-2024 14:02]

 

Cookies op Medisch Contact

Medisch Contact vraagt u om cookies te accepteren voor optimale werking van de site, kwaliteitsverbetering door geanonimiseerde analyse van het gebruik van de site en het tonen van relevante advertenties, video’s en andere multimediale inhoud. Meer informatie vindt u in onze privacy- en cookieverklaring.