Laatste nieuws
Henk Maassen
Henk Maassen
4 minuten leestijd
Wetenschap

Recht nog niet toegesneden op AI in de zorg

Plaats een reactie

Wat betekent de almaar verdergaande technologisering voor belangrijke waarden in de zorg, zoals autonomie, beroepsgeheim en privacy, aansprakelijkheid of de rol van persoonlijk contact? Over die kwesties gaat Corrette Ploem, bijzonder hoogleraar recht, zorgtechnologie en geneeskunde, zich de komende jaren buigen.

Ploem bezet de leerstoel namens de KNMG aan de Universiteit van Amsterdam, en sprak onlangs haar oratie uit. ChatGPT kan best, zegt ze, ‘een nieuw vriendje van de arts’ worden, een digitale collega die met hem meekijkt en hem behoedt voor fouten. Maar de vraag is wel: hoe gaan we dat inzetten? ‘Een arts is geen diagnosemachine; patiënten zullen altijd artsen nodig blijven hebben, al was het alleen maar om hun persoonlijke voorkeuren met hen te kunnen delen. Persoonlijk contact bij de zorgverlening zouden we daarom in de wet moeten verankeren. Het moet namelijk steeds duidelijk zijn onder welke omstandigheden een fysieke ontmoeting noodzakelijk is en wanneer videobellen, een telefoongesprek of contact via chat of e-mail voldoende is.’

Veiligheidsbeoordeling

Het huidige recht is nog niet toegesneden op AI, zeker niet als het om geavanceerde, zelflerende systemen gaat. In welke situaties zijn artsen bijvoorbeeld aansprakelijk voor gezondheidsschade die is ontstaan door gebruik van een gebrekkig AI-systeem? Het is zaak, aldus Ploem, artsen en zorginstellingen daarover meer duidelijkheid te bieden.

Medische AI-systemen worden nu beschouwd als hulpmiddelen, en kunnen daarom niet zomaar op de markt worden gebracht; daarvoor is een veiligheidsbeoordeling nodig en een CE-keurmerk. Er komen in de toekomst nog allerlei regels bij als de European Artificial Intelligence Act van kracht wordt. Juridische experts waarschuwen wel voor overregulering en ontmoediging van met name kleinere bedrijven die zich op de medische AI-markt richten. Intussen kampen de gebruikers van AI-systemen, de zorgverleners en zorgaanbieders, met een ander probleem: uit die wet volgt weliswaar dat ze op de nauwkeurigheid en veiligheid van AI-systemen toezicht moeten houden en dat ze transparant moeten zijn over optredende problemen en een gebrekkige werking van het systeem, maar hoe dat toezicht er dan precies uit moet zien, is net als de kwestie van aansprakelijkheid nog niet duidelijk.

Ploem richt zich bij dergelijke vraagstukken ook op de werkvloer van artsen en andere professionals: ‘Er is vooral behoefte aan richtlijnen en protocollen om AI op een verantwoorde wijze een plek in de medische praktijk te geven.’ Zo is er al een leidraad voor goed professioneel handelen bij ontwikkeling en gebruik van AI. Helaas biedt die, volgens Ploem, nog geen basis voor het noodzakelijke toezicht, dus op dat gebied is er nog wel werk aan de winkel.

Andere kwestie is of bij informed consent patiënten de werking van de technologie, in casu een geavanceerd AI-systeem, moeten begrijpen om met het gebruik daarvan akkoord te gaan. Geen eenvoudige opgave voor zorgverleners, want ook voor hen is de werking ervan meestal een black box. Ploem in haar oratie: ‘Uit de huidige wetgeving en de rechtspraak leid ik zo’n

gedetailleerde informatieplicht in elk geval op dit moment niet af.’ Ze betwijfelt bovendien of patiënten daar wel op zitten te wachten.

Niet overhaast

Sommige experts riepen onlangs op tot een tijdelijke pauze in de ontwikkeling van meer geavanceerde open AI-systemen zoals ChatGPT: het gaat te snel, de gevaren zijn te groot, dus liever even pas op de plaats. Ploem: ‘Je moet dergelijke stappen in de technologieontwikkeling inderdaad niet overhaast zetten, maar dat gebeurt momenteel ook niet in de zorg. AI-systemen worden eerst onderzocht in een klinisch onderzoek. Wat je daarbij ziet is dat er van meet af aan sensitiviteit is voor maatschappelijke aspecten, zoals recht en ethiek. Dat is ingebed in de onderzoeksprojecten.’

Maar er zijn ook andere aandachtspunten, zoals het feit dat AI-systemen moeten worden getraind, waarvoor gigantische hoeveelheden data nodig zijn. Die waardevolle data bevinden zich in de medische dossiers van patiënten. Als artsen zulke data zonder meer aan onderzoekers ter beschikking zouden stellen, zouden zij daarmee hun medisch beroepsgeheim doorbreken. Daarom bepaalt de wet op de geneeskundige behandelingsovereenkomst (WGBO) dat zij daarvoor aan de patiënt toestemming moeten vragen, tenzij dat de wetenschapsbeoefening onevenredig zou belemmeren. Denk in dat laatste geval aan gegevens van overleden patiënten, aan heel grote aantallen patiënten of gevaar voor bias. In zulke situaties komt de eis van toestemming te vervallen, maar behouden patiënten wel een bezwaarmogelijkheid waarover ze duidelijk geïnformeerd moeten zijn.

Ploem vraagt zich in haar oratie af of de ruimte die de WGBO met deze uitzonderingen op toestemming van de patiënt biedt voldoende is, of dat belangrijk onderzoek daarmee toch nog te veel wordt gehinderd. Sommige onderzoekers menen van wel. Daarom zou een opt-outsysteem wat hen betreft de voorkeur hebben, en dat is iets waarvoor de Europese Commissie naar het lijkt ruimte wil laten. Sterker, er zijn zelfs stemmen opgegaan om data voor onderzoek toegankelijk te maken zonder dat patiënten daarover nog maar iets te zeggen hebben. Europese privacytoezichthouders zijn daar echter terecht kritisch over.

Big Tech

Ploem bekijkt het graag praktisch: ‘Regels moet je niet nodeloos strikt uitleggen. Je moet ruimte laten voor het geven van brede toestemming door patiënten, mondeling of digitaal. Die benadering wordt ook in het kader van toestemming aan de poort van het ziekenhuis voorgesteld en het is geen geheim dat ik me voor dat systeem hard maak. Het zou mooi zijn als zo’n systeem over een jaar of tien in alle ziekenhuizen is ingevoerd.’

Intussen maakt ook Big Tech maar wat graag gebruik van al die zorgdata om AI-systemen te voeden, beseft Ploem. En dat is niet zonder gevaren: ‘Je hebt bijvoorbeeld platforms waaraan patiënten vragen kunnen stellen; Gezondheidsplein is daar een voorbeeld van. Maak je als burger gebruik van zo’n informatievoorziening, dan ben je zelf verantwoordelijk voor het delen van je data. Veel mensen weten dat niet. Een heel andere situatie dan bij een huisarts die gebruikmaakt van een chatbox; de huisarts houdt namelijk eindverantwoordelijkheid over de data.’ Minstens zo belangrijk is echter, zegt Ploem, de rol van de arts als medicus ‘met empathie en aandacht voor de patiënt, zeker als die behoefte heeft aan persoonlijk contact. Die rol overlaten aan technologie vraagt altijd om een overtuigende rechtvaardiging.’

Lees ook
Nieuws Wetenschap
  • Henk Maassen

    Henk Maassen studeerde biologische psychologie aan de Radboud Universiteit Nijmegen. Hij werkte kortstondig als onderzoeksassistent en daarna als (freelance) journalist/redacteur voor tal van bladen en uitgeverijen en als voorlichter voor de Tweede Kamer. Sinds 1999 is hij redacteur bij Medisch Contact, met speciale belangstelling voor psychiatrie en neurowetenschappen, sociale geneeskunde en economie van de gezondheidszorg. Henk stelt wekelijks de Media & cultuur-pagina’s samen.  

Op dit artikel reageren inloggen
Reacties
  • Er zijn nog geen reacties
 

Cookies op Medisch Contact

Medisch Contact vraagt u om cookies te accepteren voor optimale werking van de site, kwaliteitsverbetering door geanonimiseerde analyse van het gebruik van de site en het tonen van relevante advertenties, video’s en andere multimediale inhoud. Meer informatie vindt u in onze privacy- en cookieverklaring.