Dagelijks opinie, nieuws en achtergronden

Inloggen
naar overzicht
ethiek

Kunstmatige intelligentie in zeven kritische aandachtspunten

Plaats een reactie
getty images
getty images

Artificiële intelligentie rukt op in de zorg. Maar wat zijn de ethische en juridische kanttekeningen? Hoogleraar Maartje Schermer en projectmanager van het Rathenau Instituut Maartje Niezen zetten die puntsgewijs uiteen.

Geld, samenwerking, onderwijs en ethiek. Met die pijlers hoopt de Europese Commissie kunstmatige intelligentie in Europa op de rit te krijgen. Ethiek mag daarbij blijkbaar niet ontbreken. ‘Om vertrouwen te creëren, zodat samenlevingen AI accepteren en er gebruik van maken’, moet de technologie fundamentele rechten en ethische regels respecteren, zo laat de Commissie in een persbericht van december 2018 weten. Vertrouwen in iets nieuws hebben samenlevingen niet van nature. Wantrouwen jegens machines die de mens de baas worden, is in allerlei films en boeken terug te vinden. Een horrorscenario is makkelijk te bedenken als dokters de macht uit handen geven aan een machine. Gelukkig worden ethici steeds beter betrokken bij de ontwikkeling van artificiële intelligentie in de zorg, vindt Maartje Niezen, projectmanager maatschappelijke en ethische kwesties bij digitalisering van de zorg bij het Rathenau Instituut. Maar ethische en juridische uitdagingen zijn er genoeg. Hieronder volgen zeven veelbesproken voetangels en klemmen.

1. Bias

Als mensen gegevens van patiënten in de computer stoppen, dreigt het risico van bias, vooroordelen zeg maar. Het risico bestaat dat aannames die al in de data zitten of die de programmeur heeft, worden ingebouwd in de ‘als dit, dan dat’-regels die de computer moet volgen. Maartje Schermer, bijzonder hoogleraar filosofie van de geneeskunde en de maakbaarheid van de mens aan het Erasmus MC en commissievoorzitter bij het Centrum voor Ethiek en Gezondheid, geeft als voorbeeld de data uit de Framingham Heart Study. Hier vloeiden adviezen aan hartpatiënten uit voort, die waren gebaseerd op gegevens van een bijna helemaal witte populatie en die passen niet altijd bij andere bevolkingsgroepen. Ander voorbeeld is een tool die werd gebouwd voor prognoses bij longontsteking en besluitvorming over ic-opname. Patiënten met astma en COPD leken de beste perspectieven te hebben. Wat vertekende, was dat in de gebruikte data deze groepen een goede prognose hadden juist omdat ze direct op de ic kwamen, zodra ze een longontsteking hadden.

2. Opschalen

In het verlengde van het biasprobleem, ligt de moeilijkheid hoe AI-tools zijn op te schalen. ‘Als je een tool breder wilt gebruiken dan in de omgeving waarin hij werd ontwikkeld, dan noemen we dat opschalen. Een voorbeeld zijn tools die worden ontwikkeld in academische ziekenhuizen. Een umc heeft een bepaalde populatie en die is niet dezelfde als in de periferie. De vraag is hoe de tool moet worden aangepast om elders toepasbaar te kunnen zijn’, zegt Maartje Niezen.

3. Verantwoording

AI kan bestaan uit zelflerende computersystemen. Dat wil zeggen dat er delen zijn die niet door mensen worden geprogrammeerd, maar waar de computer zelf keuzes maakt en waaraan geen menselijke handeling meer is verbonden. Niezen: ‘We willen dan toch graag weten op basis van welke elementen de computer tot een oordeel is gekomen. De verantwoording van de oordeelsvorming noemen we de uitlegbaarheid. Maar wie moet er dan wat uitleggen? Dat blijft lastig.’ De supercomputer Watson van techproducent IBM bijvoorbeeld is een programma dat met AI medisch-wetenschappelijke bronnen analyseert en daarna behandelopties presenteert. Met het oog op de transparantie zijn de wetenschappelijke artikelen openbaar gemaakt, die de basis vormen van de evidencebased adviezen van Watson.

4. Deskilling

Als de computer de dokter taken uit handen neemt, ligt het risico op de loer dat artsen te veel gaan vertrouwen op AI-systemen. Dit kan professional deskilling tot gevolg hebben, zegt Niezen. ‘Durf maar eens af te wijken van een tool die alle recente wetenschappelijke artikelen heeft geanalyseerd. Goede zorg vraagt om een juiste balans tussen de wensen en de ervaringen van de patiënt, de ervaring en praktijkkennis van de arts en de bewijsvoering vanuit wetenschap en de AI. Het waarborgen van deze balans is belangrijk.’

5. Professionele verantwoordelijkheid

Ontwerpers kunnen op allerlei manieren verantwoording afleggen, toch blijft het voor artsen de vraag waarvoor zij precies verantwoordelijkheid dragen. Stel dat een systeem een diagnose stelt, neemt een arts daarvoor de verantwoordelijkheid? ‘Om dat te kunnen doen, moet een arts weten dat het klopt. Hij kan niet afgaan op de blauwe ogen van Microsoft, Google of de programmeur. Het systeem moet dus transparant zijn en bepaalde beroepsgroepen moeten kunnen snappen wat er gebeurt. Daarmee hangt de juridische vraag samen naar wie aansprakelijk is als het misgaat. Is dat de softwareontwikkelaar, de instelling die de software heeft aangeschaft of de arts die er gebruik van maakt?’, zegt Schermer. Ze geeft het voorbeeld van het Radboudumc, waar biopten door artificial intelligence worden beoordeeld op metastasen. ‘De uitkomsten leggen ze naast een panel van radiologen. Als dat systeem het uiteindelijk alleen gaat doen, zal dat zijn onder de verantwoordelijkheid van de radiologen. Dat doet denken aan de verlengde-armconstructie, zoals artsen nu ook verantwoordelijk zijn voor bepaalde handelingen door verpleegkundigen of apparatuur.’ Schermer heeft niet de indruk dat de antwoorden op deze vragen al zijn uitgekristalliseerd. ‘We zitten in de fase dat we daarnaar zoeken’, zegt ze. ‘Wij van de ethiek willen vanaf de vroegste fase in de ontwikkeling aanschuiven, naast de technici en de medici moet zo’n ontwikkelteam ook bestaan uit ethici.’

‘Een arts kan niet afgaan op de blauwe ogen van Microsoft, Google of de programmeur’

6. Beroepsethiek

Wie worden eigenlijk de spelers van AI in de zorg? Van farmaceuten weten we ongeveer wat we kunnen verwachten, zegt Schermer. ‘Maar we kennen de nieuwe deelnemers die nu de zorg betreden nog niet. Het commerciële aspect kan ook een bias geven. Een slimme fabrikant zou een apparaat kunnen maken dat adviseert de pillen van dat bedrijf te slikken. Of denk aan een scanner die aanstuurt op vervolgonderzoek met andere apparatuur van hetzelfde bedrijf.’ The New England Journal of Medicine signaleerde afgelopen jaar in een Stanford-artikel dezelfde ‘ethische spanning’ in het Amerikaanse gezondheidszorgsysteem tussen de doelen de zorg verbeteren en winst maken. De grootste uitdaging overigens die de Stanford-auteurs zagen, zit hem in de verandering in de arts-patiëntrelatie die AI meebrengt. Want als de centrale relatie in de geneeskunde er niet langer meer een is tussen twee mensen, maar een tussen een patiënt en een digitaal systeem, dan ‘komt die vertrouwelijkheid onder spanning te staan en gaat de notie van persoonlijke verantwoordelijkheid verloren’, waarschuwen ze. Artsen kunnen er nu nog voor kiezen zaken uit het dossier weg te laten, bij wijze van ultieme geheimhouding. Maar met de komst van AI in de klinische praktijk, zal het achterhouden van informatie moeilijk worden, voorzien de auteurs, ook omdat patiënten van wie de gegevens niet worden vastgelegd, niet profiteren van deze analyses. De vertrouwelijke omgang met medische gegevens – ‘hoeksteen van de hippocratische beroepsethiek’ – vraagt om een nieuwe definitie als deze in de digitale black box verdwijnen.

7. Zorg op maat

Groot voordeel van het in de computer stoppen van patiëntgegevens, is dat er patronen in te vinden zijn die voor mensen anders verborgen zouden blijven. De vraag is wel in hoeverre er ruimte blijft voor de unieke patiënt. Zorg op maat en shared decision making lijken voorbehouden aan de individuele relatie tussen een arts en een patiënt. Ten opzichte van computers zijn mensen goed in het afstemmen met de patiënt en in het inschatten wat in de unieke situatie het meest passend is. Schermer: ‘Computers houden zich aan regels en richtlijnen, artsen weten wanneer ze zich daar juist níet aan moeten houden. Ze hebben een zekere mate van wijsheid. Of dat bij AI gegenereerd kan worden, dat vraag ik me af.’

meer informatie

  1. Het Centrum voor ethiek en gezondheid lanceerde afgelopen zomer de publicatie ‘Digitale dokters - Een ethische verkenning van medische expertsystemen’
  2. Implementing Machine Learning in Health Care — Addressing Ethical Challenges

  3. Member States and Commission to work together to boost artificial intelligence “made in Europe”

Meer uit de special

print dit artikel
ethiek
  • Eva Nyst

    Eva Nyst (1973) is journalist bij Medisch Contact en heeft als aandachtsgebieden veiligheid, recht, ethiek en preventie.  

Dit artikel delen
Op dit artikel reageren inloggen

Reacties

  • Er zijn nog geen reacties
 

Cookies op Medisch Contact

Medisch Contact vraagt u om cookies te accepteren voor optimale werking van de site, kwaliteitsverbetering door geanonimiseerde analyse van het gebruik van de site en het tonen van relevante advertenties, video’s en andere multimediale inhoud. Meer informatie vindt u in onze privacy- en cookieverklaring.