Laatste nieuws
Henk Maassen
Henk Maassen
10 minuten leestijd
technologie

De computer als dokter

2 reacties
Getty Images
Getty Images

Kunstmatige intelligentie lijkt ineens overal op te duiken. Wat is het eigenlijk, wat kun je ermee in de geneeskunde, en wat niet? De mogelijkheden en valkuilen in vier vragen.

Je hoort voortdurend over AI, algoritmen, neurale netwerken en machine learning. Wat zijn de verschillen en overeenkomsten tussen al die termen?

Kunstmatige intelligentie – of AI (artificial intelligence) – is de overkoepelende term voor een variëteit aan technieken waarmee intelligentie wordt gesimuleerd op computers. Grosso modo zijn er twee soorten: regelgebaseerde en zelflerende technieken.

In het eerste geval spreek je meestal van een expertsysteem. Meteen maar twee voorbeelden: NHGDoc, dat de huisarts op basis van de NHG-Standaarden ondersteunt bij het geven van advies aan de patiënt, en Oncoguide, dat via beslisbomen patiëntspecifieke behandeladviezen genereert op basis van (ziekte-)gegevens van de patiënt uit het elektronisch patiëntendossier en Nederlandse oncologische richtlijnen. In beide en gelijksoortige gevallen volgt het systeem een algoritme van het type ‘als dit het geval is, doe dan dit of kies dan dat’. Het is – zou je kunnen zeggen – een geprogrammeerde redeneermechanisme die wordt gebruikt om conclusies te trekken in een specifiek klinisch geval. Een voorwaarde voor het ontwikkelen van dit soort systemen is uiteraard dat er consensus bestaat over bepaalde kennis en medische principes, zodat die in regels vastgelegd kunnen worden.

Het gaat om een systeem dat ‘leert’ op basis van patronen in data

Een veel geavanceerdere vorm van AI is machine learning: hier is niets voorgeprogrammeerd. Hier gaat het om een systeem dat ‘leert’ op basis van patronen in de data waarmee het wordt gevoed. Op basis daarvan stelt de computer een set van regels of instructies op, die hij vervolgens kan toepassen op nieuwe situaties: een algoritme. De meeste toepassingen in de zorg vallen onder deze vorm van AI Er zijn twee hoofdvarianten.

Ten eerste: supervised learning, de computer wordt ‘getraind’ met data en feedback, bijvoorbeeld met beelden van huidafwijkingen. Deze data krijgen een label van de desbetreffende huidafwijking. Indien deze gelabelde beelden maar vaak genoeg worden aangeboden aan de computer, leert hij dit type huidafwijking herkennen op beelden die nog niet eerder aan de computer zijn aangeboden. Specifiek voor deze manier van leren is dat het juiste antwoord reeds bekend is; de arts heeft de data gelabeld en de computer kan zijn voorspelde uitkomst controleren met de gelabelde uitkomst. Hierdoor leert de computer en stelt zijn eigen regels bij.

Ten tweede: unsupervised learning, nu zijn de data niet vooraf gelabeld, geclassificeerd of gecategoriseerd. Deze manier van machine learning wordt in de praktijk gebruikt om grote hoeveelheden data te groeperen of om in de data nieuwe patronen te herkennen, die mensen niet eerder hebben herkend. In feite simuleert dit ook tot op zekere hoogte hoe mensen zelf leren. We hebben immers geleerd om het begrip ‘stoel’ tot een paar essentiële eigenschappen te abstraheren om zo aan de hand daarvan een nieuw object als ‘stoel’ te herkennen.

Een speciale vorm van (un-)supervised learning is deep learning: de AI-techniek waarvan het meest wordt verwacht. Ook hier is er niets voorgeprogrammeerd. De werking is eigenlijk afgekeken van de manier waarop onze hersenen fuctioneren en berust op in de computer gesimuleerde neurale netwerken. Die bestaan uit lagen van virtuele cellen (qua functioneren enigszins vergelijkbaar met hersencellen). Binnen het neurale netwerk wordt informatie via verbindingen van een bepaalde laag naar andere lagen doorgegeven, zoals dat ongeveer ook in ons brein gebeurt. Elke verbinding heeft een instelbaar ‘gewicht’, wat betekent dat een signaal op volle sterkte of zwakker wordt doorgegeven en of het signaal activerend of juist afremmend uitwerkt. Het neurale netwerk leert een taak, bijvoorbeeld tumoren opsporen op scans, door al die gewichten optimaal in te stellen op basis van een zeer groot aantal aangeboden beelden, met telkens feedback hoe goed het een tumor heeft opgespoord.

Getty Images
Getty Images

Hoe komt het dat AI juist nu zo’n stormachtige ontwikkeling lijkt door te maken?

De term artificiële intelligentie duikt voor het eerst op in de jaren vijftig. Het eerste, rudimentaire neurale netwerk dateert zelfs al van 1951 (voor de liefhebber: ontworpen door Marvin Minsky, toen nog student, later een van de grondleggers van AI). Er ging lange tijd een grote belofte van uit, maar pas de laatste decennia kon die belofte worden ingelost. Volgens Pim Haselager, psycholoog, filosoof en AI-deskundige aan het Donders Instituut van de Radboud Universiteit, dankzij een paar ontwikkelingen die tezamen de hoge vlucht van AI hebben bevorderd.

‘De game-industrie droeg bij aan AI’

Ten eerste was er de invloed van de computergamesindustrie die om steeds meer rekenkracht vroeg, en dus om geavanceerder hardware. De komst van graphical processing units (GPU’s) maakte de aansturing van de grote hoeveelheid beeldpixels mogelijk, die noodzakelijk was voor levensechte games. Haselager: ‘Die GPU’s zijn rekenmonsters. Begin deze eeuw konden neurale netwerken gaan draaien op die GPU’s, waardoor opeens de kracht van die benadering zichtbaar werd. Ze werden praktisch bruikbaar.’ Een andere, zeer belangrijke ontwikkeling was de komst van het internet: ‘Zo kwamen er grote verzamelingen data beschikbaar die nodig zijn om neurale netwerken te voeden.’

Wat kan de zorg nu al met AI en wat (nog) niet?

Mensen, en dus ook dokters, zijn traag en worden moe. Computers niet: die zijn snel en gaan altijd maar door. Mensen kunnen weliswaar patronen ontdekken in een brei van ongestructureerde data, maar machine learning kan met enorm veel grotere databestanden omgaan en daar patronen in vinden. In beide aspecten zit voorlopig de winst van AI-toepassingen in de kliniek. Zo kan een AI-systeem gigantische hoeveelheden röntgenfoto’s, MRI’s of CT-scans ‘bekijken’ om tumoren te leren onderscheiden, en in theorie daardoor trefzekerder worden dan radiologen. Precies dankzij de beschikbaarheid van de ingrediënten die we eerder noemden: enorme databases die online beschikbaar zijn, snelle grafische chips in computers, en neurale netwerken. Willekeurig voorbeeld: Nature publiceerde twee jaar geleden een onderzoek waarin een AI-systeem 757 verschillende huidziekten volledig automatisch op basis van visuele informatie diagnosticeerde en in dat opzicht veel beter presteerde dan de 21 dermatologen die aan het onderzoek deelnamen.

AI kan ook helpen bij het ontwerpen van medicijnen. Voorbeeld: recent onderzoek laat zien dat de laatste vijftig jaar meer dan 450 geneesmiddelen zijn teruggetrokken van de markt vanwege ernstige, niet voorziene bijwerkingen, vooral door levertoxiciteit. Het metabolisme van de lever is notoir complex, en data over die complexiteit in samenhang zien met data over de toxiciteit van bepaalde moleculen is een kolfje naar de hand van machine learning, mits er maar voldoende gegevens beschikbaar zijn. En die zijn er volgens Amerikaanse onderzoekers. Elders in dit nummer nog veel meer voorbeelden van wat AI vermag.

‘De robot als gezelschap is een genante vertoning’

Maar AI kent ook – althans nu – grenzen. Zo zijn contextgevoeligheid en ‘uitzonderingen op de regel’ grote uitdagingen, weet Pim Haselager. ‘De AI-successen halen de krant, terwijl de gebieden met stilstand eigenlijk veel interessanter zijn. Mensen kennen zoiets als common sense. Dat is heel moeilijk om in AI-systemen te simuleren. Hetzelfde geldt voor sociale intelligentie, gevoel, beleving – het voortdurende besef van ‘er zijn’, dat is ook iets wat die systemen missen. Ik bedoel: een schaakcomputer weet niet wat winnen of verliezen is. Terwijl dat voor ons juist een reden is om te spelen. Dat betekent dat je op sommige plekken AI heel goed kunt inzetten en op andere juist helemaal niet. Daar is verwarring over, ook in de zorg. De robot als gezelschap bijvoorbeeld vind ik een nogal gênante vertoning. Die robot beschikt over een soort standaardrepertoire, maar heeft totaal geen sociale capaciteiten. En die komen er voorlopig ook niet. Je kunt wel proberen hem alle mogelijke sociale interacties te laten berekenen, maar die nemen al gauw exponentieel toe. Hoe snel computers ook zijn, dat lukt ze niet. De bottleneck is dus van psychologische aard: hoe komt het dat mensen allerlei zaken kunnen negeren tot het moment dat ze relevant worden? Hoe doen we dat en hoe implementeren we dat in een AI-systeem? We weten het domweg niet.’

Max Welling, hoogleraar machine learning (UvA) formuleert het in zijn Over leven met kunstmatige intelligentie nog wat algemener: de belangrijkste tekortkoming van AI is dat ze nog niet genoeg van de wereld begrijpt om in geheel nieuwe situaties toch de juiste beslissing te nemen. ‘Je kunt een mens één enkel voorbeeld van een nieuw object laten zien dat hij nog nooit eerder heeft gezien en hij herkent een volgend exemplaar van dit nieuwe object daarna feilloos.’ Mensen plaatsen zo’n nieuw voorwerp in een ‘oceaan van achtergrondkennis over de wereld zodat we het onmiddellijk een plek kunnen geven’. AI kan dat (nog?) niet.

Getty Images
Getty Images

Met welke valkuilen moet je bij het toepassen van AI rekening houden?

Ten eerste: vertekening. De meeste zelflerende AI-systemen zijn namelijk getraind met een door de ontwikkelaar geselecteerde verzameling data. Alleen al de selectie van die data zorgt onvermijdelijk voor een vertekening van de resultaten (de beruchte selectiebias). Als het systeem een uitspraak moet doen op basis van andere data (bijvoorbeeld van patiënten met net iets andere kenmerken), dan zullen de prestaties minder goed of in ieder geval anders zijn, in termen van prognose, diagnostiek of behandeling. Verder is het goed te beseffen dat er voor tal van klinische syndromen – denk bijvoorbeeld aan hartfalen of delier – in de internationale literatuur geen consensus bestaat over de criteria waaraan ze moeten voldoen en dus ook niet over het soort data, labels of feedback waarmee je het AI-systeem voedt.

Tweede punt van zorg: correlatie is geen causatie. Als je met machine learning verbanden vindt tussen bepaalde patiëntkarakteristieken en behandeluitkomsten betreft het altijd correlaties. Die zijn daarom niet direct te vertalen naar de kliniek, hooguit zijn ze stof voor hypothesevorming en dus voor nader onderzoek naar mogelijk causale mechanismen.

Dat raakt aan punt drie: als artsen twijfels hebben over de toepassing van AI in de klinische praktijk, komt dat, zeggen ze, omdat ze de algoritmes niet doorgronden. Pim Haselager snapt die onrust wel:

‘Wat er tussen input en output gebeurt in een neuraal netwerk, ook al hebben we het zelf in elkaar gezet, dat is lang niet altijd duidelijk. Wat daar binnenin gebeurt, is een vaag soort kennisrepresentatie. Het verschilt eigenlijk niet heel erg van hoe onze hersenen functioneren. Je krijgt een stimulus binnen op je retina, niet meer dan een tweedimensionaal plaatje, dat gaat naar de visuele cortex, waar de informatie nog redelijk herkenbaar blijft, maar daarna wordt de gerepresenteerde informatie steeds abstracter, vager en moeilijker traceerbaar, tot het richting motorische cortex langzaam weer “in beeld komt”. Maar je mag aan de transparantie van systemen die we zelf maken natuurlijk andere eisen stellen dan aan ons geëvolueerde brein, dus daar moeten we wel aan werken.’

Max Welling vindt die ‘blackbox’ niet per se een beperking van zelflerende systemen. Als je een AI-systeem bijvoorbeeld wilt leren om met hulp van MRI-beelden de ziekte van Alzheimer op te sporen, kun je op één kenmerk testen, zoals de grootte van de hippocampus, maar ook op andere, subtielere patronen. Dat maakt, volgens hem, de diagnose sterker, maar inderdaad ook ondoorzichtiger en moeilijker te herleiden. Maar dat is bij menselijke beslissingen in wezen niet anders. Een dokter weet vaak ook niet precies waar hij in eerste instantie een diagnose op heeft gebaseerd. Op intuïtie soms, of op vage signalen als het lichtelijk kromlopen van een patiënt.

Toch is het een probleem als je verantwoording moet afleggen over je klinische besluiten, stelt Haselager. ‘Daarom is een flink deel van het vakgebied nu doende met explainable AI (XAI): hoe kun je een basaal antwoord krijgen op de vraag waarom het algoritme met een bepaalde suggestie komt? Als burger zou ik bijvoorbeeld willen weten of het mijn huidskleur was waarom ik een hypotheek al dan niet gekregen heb. Je kunt dan bijvoorbeeld de input van het systeem variëren, om te zien wat voor gevolgen dat heeft. Maar een expert heeft andere vragen waar weer andere mechanismen een antwoord op moeten geven. XAI vormt dus een complex vakgebied, want het is een AI-probleem dat vaak vraagt om een AI-oplossing.’

‘De overheid moet algoritmes voor ons doorlichten en controleren’

Dat maakt toezicht – de vierde kwestie – niet gemakkelijk. Maar het is wel noodzakelijk, vindt de Britse wiskundige en AI-deskundige Hannah Fry, auteur van Algoritmes aan de macht. Er moet volgens haar een toezichthouder komen die niet alleen het intellectuele eigendom van algoritmes beschermt, maar die er ook op toeziet dat de (maatschappelijke) voordelen van het gebruik ervan opwegen tegen de nadelen – naar het voorbeeld van de toelating van nieuwe geneesmiddelen. ‘Je moet de chemische samenstelling van de verkochte middelen bestuderen en controleren of ze werkelijk doen wat ze beloven. Precies hetzelfde geldt voor algoritmes. Je kunt van de gemiddelde burger niet verwachten dat die zich in Bayesiaanse kansberekening of datamodellering verdiept, of genoeg van computers weet om de achterliggende code op te zoeken en te analyseren of die netjes te werk gaat. Dat is niet reëel. Net zoals je niet kunt verwachten dat datawetenschappers zelf een gedragscode opstellen en zich daar dan ook allemaal aan houden. Dat moet echt van de overheid komen. De overheid moet die algoritmes voor ons doorlichten en controleren of ze doen wat ze beloven, en wel op zo’n manier dat het niet schadelijk is voor mensen.’

Geen sinecure, aldus een groep verontruste onderzoekers in Science begin van dit jaar, want anders dan geneesmiddelen of medische hulpmiddelen zijn algoritmes naar hun aard geen statische producten. Naarmate ze aan meer data worden blootgesteld verandert immers de kwaliteit van hun prestatie. Daarom zou een organisatie als de FDA ‘rigoureuze audits’ moeten uitvoeren na toelating – een soort ‘postmarketing surveillance’, zoals dat ook bij medicijnen gebruikelijk is. 

https://mxi.nl/kennis/361/veel-experimenteren-met-artificial-intelligence-in-de-zorg

www.nictiz.nl/rapporten/artificial-intelligence-in-de-zorg/

https://jamanetwork.com/journals/jama/fullarticle/2718456

https://sites.jamanetwork.com/machine-learning/

http://nautil.us/issue/66/clockwork/we-need-an-fda-for-algorithms

https://science.sciencemag.org/content/363/6429/810

https://www.nejm.org/doi/full/10.1056/NEJMra1814259

Max Welling, Overleven met Kunstmatige Intelligentie, Cornellisen Communicatie, 2018

lees ook Download dit artikel (pdf)

technologie
  • Henk Maassen

    Henk Maassen is sinds 1999 journalist bij Medisch Contact, met speciale belangstelling voor psychiatrie en neurowetenschappen, sociale geneeskunde en economie van de gezondheidszorg. Hij stelt wekelijks de Media & Cultuur-pagina’s samen.  

Op dit artikel reageren inloggen
Reacties
  • Pieter Kubben

    neurochirurg, Maastricht

    Om deze reden hebben wij begin dit jaar, met support van het NFU Citrienfonds eHealth, het open access ebook "Fundamentals of Clinical Data Science" gepubliceerd. Het boek is gericht op zorgverleners en legt de materie omtrent big data en machine lea...rning uit zonder gebruik te maken van wiskunde of programmeercode.

    Het boek is gratis te downloaden via http://www.clinicaldatasciencebook.com

  • W.J.Duits

    Bedrijfsarts, Houten

    Het is een hele uitdagende materie, we kunnen er ons voordeel mee doen. We zullen ons moeten aanwennen steeds kritisch te blijven nadenken. Net als bij wetenschappelijke publikaties, het is nooit de waarheid. Het betreft altijd een invalshoek, het bl...ijft belangrijk om na te blijven denken. Niets voor zoete koek aannemen.

 

Cookies op Medisch Contact

Medisch Contact vraagt u om cookies te accepteren voor optimale werking van de site, kwaliteitsverbetering door geanonimiseerde analyse van het gebruik van de site en het tonen van relevante advertenties, video’s en andere multimediale inhoud. Meer informatie vindt u in onze privacy- en cookieverklaring.