Lezersverhalen
J.E. Vos
2 minuten leestijd
Lezersverhalen

Ernstige kanttekening

2 reacties
Getty Images
Getty Images

Hoe moet je staan tegenover uitspraken betreffende diagnose of behandeling die uit een AI-systeem komen? Ik wil daar, op grond van jarenlange ervaring met beslissingsondersteunende systemen, een ernstige kanttekening bij plaatsen. Er was ooit een tijd dat een computerprogramma bestond uit if-then-else-opdrachten en go-to-opdrachten. Je kon de werking van zulke programma’s helemaal navlooien om vast te stellen hoe ze tot een antwoord kwamen.

Maar we gaan inmiddels steeds meer in de richting van het gebruik van big data en van het type programma, ofwel het algoritme, dat kunstmatige neurale netwerken heet. Zulke programma’s zijn namelijk de enige die de weg kunnen vinden in zeer grote gegevensverzamelingen.

Als we, zonder een computer, een beslissing nemen over een diagnose of een behandeling, willen we graag in staat zijn te beredeneren hoe we tot die beslissing zijn gekomen. Ook in juridische zin kan verantwoording achteraf noodzakelijk blijken te zijn.

Kunnen we nog nagaan hoe een beslissing tot stand is gekomen?

Hoe is dat mogelijk wanneer neurale netwerken worden gebruikt? Kunnen we dan nog nagaan hoe een beslissing tot stand is gekomen? De politiek, en als het goed is ook de medische wereld, vraagt om openbaarmaking van de algoritmen waarmee tot beslissingen wordt gekomen. En nu is juist het algoritme van de neurale netwerken daarvoor volledig ongeschikt. De reden daarvoor is de volgende: een allesbepalende eigenschap van kunstmatige neurale netwerken is dat hun uiteindelijk functioneren afhangt van (honderd)duizenden getalwaarden die langzamerhand zijn ontstaan tijdens het ‘leren aan de hand van voorbeelden’, het zogenaamde trainen van het netwerk. Die getalwaarden heten de gewichtsfactoren, ze zijn analoog aan wat in de hersenen de synaptische sterkten tussen neuronen zijn. Kunstmatige neurale netwerken zijn dan ook inderdaad ‘zelflerende programma’s’.

Essentieel voor mijn waarschuwing is dan ook dat niemand naderhand nog kan nagaan op welke wijze ieder van die (honderd)duizenden getalwaarden aan de keuze of beslissing heeft bijgedragen. Verantwoording achteraf is dus onmogelijk! Dit maakt dat het redeneren van de arts zelf onontbeerlijk zal blijven.

J.E. Vos, Amsterdam, was dertig jaar bio-informaticus bij de R.U.G.
Meer over kunstmatige intelligentie
Lezersverhalen
Op dit artikel reageren inloggen
Reacties
  • Joep Vullinghs

    Programmeur, Utrecht

    For the sake of argument toch een opmerking.

    Het lichaam is enigszins vergelijkbaar met een neuraal netwerk. De exacte oorzaak van een afwijkende labuitslag is bijvoorbeeld ook niet altijd 100% zeker. Te weinig zon? Verkeerd dieet? Pillen niet i...ngenomen? Er was een reden om de bepaling te laten verrichten, en nu is die labuitslag een prima aanwijzing om verder te zoeken.

    Als uit onderzoek blijkt dat als de computer X zegt, het ook vrijwel altijd X is dan is het, ondanks alle magie, niet per se onverantwoord om op basis daarvan beslissingen te nemen. De verantwoording begint dan met "Ik vermoedde X of Y en heb de computer laten meedenken. De computer dacht X en volgens de richtlijnen zette ik toen behandeling Z in".

    Waarmee mijn conclusie verder precies dezelfde is als de uwe.

  • Hidde Kleijer

    ANIOS, Groningen

    Het meest briljante idee dat ik recent hoorde als antwoord hierop: train een tweede algoritme om uit te leggen hoe het eerste algoritme tot zijn conclusies komt. Dat schijnt in principe mogelijk te moeten zijn.

 

Cookies op Medisch Contact

Medisch Contact vraagt u om cookies te accepteren voor optimale werking van de site, kwaliteitsverbetering door geanonimiseerde analyse van het gebruik van de site en het tonen van relevante advertenties, video’s en andere multimediale inhoud. Meer informatie vindt u in onze privacy- en cookieverklaring.