Laatste nieuws
Henk Maassen
Henk Maassen
1 minuut leestijd
Wetenschap

Hoe een algoritme onterecht raciaal verschil maakt

1 reactie

Toepassen van algoritmen in de gezondheidszorg moet je kritisch blijven volgen vanwege het – vaak subtiele – gevaar van bias. Mooi voorbeeld daarvan is onderzoek van Ziad Obermeyer e.a., gepubliceerd in Science.

Ze laten zien hoe een in de VS veelgebruikt algoritme aanzienlijke, maar onjuiste verschillen voorspelt in de gezondheidsrisico’s van Afro-Amerikaanse en blanke Amerikaanse patiënten. Het veel gebruikte hulpmiddel onderschat de gezondheidsbehoeften van de eerste groep. Het blijkt namelijk dat bij dezelfde risicoscore het algoritme bepaalt dat zwarte patiënten gezonder zijn dan blanken.

Ziad Obermeyer e.a. kregen toegang tot de onderliggende gegevens en functies van het algoritme en waren zo in staat om als het ware de innerlijke werking ervan te observeren – inclusief hoe de raciale verschillen ontstaan. Ze ontdekten dat het algoritme gezondheidskosten gebruikt als een benadering (‘een proxy’) voor de gezondheidsbehoeften van een bepaalde bevolkingsgroep. Die zorgkosten zijn, zo laten ze vervolgens zien, de oorzaak van de bias: de Afro-Amerikaanse bevolking maakt over het algemeen lagere kosten dan het blanke deel van de bevolking, omdat ze domweg minder toegang hebben tot de zorg. Volgens Obermeyer e.a. is deze bevinding daarom zo zorgwekkend, omdat het op het eerste gezicht volstrekt redelijk lijkt kosten als een proxy voor gezondheid c.q. ziekte te beschouwen. In een fel commentaar voegt Ruha Benjamin (universiteit van Princeton) daar nog aan toe dat de data die worden gebruikt om geautomatiseerde systemen, zoals het onderzochte algoritme, te trainen vaak historisch van aard zijn en, dus als het om gezondheidszorg gaat, allerlei gegevens bevatten die ontleend zijn aan ongewenste praktijken, zoals raciaal gescheiden ziekenhuisfaciliteiten en racistische medische curricula. Het algoritme wordt nu aangepast op basis van de uitkomsten van het onderzoek.

doi: 10.1126/science.aax2342

Medisch Contact 26 - Special: Kunstmatige intelligentie

Wetenschap
  • Henk Maassen

    Henk Maassen is sinds 1999 journalist bij Medisch Contact, met speciale belangstelling voor psychiatrie en neurowetenschappen, sociale geneeskunde en economie van de gezondheidszorg. Hij stelt wekelijks de Media & Cultuur-pagina’s samen.  

Op dit artikel reageren inloggen
Reacties
  • Rik Rösken

    Internist, Amsterdam

    16 oktober publiceerde het blad The Guardian een artikel over hoe een algoritme waarschijnlijk aanleiding is geweest tot de dood van in iedergeval een Indier. Dit ging niet om gezondheidszorg, maar om een geautomatiseerd systeem voor armoedebestrijdi...ng en uitkeringen. (Ed Pilkington: Digital dystopia: how algorithms punish the poor)

    Zover gaat het (nog) niet in Nederland, maar de plaats dat algoritmes lijkt te krijgen bij zorgverzekeraars en bedrijven welke benchmarks verrichten stemt tot zorgen. Immers zal bij een dispuut een dergelijk commercieel bedrijf wel welwillend zijn om inzage te geven of het algoritme klopt? Het lijkt zaak dat er wetgeving komt waarbij het gebruik van algoritmes bedrijven verplicht worden om hun keuze te kunnen onderbouwen, willen we niet in een dystopie verzanden waar redelijkheid ver te zoeken is.

 

Cookies op Medisch Contact

Medisch Contact vraagt u om cookies te accepteren voor optimale werking van de site, kwaliteitsverbetering door geanonimiseerde analyse van het gebruik van de site en het tonen van relevante advertenties, video’s en andere multimediale inhoud. Meer informatie vindt u in onze privacy- en cookieverklaring.