3 manieren om eerlijkheid van AI in de zorg te borgen

Kunstmatige Intelligentie (AI) is overal in opmars. Oók in de zorg. De voordelen kunnen heel groot zijn. Denk aan kanker (veel) eerder opsporen, en een (veel) betere behandeling bepalen. Maar ook bij AI dreigt (onbedoelde) discriminatie. Hoe zit dat? En hoe borgen we een eerlijke AI in de zorg?

Hoe werkt AI (in de zorg)?

AI kan veel sneller grotere hoeveelheden informatie verwerken dan mensen. Bijvoorbeeld: een AI kun je oneindig voeden met röntgenfoto’s, verslagen, behandelplannen en -resultaten, patiëntgegevens, etc.

Zo kan een AI snel heel goed worden in het herkennen van aandoeningen. En bepalen wat – op basis van heel veel data – de beste behandeling is voor een specifieke patiënt.

Hiervoor maakt een AI dus een complexe berekening, op basis van een enorme hoeveelheid aan gegevens.

Dit kan artsen veel werk uit handen nemen. En ontwikkelingen op gang brengen die hiervoor ondenkbaar waren.

Waarom zijn er zorgen over discriminatie door AI?

Hoe eerlijk en onbevooroordeeld een AI is, hangt af van de gegevens waarmee je die voedt. Want voed je een AI met eenzijdige gegevens? Dan ontstaat er ‘bias’: een oneerlijke uitkomst. En dat kan sommige patiëntgroepen schaden.

Bijvoorbeeld: een AI wordt gebruikt om huidkanker op te sporen. Maar de computer wordt grotendeels getraind met persoonsgegevens van witte personen. En/of grotendeels met gegevens van mannen.

In dat geval kunnen personen met een donkere huidskleur en/of vrouwen slechtere diagnoses en behandelingen krijgen.

Hiertegen is nog geen wetgeving. Zoals op de meeste technische terreinen, loopt die helaas achter bij de razendsnelle ontwikkelingen rondom AI.

AI en de Wet langdurige zorg

Ook bij de Wet langdurige zorg (Wlz) kan AI erg van pas komen. Bijvoorbeeld voor het CIZ, dat heel veel aanvragen verwerkt. Zou AI daarbij kunnen helpen? En zo ja, hoe kan dat op een manier die zorgt dat toegang tot geld voor gepaste zorg eerlijk gaat?

Hierover schreef Guido Huisintveld, informatiemanager bij het CIZ, een masterthesis. Hij zocht specifiek naar antwoorden op bovenstaande vragen. Oftewel: een ethisch kader, aangezien dat mist vanuit de wet- en regelgeving. Zijn conclusie was 3-voudig:

3 manieren tegen oneerlijkheid bij AI in de zorg

Huisintveld keek in zijn onderzoek vooral naar welke ondersteuning werknemers nodig hebben, om te zorgen dat AI onbevooroordeeldere en eerlijkere uitkomsten biedt. Uiteindelijk kwam hij tot 3 manieren om dit te bereiken:

  1. Medewerkers willen een duidelijke visie op het gebruik van AI. Met concrete kaders en richtlijnen hiervoor.
  2. Medewerkers willen ondersteuning door externe expertise, wanneer blijkt dat AI doorontwikkeld of geïmplementeerd moet worden.
  3. Medewerkers willen (beter) weten hoe een AI werkt, resultaten (beter) kunnen begrijpen en uitkomsten (beter) gebruiken.

Op die manier zijn medewerkers óók beter in staat om te beoordelen of een uitkomst eerlijk is.

Auteur: redactie Zuster Jansen