Lode Lauwaert
01/10/2023
Technologie en innovatie Ethiek en zingeving Zorgbeleid Algemene Ziekenhuizen Revalidatieziekenhuizen Woonzorg Geestelijke gezondheidszorg Eerste lijn

“Privacy is een pijnpunt”

Lode Lauwaert over ethische vragen rond AI in gezondheidzorg

“Privacy is een pijnpunt”

Artificiële intelligentie in de zorg werpt enkele ethische vragen op. Wat met privacy? Wie is verantwoordelijk als het misgaat? En hoe gaan we om met de toevloed aan AI-gegenereerde gezondheidskennis? Lode Lauwaert (KU Leuven): “Hoe sterk je AI moet controleren hangt af van de vraag waarvoor je het gebruikt.”

Als techniekfilosoof verdiept Lauwaert zich in artificiële intelligentie en ethische uitdagingen. Die uitdagingen stellen zich ook in de gezondheidszorg. “AI- innovaties ontwikkelen sneller dan de regelgeving. We missen veiligheidsgrendels”, aldus Lauwaert. “Nieuwe medische technologie doorloopt meestal een testfase”, legt hij uit. “Vóór ze op de markt komt, organiseert men een grondige kwaliteitscheck. Dat is logisch. Je wilt zeker zijn dat een medicijn of medisch apparaat goed werkt en veilig is. Bij artificiële intelligentie is die testfase er niet.”

Lauwaert: “Nu ontwikkelen bedrijven AI-toepassingen geschikt voor een medische context, waarna gezondheidsprofessionals of patiënten beslissen of ze ermee willen werken. Op die manier gaat belangrijke info verloren. We hebben nood aan een centraal platform waarop bedrijven aangeven welk systeem ze ontwikkelen, wie er precies betrokken is bij de ontwikkeling en hoe ze met risico’s omgaan.”

Lode Lauwaert
Lode Lauwaert: “AI- innovaties ontwikkelen zich sneller dan de regelgeving. We missen veiligheidsgrendels”

Waarom is die testfase bij AI zo belangrijk? 
Lauwaert: “Bijvoorbeeld om persoonlijke gegevens van toekomstige gebruikers te beschermen. Amerikaans onderzoek onthulde hoe 211 Android apps gericht op diabetespatiënten allesbehalve privacy-proof waren. De software kon in 31% van de gevallen iemands identiteit en in 27% van de gevallen iemands locatie achterhalen. Bij 11% van de gebruikers controleerde de software zelfs de camera van zijn of haar gsm-toestel. Het probleem stelde zich alleen in de VS, maar illustreert wel de uitdaging. AI Machine Learning werkt met de data van duizenden, soms miljoenen mensen. Ontwikkelaars moeten duidelijk aangeven hoe ze die data beschermen en wie verantwoordelijk is als er toch lekken ontstaan. Een onafhankelijke derde partij zou kunnen inschatten of alles goed doordacht is en vervolgens een kwaliteitslabel toekennen.” 

Is de vraag naar verantwoordelijkheid ingewikkelder bij AI-systemen?
Lauwaert: “Ik denk het wel. Stel dat AI foutief inschat dat een bepaald vlekje geen huidkanker is, en de arts gaat daarop door omdat het systeem bijna nooit mist. Een deel van de verantwoordelijkheid ligt zeker bij de betrokken arts, of de groep artsen die besliste om het systeem zoveel macht te geven. Daarnaast moet je je afvragen of de ontwikkelaar het systeem juist programmeerde. Werden alle afspraken daar gevolgd? En omgekeerd: was de instructie van de eventuele opdrachtgever duidelijk genoeg? De vraag wie wat (niet) deed op welk moment, is belangrijk. Dat achterhalen is moeilijker dan het lijkt. Bij een auto-ongeval kan je zoeken naar materiële sporen zoals camerabeelden, remsporen enz. In een online omgeving met veel betrokken partijen is die sporenzoektocht moeilijker. Bovendien werkt AI vaak als een black box. Je weet niet hoe het systeem tot een bepaald resultaat kwam.”

Personeelstekort teistert de zorg. Schuilt daarin een gevaar dat we goedwerkende AI-systemen te veel ruimte geven? 
Lauwaert: “Absoluut. Een menselijke dubbelcheck blijft in veel gevallen cruciaal. Systemen werken vaak beter dan mensen, maar zijn niet feilloos. Bovendien kunnen medische fouten grote gevolgen hebben. Zeker bij screenings, diagnosestelling of tijdens operaties moet je AI nauwkeurig superviseren. Bij de inroostering van zorgpersoneel is die noodzaak kleiner. Hoe sterk je AI moet controleren hangt af van de vraag waarvoor je het precies gebruikt.”

AI brengt gezondheidsrisico’s steeds vroeger in kaart. Is dat altijd wenselijk? 
Lauwaert: “Vanuit een zorgstandpunt is meer kennis over (toekomstige) gezondheidsrisico’s een goede zaak. Je kan sneller ingrijpen en biedt de patiënt een betere prognose. Maar ik kan me ook voorstellen dat niet elke patiënt zijn gezondheidsrisico’s wil kennen. Naarmate AI-systemen accuratere voorspellingen maken in meer medische domeinen, rijst de vraag wat je met die info moet doen. Er bestaat zoiets als het recht om niet te weten. Daarover moet je goede afspraken maken. Wil de patiënt toegang tot alle info? Zo niet luidt de vervolgvraag of hij wel een behandeling wenst na een screening met negatieve gezondheidsuitkomst. Soms kan je een behandeling starten zonder dat de patiënt de details kent. Bij een heelkundige ingreep lukt dat niet, want dan moet hij toestemming geven.”

Lode Lauwaert

“Naarmate AI-systemen accuratere voorspellingen maken, rijst de vraag wat je met die info moet doen”

Lauwaert: “Vanaf welk punt leidt extra kennis niet langer tot gezondheidswinsten? Misschien kunnen we binnenkort elk mogelijk gezondheidsrisico inschatten, maar wat doet dat met ons mentaal welzijn? Elke screening of controle hangt samen met de mogelijkheid van een slecht resultaat, ook al gaat het ‘slechts’ om toekomstige gezondheidsrisico’s. Bovendien mogen mensen zich niet verplicht voelen om al die screenings te doen. We moeten goed de voordelen van AI duiden, voor zowel het individu als de samenleving. Anderzijds blijft het liberale principe van zelfbeschikking en keuzevrijheid heilig voor mij. Zelfs al dreigt de gezondheidszorg financieel te kapseizen.” 

Lees ook het interview met Isabelle François: “Artificiële intelligentie zal de gezondheidszorg fundamenteel veranderen”
 

TEKST: THOMAS DETOMBE
BEELD: JONATHAN RAMAEL

Reactie toevoegen

De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.