AI in de zorgsector: aandachtspunten voor zorginstellingen en zorgverleners

Recent had ik de eer om tijdens de BeSTRO (Belgian Society for Radiotherapy & Oncology) autumn meeting een uiteenzetting te geven over de juridische implicaties van het gebruik van artificiële intelligentie in de gezondheidszorg, met een bijzondere focus op de radiotherapie.

Artificiële intelligentie wordt ook in de zorgsector dagelijks gebruikt voor de meest uiteenlopende taken, zoals het stellen van diagnoses en het plannen van behandelingen. Hoewel deze AI-systemen de kwaliteit en efficiëntie van de zorg aanzienlijk kunnen verbeteren, brengt de implementatie ervan ook heel wat juridische uitdadingen met zich mee.

Om de juridische valkuilen te kunnen vermijden, moet je ze uiteraard eerst (her)kennen. In deze blogpost licht ik de belangrijkste juridische aandachtspunten en risico’s toe bij het gebruik van artificiële intelligentie in de gezondheidszorg, en dit in het bijzonder vanuit het perspectief van zorginstellingen en zorgverleners.

Juridische uitdagingen

De regelgeving rond het gebruik van AI in de gezondheidszorg is op vandaag verspreid over zowel nationale en Europese wetgeving. Dit gefragmenteerde juridische landschap maakt het vaak lastig om het bos door de bomen te blijven zien en zorgt ervoor dat de verschillende wetten en verordeningen niet altijd volledig op elkaar afgestemd zijn. Bovendien kan de wetgever de razendsnelle technologische ontwikkelingen niet altijd bijbenen. Hierdoor ontstaan er regelmatig situaties waarin er nog geen duidelijk juridisch kader bestaat om op terug te vallen.  

Het implementeren van deze wetgeving in de dagdagelijkse praktijk is daarom niet steeds vanzelfsprekend. Zeker in de zorgsector, die al zwaar onder druk staat en rekening moet houden met een veelheid aan regelgeving en gedragscodes, kan dit als een serieuze uitdaging worden ervaren.

In wat volgt geef ik een overzicht van de belangrijkste regelgevingen en de voornaamste aandachtspunten waarmee zorginstellingen en zorgverleners rekening moeten houden bij het gebruik van AI.

  • Verordening voor Medische Hulpmiddelen

Een eerste belangrijk juridisch aandachtspunt situeert zich in de fase voorafgaand aan het gebruik van een AI-systeem. De Europese Verordening voor Medische Hulpmiddelen (MDR) stelt namelijk strikte eisen aan de kwaliteit en veiligheid van medische hulpmiddelen. Het doel hiervan is om de gezondheid en veiligheid van patiënten en andere betrokkenen te waarborgen voordat deze toepassingen op de markt worden gebracht.

De definitie van een “medisch hulpmiddel” in de verordening is breed, waardoor de meeste AI-systemen die in de zorgsector worden gebruikt onder het toepassingsgebied vallen.  

Om te weten aan welke verplichtingen een AI-systeem precies moet voldoen, is het belangrijk te bepalen in welke risicoklasse het systeem valt. Hoe hoger het risico voor de gebruiker of de patiënt, hoe strenger de vereisten om de toepassing op de markt te kunnen brengen. Hierna illustreer ik de verschillende risicoklassen aan de hand van een aantal voorbeelden van AI-systemen in de radiologie:

  • Klasse I (laag risico): bv. AI software voor leeftijdsbepaling a.d.h.v. een scan van de hand
  • Klasse IIa (laag-gemiddeld risico): bv. AI software voor fractuurdetectie op een scan
  • Klasse IIb (gemiddeld-hoog risico): bv. AI software om prostaatkanker te analyseren op een MRI scan
  • Klasse III (hoog risico): bv. software die beslissingen neemt over patiënten met een beroerte

Hoewel de verplichtingen onder deze verordening primair gericht zijn op de producenten van AI-systemen, is het ook voor gebruikers van deze systemen belangrijk om waakzaam te zijn. Zorginstellingen en zorgverleners moeten er namelijk op letten dat zij enkel AI-systemen gebruiken die voldoen aan alle wettelijke vereisten. Een medisch hulpmiddel dat voldoet aan de vereisten van de verordening is te herkennen aan een “CE-markering”.

  • Algemene Verordening Gegevensbescherming (AVG – GDPR)

Een tweede belangrijke verordening is de Algemene Verordening Gegevensbescherming (AVG), beter bekend als de “GDPR”. De GDPR bevat tal van regels ter bescherming van persoonsgegevens en wordt alsmaar belangrijker in het huidig digitaal tijdperk waarin gegevens dagelijks door verschillende toepassingen en instanties worden verwerkt. Dit is uiteraard ook het geval in de zorgsector, waar uiterst gevoelige patiëntengegevens verwerkt worden. Een datalek in deze context kan leiden tot ernstige privacyinbreuken en aanzienlijke reputatieschade voor de betrokken zorginstelling. De toepassing van de GDPR is dan ook al langere tijd wijdverspreid binnen de zorgsector.

De GDPR bevat heel wat bepalingen ter bescherming van persoonsgegevens. Zo is het noodzakelijk dat er steeds een rechtmatige basis is voor de verwerking van gegevens, en biedt de verordening uitgebreide rechten aan de betrokkenen wiens gegevens worden verwerkt. Gegevens over de gezondheid van patiënten worden bovendien beschouwd als “bijzondere persoonsgegevens” en zijn daarom onderworpen aan extra verplichtingen.

Hoewel de GDPR geen specifieke regels bevat voor AI-systemen, moeten de bepalingen ervan ook bij het gebruik van AI in de zorgsector uiteraard steeds onverkort worden toegepast.

  • AI Verordening

Vervolgens is er nog de recent aangenomen Europese AI Verordening, beter gekend als de “AI Act”. De belangrijkste bepalingen en verplichtingen van deze nieuwe regelgeving werden door collega Jolien helder uiteengezet in haar blogartikel van 27 september (een must-read).

De AI Act trad in werking op 1 september 2024, maar kent een gefaseerde inwerkingtreding. De meeste bepalingen zijn pas van toepassing vanaf augustus 2026. Net als de Verordening voor Medische Hulpmiddelen, hanteert de AI Act een “risk-based approach”: hoe groter het risico verbonden aan een AI-systeem, hoe strenger de regelgeving. De meeste AI-systemen in de zorgsector vallen onder de categorie “hoog risico”.

AI-systemen met een hoog risico zijn niet verboden, maar moeten naast de transparantie- en informatieverplichtingen (die ook gelden voor AI toepassingen met een laag risico) voldoen aan strikte aanvullende eisen. Daarnaast zijn ze ook onderworpen aan een grondige controle voor ze effectief worden ingezet.

Wil je meer weten over de AI Act? Lees dan zeker het blogartikel van Jolien.

  • Aansprakelijkheid

Wie is aansprakelijk wanneer het gebruik van AI leidt tot schade, bijvoorbeeld aan een patiënt?” Het is een vraag die veel gebruikers van AI in de zorgsector bezighoudt. Het antwoord op deze vraag is echter vaak complex en sterk afhankelijk van de specifieke omstandigheden van het geval. Bovendien zijn er vaak heel wat actoren betrokken in het proces dat uiteindelijk tot de schade heeft geleid. In de context van een medische behandeling met behulp van AI gaat het onder meer om de ontwikkelaar van het AI-systeem, de fabrikant, het ziekenhuis waar de behandeling plaatsvond, de betrokken artsen, andere zorgverleners etc. Al deze actoren kunnen potentieel verantwoordelijk zijn als iets fout loopt. Het bepalen van deze aansprakelijkheden is zelden een zwart-witkwestie.

Hoewel er binnen de EU twee concrete voorstellen zijn om de aansprakelijkheidsregels voor het gebruik van AI te harmoniseren, zitten de meeste bepalingen momenteel nog vervat in nationale wetgeving.

Een gedetailleerd overzicht van de verschillende aansprakelijkheidsregels bij het gebruik van AI in de zorgsector gaat het bestek van dit artikel te buiten. Als je hierover verdere vragen hebt, kan je uiteraard wel steeds bij ons terecht.

  • Verzekering en risicobeheersing

De vraag naar aansprakelijkheid voor schade veroorzaakt bij het gebruik van AI-systemen, doet meteen ook de vraag rijzen naar de verzekerbaarheid hiervan. Binnen de EU gaan er stemmen op om – naar analogie met de verplichte autoverzekering – een verplichte aansprakelijkheidsverzekering in te voeren voor het gebruik van robots en AI. Hoewel de concrete uitwerking daarvan nog niet voor morgen zal zijn, is het noodzakelijk zijn om bestaande verzekeringen, zoals beroepsaansprakelijkheidsverzekeringen, gradueel aan te passen aan deze technologische evoluties. Het nakijken van je lopende polissen kan alvast een eerste belangrijke stap zijn.

Conclusie

Net als in andere sectoren is het ook in de gezondheidszorg een uitdaging om bij het gebruik van AI een balans te vinden tussen het stimuleren van innovatie enerzijds en het waarborgen van de bescherming tegen potentiële risico’s anderzijds.

In de tussentijd kunnen volgende tips alvast helpen om AI-systemen in de zorgsector op een verantwoorde manier te gebruiken:

  • Ontwikkel een heldere en praktisch toepasbare AI-strategie met concrete doelstellingen, systemen voor risicobeheersing etc.
  • Zorg voor voldoende training van zorgverleners die gebruik maken van AI, zodat men niet alleen weet wat de mogelijkheden zijn, maar ook wat de beperkingen en de risico’s zijn;
  • Zorg voor een permanent controlemechanisme om de kwaliteit en de bescherming van de data die in de AI-systemen wordt ingevoerd te waarborgen;

Heb je vragen over de juridische implicaties van het gebruik van AI in jouw zorginstelling of als zorgverlener? Wij helpen je met veel plezier verder.  

Facebook
LinkedIn
Picture of Marlies De Brabandere

Marlies De Brabandere

Marlies De Brabandere is een recht-door-zee-advocaat, met een passie voor het insolventie- en het bredere vennootschapsrecht. Ze neemt geen blad voor de mond als het aankomt op het verdedigen van haar cliënten. Haar diepgaande kennis en vastberadenheid maken haar een onmisbare kracht voor al uw juridische kwesties. Of het nu gaat om adviseren, onderhandelen of procederen, Marlies staat haar mannetje en staat altijd klaar om haar cliënten met toewijding te vertegenwoordigen.