...

Gezondheidssystemen verzamelen al jaren data, maar zelden genoeg om er met AI inzichten uit te halen, vertelt Hadas Bitran, hoofd R&D Health AI bij de 'Health & Life Science'-afdeling van Microsoft. Ook moet een AI-systeem voor de zorgsector aan een pak meer voorwaarden voldoen dan een doorsnee ChatGPT-dialoog. Die uitspraak horen we meermaals bij Microsoft en de sprekers die het bedrijf uitnodigde op een event over het belang van AI in de Europese gezondheidszorg."Je zit met een hoop veiligheidsnormen die je moet inbouwen. Dat gaat over compliance, algemene veiligheid, misbruik,... Je wil dat het gesprek met zo'n tool over gezondheid gaat, dat je het kan auditeren en dat het in elk land goedgekeurd wordt", aldus Bitran - die opmerkt dat Microsoft die goedkeuring al in 52 regio's op zak heeft. Milvue, een Franse start-up, ondersteunt sinds 2018 radiologen door rapportering deels te automatiseren: het systeem maakt een ruwe versie die de radioloog vervolgens nakijkt en indien nodig aanvult of corrigeert. Dat levert een productiviteitswinst van 30 tot 40 procent op, zegt COO Peggy Séjourné. "Op termijn willen we dat voor de hele workflow van radiologen doen."We moeten daar meteen ook bij nuanceren dat zo'n rapport in zekere zin een gestandaardiseerde checklist is. Wat controle vlotter maakt dan bijvoorbeeld een vrije tekst die je op inhoudelijke fouten moet controleren. Ook gaat het momenteel vooral over conventionele radiografie en CT-scans. Voor spoedeisende scans is het systeem nog minder geschikt. Bij de huisarts gaat het dan vooral over het dicteren van nota's waardoor de ogen van de dokter minder op het scherm en meer op de patiënt gericht kunnen blijven. Daarover deed Microsoft recent een onderzoek in een handvol West-Europese landen, inclusief bij duizend Belgen. Voor ons land leerde het bedrijf dat 29 procent van de patiënten al bij een arts is geweest die tijdens de consultatie te veel op het scherm keek. 37 procent van hen vond dat frustrerend. Omgekeerd zegt 38 procent dat hun arts al eens opmerkingen dicteerde tijdens de consultatie, waarbij 58 procent van de patiënten aangaf dat hen dat de mogelijkheid gaf om actiever in gesprek te gaan met de arts. Verder denkt 36 procent van de bevraagde patiënten dat het een goed idee is om AI te gebruiken. 42 procent van die groep ziet AI als een kans voor de arts om meer tijd vrij te maken. Ook hier is enige nuance op haar plaats: het onderzoek werd uitgevoerd namens Microsoft-dochter Nuance, dat spraak- en dicteertechnologie verkoopt. Ook werden er geen resultaten gedeeld over de negatieve meningen of ervaringen rond AI of spraaktechnologie. In het ziekenhuis zelf kan AI verschillende richtingen uit; en ook voor het eigen personeel kan een chatbot van pas komen. "We testen momenteel een soort Copilot voor dokters en verplegers waarin al onze protocollen zitten", vertelt Manuel Bosch Arcos, chief transformation officer van de Spaanse ziekenhuisgroep Ribera Salud. Copilot is de AI-assistent die Microsoft momenteel ontwikkelt en test in verschillende sectoren. "Dat gaat onder meer over hoe je medicatie toedient, over regels die van toepassing zijn in Spanje, of specifiek hoe we het in ons ziekenhuis doen. Daarvoor hoeft een arts niet telkens een hoop PDF's door te nemen op zoek naar het antwoord of de juiste procedure: men kan het gewoon vragen aan Copilot die al die info heeft en een duidelijk antwoord geeft." De Noorse dr. Ishita Barua, experte in medische AI en medeoprichter en chief medical officer van Livv Health, waarschuwt dan weer voor de valkuilen van AI, met name gender bias. Het vrouwen- en mannenlichaam verschilt, maar medisch onderzoek steunt vaak op onderzoek dat overwegend op mannelijke testpersonen is uitgevoerd. "Zeker voor 1999 was dat vaak het geval, waardoor artsen bij een probleem van een vrouw dat sneller als emotioneel probleem in plaats van medische aandoening klasseerden." Maar als we die bias uit de systemen krijgen, wordt AI een bondgenoot die precisiezorg of unieke behandelingen toelaat, zegt Barua. Tegelijk blijft AI in een medische omgeving gevoelige materie. Voorzichtigheid en voldoende controles blijven cruciaal, dat benadrukt ook Microsoft zelf. "Je moet AI op een verantwoorde manier uitrollen. Je kan niet zomaar ChatGPT bij een patiënt of arts zetten en klaar. Er moeten veiligheidsnormen zijn en je moet ernstig omgaan met de data die je gebruikt. Tegelijk moet je kritisch blijven voor de kwaliteit van het antwoord", zegt Hadas Bitran daarover. "AI is geen vervanger voor de expertise, ervaring en aansprakelijkheid van een arts. En zowel het oordeel van een mens als dat van AI, of dat nu generatief is of niet, moet op een verantwoorde en respectvolle manier worden toegepast. Daarom dat we hier zoveel moeite in steken."Een andere eigenschap van de AI-tools van Microsoft is dat ze retrieval augmented generation of RAG hanteren. Daarbij wordt een model niet op voorhand getraind met historische patiëntendata, maar geef je het de meest recente informatie, aangevuld met de meest recente richtlijnen. "Zo train je het model op het moment dat je de input nodig hebt, en zo zorg je er ook voor dat het antwoord gebaseerd is op actuele patiëntendata en de meest actuele medische informatie of richtlijnen die het ziekenhuis hanteert", aldus Bitran. Ze sluit daarbij niet uit dat ziekenhuizen die sterk inzetten op AI en databetrouwbaarheid, een 'AI officer' zullen aanstellen. Zo'n persoon of systeem kan er voor zorgen dat artsen met de meest up-to-date informatie werken. Tegelijkertijd ligt verwerking van persoonsgegevens door een Amerikaanse multinational ook gevoelig in het GDPR-tijdperk. Maar ook daar is Bitran nuchter over: "Voor RAG moet data niet extern geüpload worden. Dat kan in de lokale toepassing, op het moment zelf. Ook Azure (het cloud-systeem van Microsoft, n.v.d.r.) houdt niets onnodig bij. In dit soort omgevingen verdwijnt alles na 48 uur. We hebben onze diensten getraind in verschillende talen, daarvoor hebben we samengewerkt met verschillende spelers in de gezondheidssector om te trainen op gedeïdentificeerde data. We nemen datagrenzen en soevereiniteit zeer ernstig. Rollen we iets uit in Europa, dan blijven die data in Europa."