...

Jean-Emmanuel Bibault is hoogleraar radiotherapie-oncologie aan de universiteit van Paris Cité en als arts verbonden aan het Hôpital européen Georges-Pompidou. Hij was ook actief in Stanford en in Silicon Valley. Bij Inserm verricht hij onderzoek rond toepassingen van kunstmatige intelligentie in de geneeskunde. Blijkt artificiële intelligentie vooral nuttig in de voorspellende geneeskunde? Kunstmatige intelligentie in de geneeskunde kan in feite twee soorten functies vervullen. Ten eerste kan ze uitvoeren wat ook mensen doen, typische taken van perceptie in de radiologie of bij biopsie-analyse. Maar daarnaast kan AI meer voorspellende functies vervullen, waartoe artsen niet in staat zijn. Bijvoorbeeld enkele jaren op voorhand ontdekken of een patiënt een ziekte zal ontwikkelen, of dat deze al aan een ziekte lijdt en of hij zal genezen, afhankelijk van de behandelingen die mogelijk zijn. In uw boek bespreekt u een studie die u uitvoerde, waarin u een verband legt tussen systemen van geolocatie en omgevingsfactoren bij kankeronderzoek. Afhankelijk van waar u woont is het risico om kanker te krijgen verschillend en er zijn vele factoren die dit kunnen verklaren. De eerste factor is het milieu: de nabijheid van een industriegebied, vervuiling, snelwegen, of net het tegenovergestelde: bossen, parken, faciliteiten voor lichaamsbeweging. Maar er speelt ook een tweede factor: uw woonplaats is een zeer sterke afspiegeling van uw sociaaleconomische status. Door deze elementen worden uw gedrag en toegang tot de gezondheidszorg beïnvloed en gewijzigd. Daarom is het voorspellen van het kankerrisico met behulp van satellietbeelden nuttig, omdat het rekening houdt met deze twee brede categorieën van determinanten voor kanker. We moeten het zeker ook hebben over een thema dat u in het begin van het boek aanhaalt: de interpreteerbaarheid die in de geneeskunde essentieel is... Het is noodzakelijk om het algoritme te kunnen vertrouwen, vooral op medisch gebied, omdat het bepalend gaat zijn voor de beslissingen die worden genomen. We willen begrijpen waarom een algoritme deze of gene voorspelling doet en onze menselijke, medische intuïtie kunnen confronteren met deze interpreteerbaarheid, om zo te beoordelen of de factoren waarmee de algoritmen rekening hebben gehouden wel pertinent zijn. U vermeldt ook de chirurgische robot die een technische handeling verricht. Is AI dan meer geschikt voor uitvoeren dan remediëren? Artificiële intelligentie kan ook ingeschakeld worden om therapeutische strategieën te bepalen, bij de besluitvorming en personalisering van de zorg. Neem nu dat AI voorspelt dat een patiënt kan genezen door een bepaalde behandeling aan te bevelen, dan zal men de therapie daaraan aanpassen. Maar de voorspelling kan ook luiden dat de patiënt wel zal genezen, maar door de zeer zware behandeling een groot risico loopt op ernstige bijwerkingen: in dat geval kan men de aanpak personaliseren en een lichtere behandeling voorstellen, zodat de bijwerkingen beperkt blijven. Het voorspellen van de effectiviteit en toxiciteit van een behandeling zijn belangrijke factoren bij het personaliseren van de zorg. Is het correct om te stellen dat AI vooral helpt om tijd te winnen in de wedloop tegen de dood? Ongetwijfeld besparen we op die manier tijd bij de diagnose bijvoorbeeld, maar ook op het gebied van de voorbereiding van de behandelingen. Radiotherapie is een typisch voorbeeld: de scanners moeten zich op een precieze manier op de tumor weten te richten, wat tijd kost voor een arts, soms meerdere uren. Kunstmatige intelligentie kan via deep learning zelf dingen aanleren, waardoor een algoritme deze complexe taak in slechts enkele minuten kan klaren. Er is ook het ethische aspect, zoals bij de psychiatrie waar AI eveneens ondersteuning kan bieden. Maar op dit gebied moeten we uiterst voorzichtig zijn, zo schrijft u ... We weten dat algoritmes gebruikt kunnen worden om bijvoorbeeld het risico op zelfmoord te voorspellen. En dat werkt heel goed, door bijvoorbeeld gebruik te maken van Facebookposts of foto's op Instagram. Op basis van de foto's die online worden gepost, kan kunstmatige intelligentie een risico op depressie of zelfmoord bepalen. Maar er duiken ook problemen van privacy op. Zo heeft Facebook een algoritme voor monitoring ingebouwd dat een waarschuwing kan uitzenden. Als iemand donkere gedachten uit, zorgt dit algoritme ervoor dat er een alert naar hotlines wordt verstuurd. De vraag is of we deze manier van massasurveillance moeten toelaten ten koste van onze privacy, onder het voorwendsel dat het risico op zelfmoord daardoor afneemt.