...

In een uitgebreid commentaarstuk in The Lancet staan de onderzoekers van het ITG, Oxford University, en Nagasaki University stil bij publicaties - rapporten, verslagen, persberichten, sensibiliseringscampagnes... - over gezondheid wereldwijd, en over hoe het gebruik van bepaalde beelden in deze publicaties ("zoals het zogenaamde slachtoffer en de witte redder in nood") bestaande stereotypes kan bestendigen. Volgens de onderzoekers kan generatieve AI (verder) aantonen hoe diep deze bestaande stereotypes en vooroordelen wel niet zijn ingebed in beelden over globale gezondheid. Immers, zo wijzen ze erop, AI gebruikt bestaande beelden als leerbasis... Het team nam de proef op de som en trachtte met behulp van de "AI kunst genererende" Midjourney Bot versie 5.1 (uitgebracht in mei 2023) stereotypes 'om te keren'. Zo gaven ze de bot aanwijzingen om beelden te genereren van zwarte Afrikaanse artsen of traditionele genezers die geneesmiddelen, vaccins of zorg toedienden aan zieke, blanke en lijdende kinderen (zie figuur 1). De bot slaagde erin een beeld te creëren van een groep lijdende blanke kinderen en een beeld van een groep zwarte Afrikaanse artsen. Maar als de onderzoekers beide aanwijzingen combineerden - zwarte Afrikaanse dokter verzorgt wit kind - waren de personen die zorg kregen in de meer dan 300 gegenereerde beelden "schokkend genoeg" altijd zwart. In sommige gevallen vertoonden de AI-beelden voor zwarte Afrikaanse dokters blanke mensen - net het stereotype dat de onderzoekers wensten om te keren (figuur 2). Dit was ook het geval voor beelden van traditionele Afrikaanse genezers, die vaak blanke mannen in exotische kledij toonden - iets wat volgens de onderzoekers ook de vraag doet rijzen naar genderbias in dergelijke AI-beelden van globale gezondheid. Uiteindelijk slaagde het team erin om één stereotiep beeld over globale gezondheid om te keren, door AI te vragen om een beeld te creëren van een traditionele Afrikaanse genezer die een blank kind geneest. "Het kind draagt echter kledij die als karikatuur kan geïnterpreteerd worden van Afrikaanse kledij en lichaamstooi (figuur 3, n.v.d.r). Vroegen we om beelden te produceren van dokters die kinderen hielpen in Afrika, dan genereerde AI beelden van dokters en patiënten met overdreven en cultureel aanstootgevende Afrikaanse elementen zoals wilde dieren (figuur 4, n.v.d.r.)." "Deze casestudy suggereert opnieuw dat beelden over globale gezondheid politieke kracht hebben, en dat racisme, seksisme en kolonialisme zich ook manifesteren in AI", besluiten de auteurs. Ze benadrukken dat AI leert door bestaande beelden te verzamelen die online beschikbaar zijn en die, in de context van globale gezondheid, historisch gezien als respectloos en beledigend worden beschouwd. Het gevaar bestaat er volgens hen in dat AI wordt gezien als een manier om "universele kennis te genereren en producten los van context en sociale betekenissen" - met andere woorden als een neutraal visueel genre. Een dergelijke visie leidt de aandacht weg van de context van het ontstaan van de oorspronkelijke beelden en het systeem waarin ze nu worden gereproduceerd. "Wat is onze verantwoordelijkheid in het versterken of uitdagen van visuele stereotypen?" Een vraag die de internationale gemeenschap rond mondiale gezondheid zich (dringend) moet stellen, zo besluiten de auteurs.