Een team van Zweedse medische onderzoekers heeft met opzet een niet-bestaande ziekte gecreëerd om te testen hoe kunstmatige intelligentie omgaat met medische desinformatie. De fictieve aandoening, ‘bixonimania’, werd overtuigend verspreid door populaire chatbots als ware het legitieme gezondheidsadvies.
Een onderzoeksteam onder leiding van Almira Osmanovic Thunström van de Universiteit van Göteborg heeft met succes aangetoond dat kunstmatige intelligentie gevoelig blijft voor het verspreiden van medische desinformatie. Zij bedachten de niet-bestaande aandoening ‘bixonimania’ en publiceerden hierover twee nepstudies, waarna populaire AI-chatbots het fenomeen als legitieme diagnose aan gebruikers presenteerden.
De nepziekte werd in beginsel als een huid- en oogkwaal omschreven, met symptomen als jeukende ogen en enigszins verkleurde oogleden – klachten die veel mensen herkennen na langdurig computergebruik. Wanneer gebruikers in de afgelopen anderhalf jaar hun symptomen invoerden bij diverse bekende chatbots, kregen zij als diagnose ‘bixonimania’, hoewel deze aandoening in werkelijkheid niet bestaat en uitsluitend opdook in door de onderzoekers gemanipuleerde nepwetenschap.
Met het experiment wilde Osmanovic Thunström onderzoeken hoe betrouwbaar grote taalmodellen zijn in het verwerken van medische informatie. “Ik wilde testen of ik een aandoening kon verzinnen die nog niet in de database voorkwam,” aldus de onderzoeker. De resultaten laten volgens haar zien dat AI-modellen niet altijd in staat zijn misinformatie van wetenschappelijk gefundeerde data te onderscheiden.
De onderzoeksresultaten wekken vragen op over de rol en verantwoordelijkheid van kunstmatige-intelligentiemodellen in de gezondheidszorg. Het blijkt dat dergelijke systemen, ondanks hun reputatie en brede inzet voor medisch advies, vatbaar zijn voor misleiding wanneer zij worden gevoed met opzettelijk vals materiaal.
Daarmee dringt zich volgens de onderzoekers de noodzaak op voor striktere toetsingskaders en validatie van bronnen binnen AI-systemen, zeker waar het informatie over de volksgezondheid betreft. Het experiment toont aan dat zelfs doorgedreven technologische innovatie niet gevrijwaard is van fouten en risico’s rondom desinformatie.




