Zweedse onderzoekers ontmaskeren AI met verzonnen ziekte ‘bixonimania’

Een team van Zweedse medische onderzoekers heeft met opzet een niet-bestaande ziekte gecreëerd om te testen hoe kunstmatige intelligentie omgaat met medische desinformatie. De fictieve aandoening, ‘bixonimania’, werd overtuigend verspreid door populaire chatbots als ware het legitieme gezondheidsadvies.

Een onderzoeksteam onder leiding van Almira Osmanovic Thunström van de Universiteit van Göteborg heeft met succes aangetoond dat kunstmatige intelligentie gevoelig blijft voor het verspreiden van medische desinformatie. Zij bedachten de niet-bestaande aandoening ‘bixonimania’ en publiceerden hierover twee nepstudies, waarna populaire AI-chatbots het fenomeen als legitieme diagnose aan gebruikers presenteerden.

De nepziekte werd in beginsel als een huid- en oogkwaal omschreven, met symptomen als jeukende ogen en enigszins verkleurde oogleden – klachten die veel mensen herkennen na langdurig computergebruik. Wanneer gebruikers in de afgelopen anderhalf jaar hun symptomen invoerden bij diverse bekende chatbots, kregen zij als diagnose ‘bixonimania’, hoewel deze aandoening in werkelijkheid niet bestaat en uitsluitend opdook in door de onderzoekers gemanipuleerde nepwetenschap.

Met het experiment wilde Osmanovic Thunström onderzoeken hoe betrouwbaar grote taalmodellen zijn in het verwerken van medische informatie. “Ik wilde testen of ik een aandoening kon verzinnen die nog niet in de database voorkwam,” aldus de onderzoeker. De resultaten laten volgens haar zien dat AI-modellen niet altijd in staat zijn misinformatie van wetenschappelijk gefundeerde data te onderscheiden.

De onderzoeksresultaten wekken vragen op over de rol en verantwoordelijkheid van kunstmatige-intelligentiemodellen in de gezondheidszorg. Het blijkt dat dergelijke systemen, ondanks hun reputatie en brede inzet voor medisch advies, vatbaar zijn voor misleiding wanneer zij worden gevoed met opzettelijk vals materiaal.

Daarmee dringt zich volgens de onderzoekers de noodzaak op voor striktere toetsingskaders en validatie van bronnen binnen AI-systemen, zeker waar het informatie over de volksgezondheid betreft. Het experiment toont aan dat zelfs doorgedreven technologische innovatie niet gevrijwaard is van fouten en risico’s rondom desinformatie.

Topics

Iran sluit opnieuw Straat van Hormuz, spanningen rond oliehandel en vrede

Iran heeft de strategisch belangrijke Straat van Hormuz opnieuw...

Nieuw AI-model Mythos van Anthropic roept zorgen op bij ministers en banken

Mythos, het nieuwste AI-model van Anthropic, heeft wereldwijd onrust...

Handelsspanningen VS-Canada lopen op: miljardenverlies door vastgelopen deal

Een handelsconflict tussen de Verenigde Staten en Canada kost...

Olieprijs daalt fors na openstelling Straat van Hormuz door VS en Iran

De olieprijs is scherp gedaald nadat zowel de Verenigde...

AG: Bewindvoerder heeft slechts beperkt recht op verhuisvergoeding

De advocaat-generaal bij de Hoge Raad adviseert dat een...

Overheid dwingt digitale weerbaarheid af met verplichte opleiding voor medewerkers

Medewerkers van de Rijksoverheid moeten jaarlijks een basisopleiding digitale...

Prinses van Oranje onderzoekt sociale en bestuurlijke kwesties tijdens bezoek Amsterdam

De Prinses van Oranje bracht op uitnodiging van burgemeester...

Ministerraad draagt vier nieuwe staatsraden voor bij Raad van State

De ministerraad heeft besloten vier nieuwe staatsraden te benoemen...

Related Articles

Popular Categories