Onderzoek: AI-bots nog steeds gevaarlijke medische misinformatie verspreiden

jun 25, 2025

Uit een nieuwe studie blijkt dat alle populaire chatbots te manipuleren zijn om foutieve en gevaarlijke medische informatie te geven – op een overtuigende manier – terwijl ze eigenlijk schadelijke prompts zouden moeten herkennen en afwijzen.

AI heeft de afgelopen maanden een enorme ontwikkeling doorgemaakt – van integratie in bijna al onze apps tot het naar een hoger niveau tillen van phishingaanvallen. Of je het nu goed of slecht vindt, AI is overal. En gezien het huidige niveau van verfijning én het vertrouwen dat gebruikers erin stellen, zou je denken dat de tijd van AI die lijm op pizza of stenen eten aanraadt wel voorbij is. Toch blijkt uit een nieuwe studie van Flinders University in Adelaide, Australië, en het Annals of Internal Medicine dat populaire AI-bots nog steeds makkelijk te misleiden zijn tot het geven van onjuiste medische informatie – en dat op zeer overtuigende wijze.

De studie testte vijf populaire AI-modellen: GPT‑4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2‑90B Vision en Grok Beta. Elk kreeg een verborgen systeeminstructie om foutieve gezondheidsinformatie te geven. In principe zouden LLM’s zulke opdrachten moeten herkennen en blokkeren. Toch bleek uit de studie dat 88% van de reacties foutieve of misleidende medische informatie bevatte.

De meest gebruikte modellen – GPT‑4o, Gemini, Llama en Grok – faalden bij elke poging. Claude 3.5 Sonnet presteerde het best, maar gaf alsnog in 40% van de gevallen foutieve antwoorden.

En het bleef niet bij onjuiste beweringen. De chatbots verzonnen medische bronnen, citaten, gebruikten vakjargon, en presenteerden zelfs de meest obscure claims over vaccins, hiv en depressie met een overtuigende toon en logica.

Dit wijst erop dat de ingebouwde beveiligingen van AI-ontwikkelaars makkelijk te omzeilen zijn met aangepaste instructies. Daarnaast ontdekte het onderzoek drie AI-chatbots die blijkbaar specifiek ontworpen waren om foutieve medische antwoorden te geven.

Gezien de toenemende zorgen over de betrouwbaarheid van AI-informatie, en de opmars van AI-antwoorden bij gezondheidsvragen (zeker sinds de introductie van AI Overviews op Google), adviseert het onderzoek strengere instellingen rond gezondheidsgerelateerde content om te voorkomen dat AI gevaarlijke misinformatie blijft verspreiden.

Neem je online veiligheid terug

 

  • Onbreekbare encryptie
  • Echte online privacy
  • Wereldwijd servernetwerk
  • Onbeperkt apparaten
  • Grenzeloos streamen
  • 24/7 Nederlandse ondersteuning

Ook interessant