ChatGPT-5 toont schokkend lage beveiliging in tests

aug 11, 2025

Een nieuwe ronde cybersecuritytests door AI-beveiligingsbedrijf SPLX laat zien dat OpenAI’s nieuwste AI-chatbotmodel, ChatGPT-5, opvallend lage beveiligingsfuncties heeft en in bijna elke test slechter presteert dan zijn voorganger, GPT-4o.

De uitgebreide Red Team-tests gaven ChatGPT-5 slechts 11 van de 100 punten op het gebied van algemene veiligheid. Volgens SPLX maakt dit het model vrijwel ongeschikt voor zakelijk gebruik zonder extra beveiligingslagen. Zelfs met OpenAI’s “basisveiligheidslagen” bleven er grote problemen bestaan, zoals:

  • Ernstig misbruik
  • Blokkeren van schadelijke output
  • Bescherming van gevoelige informatie

Belangrijkste bevindingen uit het rapport:

  • Onbeschermde GPT-5 faalde vrijwel alle veiligheids- en beveiligingstests, ook bij schadelijke inhoud en promptmanipulatie.
  • OpenAI’s eigen veiligheidslaag verbeterde de scores, maar liet nog steeds zwakke plekken zien in “business alignment” (bijvoorbeeld weigeren van taken die ingaan tegen bedrijfsregels of concurrenten promoten).
  • Alleen met een geavanceerde “hardened prompt” van SPLX stegen de scores genoeg voor zakelijk gebruik.
  • GPT-4o presteerde consequent beter dan GPT-5 in alle categorieën onder gelijke testomstandigheden.

Daarnaast bleek GPT-5 eenvoudig te misleiden met simpele verbergtechnieken, zoals het verstopt invoegen van kwaadaardige prompts via afbrekingen.

Hoewel ChatGPT-5 wordt geprezen als een technologische sprong vooruit, met betere snelheid en redeneervermogen, krijgt het model kritiek van gebruikers en professionals omdat het minder geavanceerd is dan beloofd en aanzienlijke beveiligings- en privacyproblemen heeft.

Neem je online veiligheid terug

 

  • Onbreekbare encryptie
  • Echte online privacy
  • Wereldwijd servernetwerk
  • Onbeperkt apparaten
  • Grenzeloos streamen
  • 24/7 Nederlandse ondersteuning

Ook interessant