
Een nieuwe ronde cybersecuritytests door AI-beveiligingsbedrijf SPLX laat zien dat OpenAI’s nieuwste AI-chatbotmodel, ChatGPT-5, opvallend lage beveiligingsfuncties heeft en in bijna elke test slechter presteert dan zijn voorganger, GPT-4o.
De uitgebreide Red Team-tests gaven ChatGPT-5 slechts 11 van de 100 punten op het gebied van algemene veiligheid. Volgens SPLX maakt dit het model vrijwel ongeschikt voor zakelijk gebruik zonder extra beveiligingslagen. Zelfs met OpenAI’s “basisveiligheidslagen” bleven er grote problemen bestaan, zoals:
- Ernstig misbruik
- Blokkeren van schadelijke output
- Bescherming van gevoelige informatie
Belangrijkste bevindingen uit het rapport:
- Onbeschermde GPT-5 faalde vrijwel alle veiligheids- en beveiligingstests, ook bij schadelijke inhoud en promptmanipulatie.
- OpenAI’s eigen veiligheidslaag verbeterde de scores, maar liet nog steeds zwakke plekken zien in “business alignment” (bijvoorbeeld weigeren van taken die ingaan tegen bedrijfsregels of concurrenten promoten).
- Alleen met een geavanceerde “hardened prompt” van SPLX stegen de scores genoeg voor zakelijk gebruik.
- GPT-4o presteerde consequent beter dan GPT-5 in alle categorieën onder gelijke testomstandigheden.
Daarnaast bleek GPT-5 eenvoudig te misleiden met simpele verbergtechnieken, zoals het verstopt invoegen van kwaadaardige prompts via afbrekingen.