
OpenAI heeft een opvallende publieke waarschuwing afgegeven: de aankomende AI-modellen zouden aanzienlijke nieuwe cybersecurityrisico’s kunnen opleveren doordat hun capaciteiten in snel tempo toenemen, meldt Reuters.
In een nieuwe blogpost stelt het bedrijf dat toekomstige modellen krachtig genoeg zouden kunnen worden om werkende zero-day-exploits te ontwikkelen of te helpen bij geavanceerde inbraakoperaties, wat echte cyberaanvallen op goed beveiligde systemen mogelijk zou kunnen maken.
Hoewel dergelijke capaciteiten nog niet zijn waargenomen, benadrukt OpenAI dat de snelle vooruitgang van AI betekent dat deze risico’s niet langer genegeerd kunnen worden.
Om opkomende dreigingen tegen te gaan, investeert het bedrijf zwaar in tools die verdedigers helpen om code te controleren, zwakke plekken te detecteren en kwetsbaarheden efficiënter te verhelpen. Ook worden de interne beveiligingen aangescherpt via strengere toegangscontroles, verbeterde infrastructuur, monitoring van uitgaand verkeer en andere containmentmaatregelen.
OpenAI is van plan een programma te lanceren met gelaagde toegang tot verbeterde cyberbeveiligingsfuncties voor gescreende gebruikers die in cyberdefensie werken. Ook wordt er een zogeheten Frontier Risk Council opgericht – een adviesgroep van ervaren beveiligingsexperts die direct zullen samenwerken met OpenAI-teams. De raad zal zich in eerste instantie richten op cybersecurity, maar zich later uitbreiden naar andere risicovolle AI-domeinen.
Nu AI-modellen steeds geavanceerder worden, maken hackers er ook vaker gebruik van. Volgens de dreigingsteams van Google zullen in 2026 de meeste cyberaanvallen worden uitgevoerd met behulp van AI. Tegelijkertijd blijkt uit onderzoek dat de meeste AI-chatbots eenvoudig te misbruiken zijn door cybercriminelen – een trend die waarschijnlijk alleen maar zal toenemen naarmate nieuwe, krachtigere en risicovollere AI-modellen verschijnen.









