
Een door de Chinese staat gesteunde hackersgroep heeft een van de eerste grootschalige cyberspionagecampagnes uitgevoerd die grotendeels wordt aangedreven door kunstmatige intelligentie. Dat meldt Cybernews op basis van een blogpost van Anthropic, het bedrijf achter het Claude AI-model.
Volgens Anthropic werd hun Claude Code-tool gemanipuleerd en ingezet om kritieke infrastructuur en overheidsorganisaties in meerdere sectoren binnen te dringen. De verdachte activiteit werd halverwege september 2025 ontdekt en bleek onderdeel van een gecoördineerde spionageactie gelinkt aan China.
De hackers richtten zich op zo’n 30 organisaties, waaronder overheidsinstanties, financiële instellingen, chemische bedrijven en grote techbedrijven. De meeste aanvallen mislukten, maar in een aantal gevallen kregen de aanvallers wél toegang tot systemen.
De hackers creëerden een autonoom AI-framework dat kwetsbaarheden kon opsporen, exploitcode kon schrijven en inloggegevens kon stelen – vrijwel zonder menselijke tussenkomst. Ze deden dit door Claude Code te jailbreaken, oftewel: de AI zo manipuleren dat deze technische taken uitvoert zonder te begrijpen dat het om kwaadaardige activiteiten gaat.
De campagne was grotendeels geautomatiseerd: AI voerde tot wel 90% van het werk uit. De menselijke hackers hoefden slechts enkele belangrijke beslissingen te nemen. Eenmaal binnen gebruikten ze Claude om gestolen gegevens te documenteren en rapporten te genereren over de gecompromitteerde systemen – vermoedelijk ter voorbereiding op toekomstige aanvallen.
Het jailbreaken van AI-agents is inmiddels een populaire methode onder hackers om AI in te zetten bij cyberaanvallen. Zelfs commerciële AI-modellen kunnen worden misleid om mee te werken aan kwaadaardige activiteiten.
Volgens Google zullen tegen 2026 álle cyberaanvallen worden uitgevoerd met behulp van kunstmatige intelligentie.









