
Meta AI, de AI die ingebouwd is in en beschikbaar is in alle Meta‑producten, waaronder WhatsApp, Messenger, Instagram en andere apps, kan volgens onderzoekers worden misleid om gebruikers gevaarlijke instructies te geven, zoals stappen voor het maken van een molotovcocktail.
De ontdekking werd eerst gerapporteerd door Cybernews. De onderzoekers van dat bedrijf slaagden erin de beveiligingen van de AI‑assistent te omzeilen en hem kwaadwillende instructies te laten geven door de prompt simpelweg in een historisch proces te plaatsen.
De bevinding benadrukt een breder probleem dat bekendstaat als “jailbreaking“, waarbij prompts of meerstapsconversaties chatbots verleiden om toch antwoorden te geven die ze hadden moeten weigeren. Beveiligingsonderzoek toont aan dat verhalende en rollenspel‑methodes nog steeds enkele van de meest effectieve manieren zijn om modelbeveiligingen te omzeilen.
Het incident voegt zich bij een reeks recente gevallen waarbij klantgerichte chatbots onveilige of schadelijke adviezen gaven – en onderstreept de noodzaak van sterkere waarborgen nu bedrijven AI‑assistenten in dagelijkse diensten integreren.
Eerder kreeg Meta AI ook kritiek omdat het specifiek geprogrammeerd zou zijn om met kinderen te flirten en racistische uitspraken te verspreiden.