Meta AI vertelt gebruikers hoe ze een molotovcocktail maken

sep 29, 2025

Meta AI, de AI die ingebouwd is in en beschikbaar is in alle Meta‑producten, waaronder WhatsApp, Messenger, Instagram en andere apps, kan volgens onderzoekers worden misleid om gebruikers gevaarlijke instructies te geven, zoals stappen voor het maken van een molotovcocktail.

De ontdekking werd eerst gerapporteerd door Cybernews. De onderzoekers van dat bedrijf slaagden erin de beveiligingen van de AI‑assistent te omzeilen en hem kwaadwillende instructies te laten geven door de prompt simpelweg in een historisch proces te plaatsen.

Meta AI geeft het recept voor een molotovcocktail

De bevinding benadrukt een breder probleem dat bekendstaat als “jailbreaking“, waarbij prompts of meerstapsconversaties chatbots verleiden om toch antwoorden te geven die ze hadden moeten weigeren. Beveiligingsonderzoek toont aan dat verhalende en rollenspel‑methodes nog steeds enkele van de meest effectieve manieren zijn om modelbeveiligingen te omzeilen.

Het incident voegt zich bij een reeks recente gevallen waarbij klantgerichte chatbots onveilige of schadelijke adviezen gaven – en onderstreept de noodzaak van sterkere waarborgen nu bedrijven AI‑assistenten in dagelijkse diensten integreren.

Eerder kreeg Meta AI ook kritiek omdat het specifiek geprogrammeerd zou zijn om met kinderen te flirten en racistische uitspraken te verspreiden.

Neem je online veiligheid terug

 

  • Onbreekbare encryptie
  • Echte online privacy
  • Wereldwijd servernetwerk
  • Onbeperkt apparaten
  • Grenzeloos streamen
  • 24/7 Nederlandse ondersteuning

Ook interessant