Op een dag zonder enige gebruikersinteractie kon een e-mail de geheime communicatie van een hele organisatie onthullen. Dat is precies wat Aim Labs ontdekte in begin 2025: een kwetsbaarheid in Microsoft 365 Copilot die het mogelijk maakt om gevoelige gegevens te stelen — gewoon door een e-mail te sturen. De kwetsbaarheid, bekend als CVE-2025-32711 of ‘EchoLeak’, heeft een CVSS-score van 9,3: bijna de hoogst mogelijke dreiging. En het ergste? Je hoeft de e-mail niet eens te openen.
‘Het is als een spion in je hoofd,’ zegt Gruss, onderzoeker bij Aim Labs. ‘Je denkt dat je met een assistent praat. Maar die assistent is al gekaapt.’
Op 12 juni 2025 kondigde Microsoft de definitieve patch aan — server-side, dus geen actie van gebruikers nodig. ‘We waarderen Aim Labs voor het verantwoord melden van dit probleem,’ zei een woordvoerder. ‘Geen klantactie vereist.’
Dit was de eerste bekende zero-click aanval op een AI-assistent. Tot nu toe waren dit soort aanvallen alleen bekend vanuit de mobiele wereld: een foto of een iMessage kon een iPhone hacken. Nu is het AI. En het is veel ingewikkelder.
‘De meeste organisaties zijn kwetsbaar,’ zegt Gruss. ‘Ze vertrouwen op Copilot als een hulpje, niet als een potentiële aanvalspunt.’
De impact? Denk aan een bank die via Copilot over een overname praat. Een ziekenhuis dat patiëntgegevens bespreekt. Een overheid die een nieuwe wet bespreekt. Alles wat je ooit aan Copilot hebt verteld — kan nu worden gestolen.
Microsoft reageert nu met een hele reeks maatregelen. Vanaf november 2025 is Microsoft Purview Data Loss Prevention in openbare preview voor Copilot. Het filtert prompts die gevoelige data bevatten. De volledige versie komt in het eerste kwartaal van 2026. Ook is ‘Baseline Security Mode’ gelanceerd: een standaardinstelling die oude, onveilige configuraties blokkeert.
En dan is er nog Microsoft Sentinel en Security Copilot. Die zijn nu geïntegreerd, met nieuwe functies als de ‘Model Context Protocol’-server, die helpt bij het detecteren van abnormaal gedrag in AI-systemen.
Deze aanval verandert de regels. Tot nu toe was beveiliging gericht op gebruikers: ‘Klik niet op links.’ Nu moet je beveiligen wat de AI denkt. Wat het hoort. Wat het onthoudt.
‘We zijn nog maar aan het begin,’ zegt Gruss. ‘De volgende aanval is al onderweg.’
Nee, geen actie is nodig. Microsoft heeft de patch server-side toegepast in juni 2025, dus je apparaat of account hoeft niet bijgewerkt te worden. Maar je moet wel je instellingen controleren: zorg dat Microsoft Purview DLP is ingeschakeld en dat ‘Baseline Security Mode’ actief is. Dit voorkomt toekomstige aanvallen die op vergelijkbare manieren werken.
Alle data waar Copilot toegang toe heeft: e-mailgesprekken in Outlook, bestanden in OneDrive en SharePoint, berichten in Teams, en zelfs notities uit eerdere gesprekken. Als je ooit vroeg: ‘Wat zei de juridische afdeling over dit contract?’, dan kan een aanvaller die informatie ophalen — zonder dat jij het merkt. De aanval exploitteerde Copilots geheugen, niet je scherm.
Nee. Het ‘LLM Scope Violation’-principe werkt op elk AI-systeem dat verbinding maakt met interne data — zoals Anthropic’s MCP, Salesforce’s Agentforce of zelfs open-source modellen. De kwetsbaarheid is niet in de code van Microsoft, maar in de manier waarop AI’s vertrouwen op context. Dat is een fundamenteel probleem in de hele AI-industrie.
Beide functies verhoogden het risico op gegevenslekken. GPT Builder liet gebruikers zelf AI’s bouwen — vaak zonder beveiliging. Recall slaat alles op wat je ziet — inclusief gevoelige documenten. Na de EchoLeak-vlek en de Huisvertegenwoordigers-ban in maart 2025, besloot Microsoft dat ‘standaard aan’ een te groot risico was. Nu zijn ze opt-in, dus je moet ze bewust inschakelen.
Als je Microsoft 365 Copilot gebruikte tussen januari en juni 2025 — en je geen extra beveiligingsmaatregelen had ingesteld — was je kwetsbaar. Er is geen bewijs dat de aanval daadwerkelijk is gebruikt, maar het was technisch mogelijk. De enige manier om zeker te zijn: controleer of Microsoft Purview DLP en Baseline Security Mode nu actief zijn. Als niet, dan is je systeem nog steeds blootgesteld aan soortgelijke aanvallen.
Het betekent dat AI niet langer als een neutraal hulpmiddel mag worden gezien. Het is een actieve deelnemer in je digitale leven — en daardoor ook een doelwit. Bedrijven moeten nu niet alleen beveiligen wat mensen doen, maar ook wat AI ‘denkt’ en ‘herinnert’. De toekomst van bedrijfsbeveiliging is niet meer alleen firewalls en wachtwoorden. Het is het beheer van AI-geheugens.