Blog

De helft van je team heeft het al uitgeprobeerd
Drie weken geleden zou je hebben gezegd dat niemand in jouw team AI gebruikt voor klantwerk. Tot je vorige donderdag een collega per ongeluk hoort vertellen dat hij Claude prima vindt voor het opstellen van offertebrieven. Eén opmerking. Daar zit het.
Shadow AI is een term die je niet zelf bedacht hebt en die nu dagelijks rondzweeft. Het beschrijft het patroon waarin medewerkers AI-tools gebruiken om hun werk sneller te doen, buiten beleid en zonder dat directie of IT erbij betrokken zijn. Bij een marketingbureau is het vooral irritant. Bij een zakelijke dienstverlener met klantdata is het iets anders.
Wat de cijfers laten zien
Uit het AI & Digital Marketing Trends 2026-rapport van Beeckestijn Business School blijkt dat ongeveer de helft van de Nederlandse werknemers AI op het werk gebruikt zonder dit altijd te melden, en dat ongeveer de helft van de Nederlandse organisaties geen formeel AI-beleid heeft. Het rapport spreekt van een sterke stijging van AI-gebruik door medewerkers binnen organisaties, van 48 procent in 2024 naar 62 procent in 2025. Belangrijke nuance, dit onderzoek gaat over Nederlandse werknemers in brede zin, niet specifiek over zakelijke dienstverlening. Het patroon herken je waarschijnlijk wel.
De rode draad in het rapport, AI-gebruik groeit sneller dan beleid en sneller dan controle. Twee bewegingen die elkaar niet inhalen.
Waarom het bij jou anders weegt
In een online retailbedrijf zit een ChatGPT-prompt met productomschrijvingen op een schaal van 1 tot 10 op een 4. In een hypotheekkantoor zit dezelfde prompt met klantdossier op een 9. Niet omdat ChatGPT slechter is geworden, maar omdat de data die jij dagelijks verwerkt fundamenteel gevoeliger is.
Denk concreet. Een verzekeringsadviseur die een claimomschrijving vereenvoudigt voor een interne notitie. Een makelaar die een taxatierapport laat samenvatten. Een accountant die een grootboekoverzicht door een AI laat structureren. Een beveiligingsbedrijf dat een incidentrapport vlotter wil schrijven. In al die voorbeelden gaat persoonsgegeven of bedrijfsgevoelige data via een prompt naar een tool waar jij geen verwerkersovereenkomst mee hebt.
Dat is geen AI-experiment. Dat is een datalek dat formeel meldingsplicht heeft.
Waarom een verbod averechts werkt
De natuurlijke reactie van een DGA die dit voor het eerst hoort, is een mailtje naar het team waarin staat dat AI vanaf nu niet meer op klantdata gebruikt mag worden. Dat lost het probleem niet op. Het verplaatst het.
Je team gebruikt AI omdat het werk sneller gaat. Dat is geen ongehoorzaamheid, dat is gezond verstand. Een verbod betekent niet dat je medewerkers stoppen, het betekent dat ze het zorgvuldiger verbergen. Je verliest het zicht, niet het gebruik. En je verliest tegelijkertijd de productiviteit waar je net zo blij mee was.
De drie dingen die wel werken
Eerst, inventariseren. Welke AI-tools draaien er nu bij jou, officieel en onofficieel. Niet als ondervraging, gewoon als nulmeting. Mensen vertellen het meestal eerlijk als ze niet bestraft worden voor hun antwoord. Dat lijstje is zelden het lijstje dat je verwachtte.
Tweede, een korte richtlijn op papier. Geen 40-pagina policy, gewoon twee A4'tjes die zeggen waar AI wel mag (concept-teksten, samenvattingen van openbare bronnen, intern brainstormwerk) en waar nooit (klantdossiers, financiële data, persoonsgegevens, schadeclaims). Iedereen leest dat. Niemand leest een AI-policy van 40 pagina's.
Derde, een officiële laag waar AI in jouw context werkt. Niet als verbod op de publieke tools, maar als beter alternatief. AI die op jouw klantdata mag werken omdat de juiste verwerkersovereenkomst en datatransport ingericht zijn. Geintegreerd met je systemen. Met logging, rolverdeling en regels per type data. Dan stopt het sluipend gebruik vanzelf, want de officiële route is sneller dan de onofficiële.
Wat een AIOS hier doet
Die officiële laag is wat we een AIOS noemen, een AI Operating System dat over je bestaande systemen heen ligt. Het werkt met je CRM, je dossiermap, je boekhouding, je communicatie-stack. Het zorgt dat AI werkt op data waarvan jij weet waar die staat, met de regels die jij gesteld hebt. Een medewerker hoeft niet meer naar ChatGPT om sneller een dossier samen te vatten, want de officiële omgeving doet dat al, in jouw context, op jouw data.
Dat klinkt groot. Het begint klein. Eén proces, één use case, één koppeling. Vandaaruit groeit het uit naar de volgende.
Eerlijk verwachtingspatroon
Dit los je niet op met een tool van de plank. Een AI-policy alleen verandert het gedrag niet. Een AIOS bouw je niet in een week. De volgorde is, weten wat er draait, regels op papier, eerste use case officiële route geven, daarna uitbreiden. Geen revolutie, wel structuur. Met die structuur wordt AI die werkt in je vak een feitelijke beschrijving in plaats van een belofte.
De eerste stap
In de AI-audit inventariseren we per afdeling welke tools onofficieel draaien, welke risico's daaraan vastzitten en welke drie use cases het meeste tijd besparen als je ze officieel maakt. Veertien dagen vanaf de interviewdag, vaste prijs, een rapport met heldere prioriteiten en een vervolgvoorstel.
Na de audit weet je waar het schip lekt en waar de wind staat. Twee dingen die je nu nog niet allebei hebt.


