De Ford T fase van AI: innovatie zonder vangrails

AI: van ongecontroleerde groei naar strategische controle

We leven in wat je de Ford T tijd van kunstmatige intelligentie kunt noemen. Niet de fase van de allereerste experimenten, maar het moment waarop een technologie massaal wordt omarmd. AI gebruik groeit explosief: mensen proberen enthousiast nieuwe toepassingen uit, terwijl anderen nog waarschuwend langs de zijlijn staan.

De vergelijking met de auto past opvallend goed. Paarden vinden instinctief hun weg terug naar de stal; een auto moet altijd actief worden bestuurd. En voordat de auto als veilig werd gezien, waren er decennia van aanpassingen nodig: veiligheidsgordels, verkeersregels, vangrails, rijbewijzen.
Op datzelfde punt staan we nu met AI. De eerste pioniers hebben het nieuwe voertuig al bestuurd, bochten worden afgesneden en er zijn nog nauwelijks gordels aanwezig.

Shadow AI groeit sneller dan organisaties kunnen controleren. Veel bedrijven ontdekken te laat dat data via AI-tools het bedrijf verlaat. Tijdens de BMW Driving Experience laten we zien hoe je:

• Shadow AI detecteert
• Governance implementeert
• AI veilig inzet in security en contact centers

Versnelde adoptie: AI voor iedereen

Binnen organisaties gaat de adoptie sneller dan ooit. Niet alleen innovators, maar juist gewone medewerkers pakken de kansen die AI biedt. En geef ze eens ongelijk:

  • Werk dat vroeger uren duurde, kan nu in natuurlijke taal aan een systeem worden uitgelegd dat je begrijpt.
  • Een e-mail nodig? Noem het onderwerp en AI schrijft het.
  • Een afbeelding nodig? Beschrijf wat je wilt en je hebt het binnen seconden.
    Maar dat gemak heeft een prijs.

Het risico: blootstelling van vertrouwelijke data

Elke vraag én elk antwoord worden gedeeld met een AI-systeem. En precies daar schuilt het gevaar:

  • vertrouwelijke informatie kan onbedoeld openbaar worden of deel worden van de kennispool van een publiek AI-model.
  • Onbeschermde gegevens kunnen zo in de openbaarheid terechtkomen.
  • Dit vraagt om beleid. Dit vraagt om vangrails.

Compliance: problemen ontstaan vaak onbewust

Een medewerker die snel een rapport laat herschrijven via een publieke AI tool denkt niet automatisch aan regelgeving. Toch kan dit leiden tot:

  • Overtredingen van de AVG,
  • Schending van interne richtlijnen,
  • Boetes of juridische risico’s.

Niet uit kwade intentie, maar uit productiviteitsdrang.

Security: nieuwe risico’s & nieuwe aanvalsvectoren

Daarbovenop ontstaan security risico’s:

  • AI-browserextensies die niet aan interne security-eisen voldoen,
  • Applicaties die ongemerkt data wegsluizen,
  • Nieuwe aanvalsvormen zoals prompt injecties.

Het beheersen van AI gebruik moet daarom worden geïntegreerd in de bestaande securityarchitectuur, niet als losse tool, maar als onderdeel van een geheel.

De reality check: AI wordt nu al gebruikt

Medewerkers gebruiken vandaag de dag al publieke AI tools zoals ChatGPT, Claude en Gemini. Vaak zonder formele goedkeuring of toezicht. Niet om regels te omzeilen, maar om hun werk beter en sneller te doen. Elke organisatie die AI wil beheersen, moet deze realiteit erkennen.

Controle begint met inzicht

Zonder zicht op datastromen en applicatiegebruik blijft elke maatregel reactief. Wie AI wil reguleren, moet eerst begrijpen:

  • Waar data naartoe gaat,
  • Welke tools worden ingezet,
  • Welke risico’s dat oplevert.

Transparantie is de basis. Controle begint bij meten.

AI in het contact center: innoveren zonder datalekken

In contact centers is de druk op innovatie hoog. AI biedt enorme kansen:

  • Realtime assistentie,
  • Intelligente routering,
  • Automatisering die efficiëntie én klanttevredenheid verhoogt.

Maar snelheid mag nooit ten koste gaan van controle. Shadow AI ontstaat hier wanneer medewerkers zelf tools inzetten voor transcripties of samenvattingen. Dit creëert ongecontroleerde datastromen van uiterst gevoelige klantinformatie. Veilig AI-gebruik betekent dat AI functionaliteit in Enterprise oplossingen moet worden ingebed. 

Oplossingen zoals die van Five9 laten zien dat innovatie en compliance wel degelijk samen kunnen gaan. Door AI geïntegreerd en beheerd te implementeren, blijft security geborgd en ontstaat schaalbare innovatie zonder governance risico’s.

Veelgestelde vragen

De “Ford T fase van AI” verwijst naar een periode waarin kunstmatige intelligentie massaal wordt gebruikt, maar nog weinig structurele regels en beveiligingen heeft. Net zoals de eerste auto’s snel populair werden voordat verkeersregels en veiligheidsgordels bestonden, experimenteren organisaties nu volop met AI. Het gebruik groeit sneller dan beleid, waardoor controle, governance en beveiliging nog vaak ontbreken.
Please note: Check your route before departure. There are road works on the main road in Soest-Zuid (N221) until 2026. This may cause delays in arrival and/or departure.

Medewerkers gebruiken AI-tools omdat ze werk aanzienlijk sneller en eenvoudiger maken. Taken die eerder uren kostten, kunnen nu met een korte beschrijving in natuurlijke taal worden uitgevoerd. Denk aan het schrijven van e-mails, het herschrijven van rapporten of het genereren van afbeeldingen. De lage drempel en directe productiviteitswinst zorgen ervoor dat medewerkers deze tools spontaan inzetten.
The museum is not easily accessable by public transport. We recommend getting there by car or rent a bike at the nearest station.

Shadow AI is het gebruik van AI-tools door medewerkers zonder formele goedkeuring of toezicht van de organisatie. Dit gebeurt vaak met publieke systemen zoals ChatGPT, Claude of Gemini. Medewerkers doen dit meestal om efficiënter te werken, niet om regels te overtreden. Toch ontstaan hierdoor ongecontroleerde datastromen en risico’s omdat het gebruik buiten de officiële IT- en securitystructuur plaatsvindt.

AI-gebruik kan tot overtredingen leiden wanneer medewerkers persoonsgegevens of gevoelige bedrijfsinformatie invoeren in externe AI-systemen zonder toestemming of controle. Hierdoor kunnen gegevens buiten de beveiligde omgeving van de organisatie worden verwerkt. Dit kan strijdig zijn met de AVG of interne datarichtlijnen, zelfs wanneer de medewerker alleen probeert een document te verbeteren of samen te vatten.

Inzicht begint met het monitoren van applicatiegebruik en dataverkeer binnen de organisatie. Door te analyseren welke tools worden gebruikt en waar data naartoe wordt gestuurd, ontstaat een realistisch beeld van AI-gebruik. Dit maakt het mogelijk om risico’s te identificeren en beleid op te stellen dat aansluit bij de praktijk in plaats van achteraf te reageren op incidenten.

Publieke AI-tools zijn vrij toegankelijk en worden buiten de organisatie gehost, waardoor de verwerking van ingevoerde data minder controleerbaar is. Enterprise AI-oplossingen zijn geïntegreerd in de bestaande IT-omgeving en voldoen aan interne security- en compliance-eisen. Hierdoor kunnen organisaties AI gebruiken voor automatisering en ondersteuning zonder dat gevoelige informatie ongecontroleerd wordt gedeeld.

Leave a comment

Your email address will not be published. Required fields are marked *

Momentum
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.