Generatieve kunstmatige intelligentie (GenAI) verandert onze manier van werken nu al.
De technologie gaat echter ook gepaard met aanzienlijke problemen op het gebied van gegevensbeveiliging en privacy.
Het maximaliseren van uw investering in AI betekent het navigeren door deze wegversperringen zonder afbreuk te doen aan privacy en gegevensbeveiliging voor gevoelige bedrijfsinformatie, klantgegevens en bedrijfseigen informatie.
Lees verder voor meer informatie over hoe uw organisatie maximaal gebruik kan maken van AI en tegelijkertijd uw gegevens kan beschermen.
De basis leggen door te beginnen met gebruikerseducatie
Zoals bij elke nieuwe technologie is het van cruciaal belang om je gebruikers voor te lichten over het verantwoorde gebruik van kunstmatige intelligentie.
Ze moeten begrijpen hoe ze het effectiefst gebruik kunnen maken van AI-mogelijkheden en welke informatie ze wel en niet moeten invoeren in tools als Copilot, ChatGPT of Gemini. De kans op onbedoelde blootstelling van gegevens via AI-tools is zeer reëelen er zijn al een paar opvallende incidenten gemeld.
In mei 2023 koos Samsung voor een bedrijfsbreed verbod op generatieve AI-tools van derden. Eerder stond het bedrijf ingenieurs die voor zijn halfgeleiderdivisie werkten toe om ChatGPT te gebruiken om problemen met hun broncode oplossen. Helaas resulteerde dit in meerdere datalekken, waaronder de broncode voor een nieuw programma, vertrouwelijke hardwaregegevens en notities van vergaderingen.
Zelfs als er niet direct informatie uitlekt naar het publiek, kunnen de gegevens van een organisatie nog steeds worden gebruikt om AI-modellen te trainen, waardoor ze het risico lopen om in gevaar te worden gebracht. Je moet ervoor zorgen dat je werknemers de risico’s begrijpen en weten met welke tools ze geen gevoelige gegevens mogen delen.
Weet je niet zeker waar je moet beginnen bij het ontwikkelen van je eigen training? Microsoft biedt veel cursussen gericht op het praktische en verantwoorde gebruik van AI, waaronder Grondbeginselen van AI-beveiliging, Verantwoorde generatieve AIen AI-vaardigheid. Regelmatige cyberbewustzijnstraining is ook noodzakelijk.
Betaalde abonnementen aanschaffen om je gegevens nog beter te beschermen
Bedrijven die AI-tools op bedrijfsniveau gebruiken, moeten overwegen om betaalde abonnementen aan te schaffen.
Deze abonnementen bieden meestal een betere gegevensbeveiliging dan gratis tools en de zekerheid dat bedrijfsgegevens niet worden gebruikt om AI-modellen te trainen. Daarnaast bieden betaalde abonnementen vaak toegang tot meer functionaliteit dan niet-betaalde abonnementen.
Een betaald abonnement op Microsoft Copilot biedt directe integratie met Microsoft Word, Excel, PowerPoint, OneNote en Outlook. Het biedt ook voorkeurstoegang tot de nieuwste AI-modellen, hogere gebruikslimieten en geavanceerde functies zoals Copilot Voice.
Microsoft beschermt Copilot ook met een uitgebreide defense-in-depth strategieDit geldt zowel voor de gratis als de professionele versie van de tool.
Het gebruik van AI beperken voor teams die gevoelige gegevens verwerken
Het is ook belangrijk om na te denken over hoe AI-tools in je netwerkinfrastructuur passen, van het datacenter en de werkplek tot de thuiskantoren van je werknemers.
Zelfs als je werknemers alles goed doen, is er nog steeds het risico van data-exfiltratie of mogelijk zelfs een datalek als er geen goede beveiliging is. Slack AI is een perfect voorbeeld van de potentiële risico’s.
Hoewel er op dit moment geen bekende incidenten in verband worden gebracht met de tool, rapporteerde beveiligingsbedrijf PromptArmor in augustus 2024 dat het een kwetsbaarheid voor prompt injection bevatte. Het bedrijf adviseerde dat bedreigingsactoren mogelijk Slack AI kunnen gebruiken om gegevens uit privé Slack-kanalen te exfiltreren. Hoewel Slack de kwetsbaarheid een paar dagen later patchteHet herinnert ons eraan hoe belangrijk het is om te controleren waar AI-bots toegang toe hebben en wie AI kan gebruiken.
Gebruik Microsoft 365 Gevoeligheidslabel en Microsoft 365 InformatiebeveiligingUw IT-beheerders kunnen netwerkbeperkingen en -rechten implementeren voor uw AI-tools. Ze kunnen die tools ook isoleren van specifieke systemen en apparaten door servicetags te combineren met extra autorisatie en authenticatie. Naast deze controles moet je het gebruik van AI-bots beperken tot werknemers die een training hebben gevolgd over best practices en verantwoord gebruik.
Neem krachtige maatregelen voor gegevensbeheer
Wie heeft toegang tot uw gegevens? Hoe kunnen ze toegang krijgen? Welke verificatiemaatregelen zijn er om ongeautoriseerde toegang te voorkomen?
Dit zijn allemaal cruciale vragen die je moet stellen voordat je overweegt een AI-tool te gebruiken.
Je moet weten waar al je gegevens zijn opgeslagen en hoe ze zijn opgeslagen. Het is ook belangrijk om regelmatig de toegangsrechten te controleren en bij te werken om te zorgen dat niemand toegang heeft tot iets wat niet mag.
Anders gezegd: iedereen in de organisatie, van stagiairs tot de CEO, moet alleen toegang hebben tot de systemen en gegevens die ze nodig hebben om hun werk te doen.
Werk aan één enkele bron van waarheid voor alle bedrijfsgegevens, consolideer om silo “s en onnodige redundantie te elimineren. Van daaruit heb je twee opties. Met Azure Local kunnen bedrijven hun eigen Large Language Models (LLM” s) op locatie uitvoeren, zodat zowel de trainingsgegevens als de bedrijfsgegevens binnen het lokale datacenter blijven en niet in de cloud worden gehost.
Alternatief, Azure Data Lake Storage biedt een veilige, cloudgebaseerde centrale opslagplaats die is ontworpen om enorme hoeveelheden gestructureerde en ongestructureerde gegevens op te slaan die eenvoudig toegankelijk zijn voor analyses en modeltraining.

Versleutel en beveilig je informatie
Governance is niet het enige waar je rekening mee moet houden bij het opstellen van beleidsregels voor het beheer van je gegevens.
Dan is er nog de kwestie van beveiliging. Je moet ervoor zorgen dat je alle basisvoorzieningen op orde hebt. Dit omvat dingen zoals:
- Encryptie tijdens bedrijf en onderweg
- Regelmatige malwarecontroles en scans op bestandsintegriteit
- Volledige zichtbaarheid van hoe, waar en naar wie uw gegevens worden verzonden.
We raden ook aan om alle communicatie tussen AI-bots en Azure te versleutelen.
Gelukkig heb je met het Azure ecosysteem toegang tot een breed scala aan beveiligingsopties, waaronder:
- 256-bits AES-encryptie voor de bescherming van alle gegevens die zijn opgeslagen in Azure
- Microsoft Entra ID voor identiteits- en toegangsbeheer (IAM)
- Microsoft Defender voor bescherming tegen malware
Microsoft heeft Copilot ook gebouwd als een beveiligde laag bovenop het platform van OpenAI en biedt verschillende serviceniveaus voor de overheid en het bedrijfsleven.
Hoewel alle implementaties van Copilot worden ontwikkeld volgens een hoge beveiligingsstandaard, Microsoft 365 Copilot GCC kunnen beheerders zorgen voor gegevensbeveiliging door functies te beheren, zoals web grounding en het bieden van toegang tot functies zoals auditing en eDiscovery.
Andere beveiligingsmaatregelen om te overwegen
Tot slot moet je nadenken over hoe je het AI-model van je bedrijf kunt aanpassen en hoe je de gegevens waarop het is getraind kunt beheren.
Overweeg om internetmogelijkheden uit te schakelen om ervoor te zorgen dat een model uitsluitend wordt getraind op bedrijfsgegevens.
Als je een data lake of iets dergelijks gebruikt, probeer het model daar dan direct op aan te sluiten. Hoe je de training ook aanpakt – toegang tot Microsoft’s Azure AI Foundry biedt toegang tot verschillende LLM-modellen buiten OpenAI, zodat je een aangepaste AI-app of API kunt ontwikkelen en implementeren voor vrijwel elke use case.
Je hebt ook de optie om je modellen lokaal uit te voeren, zodat je je gegevens op locatie kunt bewaren. U kunt ook aangepaste modellen maken in AI-bouwer. Er zijn ook verschillende kant-en-klare modellen die zijn ontworpen voor specifieke scenario’s en use cases.
Ontgrendel het volledige potentieel van GenAI in Microsoft Teams
GenAI is ongetwijfeld een van de meest ontwrichtende technologieën van de afgelopen jaren en we staan nog maar aan het begin van de evolutie.
Maar ondanks alle mogelijkheden is het een groot risico om het te gebruiken zonder na te denken over beveiliging en privacy.
Hulp nodig bij het bepalen van de manier om AI te integreren in je workflows? Boek vandaag nog een demo om te zien hoe je krachtige AI-mogelijkheden toevoegt aan Microsoft Teams en meer.