Datensicherheit und KI: Wie Sie Copilot AI nutzen können, ohne sensible Daten preiszugeben

Teilen auf
7 minute read

Generative künstliche Intelligenz (GenAI) verändert bereits die Art und Weise, wie wir arbeiten.

Die Technologie ist jedoch auch mit erheblichen Bedenken hinsichtlich der Datensicherheit und des Datenschutzes verbunden.

Um Ihre Investition in KI zu maximieren, müssen Sie diese Hindernisse überwinden, ohne den Datenschutz und die Datensicherheit für sensible Unternehmensinformationen, Kundendaten und geschützte Informationen zu gefährden.

Lesen Sie weiter, um mehr darüber zu erfahren, wie Ihr Unternehmen das maximale Potenzial von KI nutzen und gleichzeitig Ihre Daten schützen kann.

Bauen Sie die Grundlage, indem Sie mit der Aufklärung der Benutzer beginnen

Wie bei jeder neuen Technologie ist es wichtig, dass Sie Ihre Benutzer über den verantwortungsvollen Umgang mit künstlicher Intelligenz aufklären.

Sie müssen verstehen, wie sie die KI-Funktionen am effektivsten nutzen können und welche Informationen sie in Tools wie Copilot, ChatGPT oder Gemini eingeben sollten (und welche nicht). Das Potenzial für die versehentliche Preisgabe von Daten durch KI-Tools ist sehr realund es wurden bereits einige hochkarätige Vorfälle gemeldet.

Im Mai 2023 entschied sich Samsung für ein unternehmensweites Verbot für generative KI-Tools von Drittanbietern. Zuvor erlaubte das Unternehmen Ingenieuren, die für seine Halbleiterabteilung arbeiten, ChatGPT zu nutzen, um Probleme mit ihrem Quellcode beheben. Leider führte dies zu mehreren Datenlecks, darunter der Quellcode für ein neues Programm, vertrauliche Hardware-Daten und Sitzungsnotizen.

Selbst wenn Informationen nicht direkt an die Öffentlichkeit gelangen, können die Daten eines Unternehmens dennoch zum Trainieren von KI-Modellen verwendet werden, wodurch das Risiko einer Kompromittierung besteht. Sie müssen sicherstellen, dass Ihre Mitarbeiter die Risiken verstehen und wissen, mit welchen Tools sie keine sensiblen Daten teilen sollten.

Sind Sie unsicher, wo Sie bei der Entwicklung Ihrer eigenen Schulungen anfangen sollen? Microsoft bietet viele Kurse die sich auf den praktischen und verantwortungsvollen Einsatz von KI konzentrieren, darunter Grundlagen der KI-Sicherheit, Verantwortungsvolle generative KIund KI-Fähigkeit. Regelmäßige Schulungen zum Thema Cybersicherheit sind ebenfalls unabdingbar.

Kaufen Sie kostenpflichtige Abonnements, um Ihre Daten weiter zu schützen

Unternehmen, die KI-Tools auf Unternehmensebene einsetzen, sollten den Erwerb kostenpflichtiger Abonnements in Betracht ziehen.

Diese Abonnements bieten in der Regel eine höhere Datensicherheit als kostenlose Tools und die Sicherheit, dass Unternehmensdaten nicht zum Trainieren von KI-Modellen verwendet werden. Außerdem bieten kostenpflichtige Abonnements oft einen größeren Funktionsumfang als nicht kostenpflichtige Pläne.

Ein kostenpflichtiges Abonnement für Microsoft Copilot bietet eine direkte Integration mit Microsoft Word, Excel, PowerPoint, OneNote und Outlook. Außerdem bietet es bevorzugten Zugriff auf die neuesten KI-Modelle, höhere Nutzungslimits und erweiterte Funktionen wie Copilot Voice.

Microsoft schützt Copilot außerdem durch eine umfassende Defense-in-Depth-StrategieDies gilt allerdings sowohl für die kostenlose als auch für die professionelle Version des Tools.

Beschränken Sie die KI-Nutzung für Teams, die mit sensiblen Daten arbeiten

Es ist auch wichtig zu überlegen, wie KI-Tools in Ihre Netzwerkinfrastruktur passen, vom Rechenzentrum über den Arbeitsplatz bis hin zu den Heimbüros Ihrer Mitarbeiter.

Selbst wenn Ihre Mitarbeiter alles richtig machen, besteht ohne angemessene Sicherheitsvorkehrungen immer noch das Risiko einer Datenexfiltration – oder möglicherweise sogar einer Datenverletzung. Slack AI ist ein perfektes Beispiel für die potenziellen Risiken.

Obwohl derzeit keine Vorfälle bekannt sind, die mit diesem Tool in Verbindung stehen, berichtete das Sicherheitsunternehmen PromptArmor im August 2024 dass es eine Souffle-Injection-Schwachstelle enthält. Das Unternehmen wies darauf hin, dass Bedrohungsakteure möglicherweise die Slack-KI nutzen könnten, um Daten aus privaten Slack-Kanälen zu exfiltrieren. Obwohl Slack die Sicherheitslücke ein paar Tage später gepatcht hatEs ist eine Erinnerung daran, wie wichtig es ist, zu kontrollieren, worauf KI-Bots zugreifen können und wer KI nutzen kann.

Verwendung von Microsoft 365 Empfindlichkeitslabel und Microsoft 365 Sichtbarkeit Informationsschutzkönnen Ihre IT-Administratoren Netzwerkeinschränkungen und -berechtigungen für Ihre KI-Tools implementieren. Sie können diese Tools auch von bestimmten Systemen und Geräten isolieren, indem sie Service-Tags mit zusätzlicher Autorisierung und Authentifizierung kombinieren. Zusätzlich zu diesen Kontrollen sollten Sie die Verwendung von KI-Bots auf Mitarbeiter beschränken, die eine Schulung zu bewährten Praktiken und zur verantwortungsvollen Nutzung absolviert haben.

Führen Sie strenge Maßnahmen zur Datenverwaltung ein

Wer hat Zugang zu Ihren Daten? Wie können sie darauf zugreifen? Welche Authentifizierungsmaßnahmen gibt es, um unbefugten Zugriff zu verhindern?

Dies sind alles entscheidende Fragen, die Sie sich stellen sollten, bevor Sie den Einsatz eines KI-Tools in Erwägung ziehen.

Sie müssen wissen, wo alle Ihre Daten gespeichert sind und wie sie gespeichert werden. Es ist auch wichtig, die Zugriffsrechte regelmäßig zu überprüfen und zu aktualisieren, um sicherzustellen, dass niemand Zugriff auf etwas hat, das er nicht haben sollte.

Anders ausgedrückt: Jeder im Unternehmen, vom Praktikanten bis zum CEO, sollte nur Zugang zu den Systemen und Daten haben, die er für seine Arbeit benötigt.

Arbeiten Sie daran, eine einzige Quelle der Wahrheit für alle Unternehmensdaten zu schaffen, indem Sie Silos und unnötige Redundanzen beseitigen. Von dort aus haben Sie zwei Möglichkeiten. Azure Local ermöglicht es Unternehmen, ihre eigenen Large Language Models (LLMs) vor Ort auszuführen. Dadurch wird sichergestellt, dass sowohl die Trainingsdaten als auch die Unternehmensdaten im lokalen Rechenzentrum verbleiben und nicht in der Cloud gehostet werden.

Alternativ, Azure Data Lake Storage ein sicheres, cloudbasiertes, zentralisiertes Repository für die Speicherung großer Mengen strukturierter und unstrukturierter Daten, auf die Sie für Analysen und Modellschulungen leicht zugreifen können.

Verschlüsseln und sichern Sie Ihre Informationen

Governance ist nicht das Einzige, was Sie bei der Erstellung von Richtlinien für die Verwaltung Ihrer Daten berücksichtigen müssen.

Und dann ist da noch die Frage der Sicherheit. Sie sollten sicherstellen, dass Sie alle grundlegenden Vorkehrungen getroffen haben. Dazu gehören Dinge wie:

  • Verschlüsselung im Ruhezustand und während des Transports
  • Regelmäßige Malware-Überprüfungen und Datei-Integritäts-Scans
  • Volle Transparenz darüber, wie, wo und an wen Ihre Daten übermittelt werden.

Wir empfehlen außerdem, die gesamte Kommunikation zwischen KI-Bots und Azure zu verschlüsseln.

Glücklicherweise können Sie mit dem Azure-Ökosystem auf eine breite Palette von Sicherheitsoptionen zugreifen, darunter:

  • 256-Bit-AES-Verschlüsselung zum Schutz aller in Azure gespeicherten Daten
  • Microsoft Entra ID für die Identitäts- und Zugriffsverwaltung (IAM)
  • Microsoft Defender zum Schutz vor Malware

Microsoft hat Copilot auch als sichere Schicht auf der OpenAI-Plattform aufgebaut und bietet verschiedene Service-Levels für Behörden und Unternehmen an.

Obwohl alle Implementierungen von Copilot nach einem hohen Sicherheitsstandard entwickelt werden, Microsoft 365 Copilot GCC ermöglicht es Administratoren, die Datensicherheit zu gewährleisten, indem sie Funktionen wie Web Grounding kontrollieren und den Zugriff auf Funktionen wie Auditing und eDiscovery ermöglichen.

Andere zu berücksichtigende Sicherheitskontrollen

Und schließlich sollten Sie überlegen, wie Sie das KI-Modell Ihres Unternehmens anpassen und die Daten kontrollieren können, auf denen es trainiert wird.

Ziehen Sie in Erwägung, die Internetfunktionen zu deaktivieren, um sicherzustellen, dass ein Modell ausschließlich auf Unternehmensdaten trainiert wird.

Wenn Sie einen Data Lake oder etwas Ähnliches verwenden, versuchen Sie, das Modell direkt mit diesem zu verbinden. Wie auch immer Sie sich für das Training entscheiden – der Zugang zu Microsofts Azure AI Foundry bietet Zugang zu verschiedenen LLM-Modellen, die über OpenAI hinausgehen. Damit können Sie eine benutzerdefinierte KI-App oder API für nahezu jeden Anwendungsfall entwickeln und bereitstellen.

Sie haben auch die Möglichkeit, Ihre Modelle lokal auszuführen, so dass Sie Ihre Daten vor Ort behalten können. Alternativ dazu können Sie benutzerdefinierte Modelle in AI Builder. Es gibt auch mehrere vorgefertigte Modelle, die für bestimmte Szenarien und Anwendungsfälle entwickelt wurden.

Erschließen Sie das volle Potenzial von GenAI in Microsoft Teams

GenAI ist zweifellos eine der bahnbrechendsten Technologien der letzten Jahre, und wir stehen erst am Anfang ihrer Entwicklung.

Bei allem Potenzial ist es jedoch ein erhebliches Risiko, es ohne Rücksicht auf die Sicherheit und den Datenschutz einzuführen.

Benötigen Sie Hilfe bei der Entscheidung, wie Sie KI in Ihre Arbeitsabläufe integrieren können? Buchen Sie noch heute eine Demo, um zu sehen, wie Sie Microsoft Teams und andere Anwendungen um leistungsstarke KI-Funktionen erweitern können.

Neueste Beiträge

Book a Call

Accelerate your business to success with Momentum

Ganz gleich, ob Sie nach Netzwerkkonnektivität, verbesserter Kommunikation oder der Freischaltung von Microsoft Teams suchen, bei uns sind Sie richtig – rufen Sie uns an, und wir zeigen Ihnen, wie Sie mit Momentum erfolgreich sein können.
Momentum
Diese Site ist auf wpml.org als Entwicklungs-Site registriert. Wechseln Sie zu einer Produktionssite mit dem Schlüssel remove this banner.