Zum Inhalt springen
Zurück zum Blog

Copilot Readiness (2/3) — Copilot weiß nicht, was vertraulich ist

Sensitivity Labels, DLP, Conditional Access und Audit. Der Security Stack den dein Tenant braucht bevor Copilot mit deinen Daten arbeitet.

CopilotSecurityPurview
Copilot Readiness (2/3) — Copilot weiß nicht, was vertraulich ist

Im ersten Teil haben wir die Datengrundlage geprüft. Oversharing beseitigt, Zugriffe bereinigt, Restricted Search als Sofortmaßnahme aktiviert. Das war der Frühjahrsputz.

Jetzt geht es um die nächste Stufe. Deine Daten sind aufgeräumt, aber Copilot weiß trotzdem nicht was davon vertraulich ist. Ein Dokument ohne Label sieht für Copilot genauso aus wie jedes andere Dokument. Ob da Gehaltsdaten drin stehen oder der Kantinen-Speiseplan macht für Copilot keinen Unterschied.

Das ändern wir jetzt.

Wichtig vorab. Dieser Artikel ist kein fertiges Implementierungshandbuch. Die Themen hier haben Tiefe und jede Umgebung ist anders. Aber genau darum geht es. Du sollst verstehen welche Bausteine es gibt, wie sie zusammenspielen und wo du in deinem Tenant hinschauen musst. Die konkreten Schritte für deine Umgebung erarbeitest du daraus.

Sensitivity Labels. Das Namensschild für deine Daten

Sensitivity Labels aus Microsoft Purview sind das wichtigste Werkzeug um Copilot beizubringen was vertraulich ist. Ein Label sagt nicht nur dir sondern auch dem System was mit einem Dokument passieren darf und was nicht.

Und das Entscheidende. Copilot respektiert Sensitivity Labels. Wenn Copilot ein Dokument mit dem Label “Streng Vertraulich” referenziert wird das restriktivste Label auf die generierte Ausgabe vererbt. Copilot kann also eine Zusammenfassung aus drei Dokumenten erstellen und das Ergebnis bekommt automatisch das höchste Label.

Noch ein Detail das gerne übersehen wird. Copilot zeigt bei seinen Antworten Quellenangaben an. Wenn eine Quelle ein Label trägt, z.B. “Intern”, sieht der User das direkt im Zitat-Hinweis. Das stärkt das Bewusstsein für Datenschutz im Alltag, ganz ohne Schulung.

Voraussetzung. Damit Copilot gelabelte und verschlüsselte Dokumente überhaupt verarbeiten kann muss in deinem Tenant das Feature Co-Authoring für Dateien mit Sensitivity Labels aktiviert sein. Sonst bleibt Copilot vor der Verschlüsselung stehen wie vor einer verschlossenen Tür und kann das Dokument weder lesen noch zusammenfassen.

Ohne Labels fehlt diese Schutzschicht komplett.

Labels erstellen und veröffentlichen

Im Portal Microsoft Purview Compliance Center > Information Protection > Labels

compliance.microsoft.com > Solutions > Information Protection > Labels

Hier definierst du deine Label-Hierarchie. Ein typischer Aufbau

  • Öffentlich für alles was bedenkenlos geteilt werden darf
  • Intern für normale Geschäftsdokumente
  • Vertraulich für sensible Informationen mit eingeschränktem Zugriff
  • Streng Vertraulich für Daten die nur ein definierter Personenkreis sehen darf

Jedes Label kann mit Schutzaktionen verknüpft werden. Verschlüsselung, Wasserzeichen, Einschränkungen beim Weiterleiten oder Kopieren.

Auto-Labeling. Weil niemand freiwillig labelt

Manuelle Labels funktionieren in der Theorie. In der Praxis labelt fast niemand seine Dokumente konsequent. Deshalb brauchst du Auto-Labeling Policies.

Im Portal Microsoft Purview > Information Protection > Auto-labeling

Auto-Labeling erkennt sensible Inhalte automatisch und wendet das passende Label an. Du definierst Regeln basierend auf

  • Sensitive Information Types wie Kreditkartennummern, Personalausweisnummern, IBAN
  • Trainable Classifiers die Dokumente anhand von Mustern erkennen z.B. Gehaltsabrechnungen oder Verträge
  • Schlüsselwörter und reguläre Ausdrücke

Tipp. Starte im Simulationsmodus. Auto-Labeling zeigt dir erst an welche Dokumente betroffen wären bevor tatsächlich gelabelt wird. So vermeidest du Überraschungen.

# Bestehende Labels und Policies auflisten

Connect-IPPSSession
Get-Label | Select-Object DisplayName, Priority, ContentType
Get-AutoSensitivityLabelPolicy | Select-Object Name, Mode, Status

Warum das für Copilot wichtig ist. Wenn du Auto-Labeling vor dem Copilot Rollout aktivierst sind deine sensiblen Dokumente bereits klassifiziert wenn Copilot darauf zugreift. Copilot erbt dann die Labels und der Schutz greift vom ersten Tag an.

DLP. Wenn Copilot sensible Daten in Antworten packt

Data Loss Prevention geht einen Schritt weiter als Labels. DLP verhindert aktiv dass sensible Daten unkontrolliert geteilt werden. Und das gilt auch für Copilot-generierte Inhalte.

Stell dir vor ein User fragt Copilot “Fasse alle Kundendaten aus dem letzten Quartal zusammen”. Copilot erstellt eine Zusammenfassung und darin stehen Kreditkartennummern. Ohne DLP geht diese Zusammenfassung raus. Mit DLP wird sie blockiert oder der User bekommt eine Warnung.

Im Portal Microsoft Purview > Data Loss Prevention > Policies

compliance.microsoft.com > Data Loss Prevention > Policies

Was DLP für Copilot abdeckt

  • Teams Chat. DLP greift wenn Copilot in Teams eine Antwort generiert die sensible Daten enthält
  • Exchange. Copilot-generierte E-Mails werden gegen DLP-Regeln geprüft
  • SharePoint und OneDrive. Dokumente die Copilot erstellt oder verändert durchlaufen DLP
# DLP Policies auflisten und Status prüfen

Get-DlpCompliancePolicy | Select-Object Name, Mode, Enabled
Get-DlpComplianceRule | Select-Object Name, ParentPolicyName, BlockAccess

Achtung Overblocking. Wenn DLP zu scharf eingestellt ist bekommt der User in Copilot nur die Meldung “Die Antwort wurde blockiert, da sie sensible Informationen enthält.” Ohne weiteren Kontext. Das frustriert und führt dazu dass User Copilot nicht mehr nutzen wollen. Genau deshalb ist der nächste Tipp so wichtig.

Tipp. Erstelle DLP-Policies im Testmodus bevor du sie scharf schaltest. So siehst du welche Inhalte gefunden werden ohne den Arbeitsfluss zu unterbrechen. Und du erkennst frühzeitig ob deine Regeln zu aggressiv sind.

Conditional Access. Wer darf Copilot nutzen und von wo

Copilot ist nur so sicher wie der Zugriff darauf. Wenn ein User Copilot vom privaten Laptop im Hotel-WLAN nutzen kann hast du ein Problem. Conditional Access löst das.

Wichtig zu wissen. Copilot für Microsoft 365 hat keine eigene App-ID in Entra. Copilot läuft innerhalb der bestehenden M365 Apps. Eine Conditional Access Policy die für die Cloud App “Office 365” gilt deckt automatisch auch Copilot ab.

Im Portal Entra Admin Center > Protection > Conditional Access > Policies

entra.microsoft.com > Protection > Conditional Access

Empfohlene Policies für Copilot

1. Nur verwaltete Geräte Copilot und alle M365 Apps nur von Geräten erlauben die in Intune als compliant gemeldet sind. Kein privates Gerät, kein unkontrollierter Zugriff.

2. MFA immer Multi-Faktor-Authentifizierung für alle User die auf M365 zugreifen. Das ist keine Copilot-spezifische Maßnahme, sollte aber längst Standard sein.

3. Standortbasierte Einschränkungen Zugriff auf M365 nur aus definierten Netzwerken (Named Locations) oder mit erhöhten Anforderungen bei unbekannten Standorten.

4. Risikobasierter Zugriff Entra ID Protection erkennt riskante Anmeldungen. Bei erhöhtem Risiko wird der Zugriff blockiert oder zusätzliche Verifizierung verlangt. Das verhindert dass ein kompromittiertes Konto Copilot für Datenexfiltration nutzt.

Defender for Cloud Apps. Schatten-IT und Datenfluss kontrollieren

Copilot interagiert nicht nur mit Microsoft Diensten. User könnten Copilot-Ergebnisse in Drittanbieter-Apps kopieren, per Browser auf unsanktionierte Cloud-Dienste hochladen oder Daten in persönliche Accounts verschieben.

Microsoft Defender for Cloud Apps (MDCA) gibt dir Transparenz und Kontrolle darüber.

Im Portal Microsoft Security Center > Cloud Apps > Policies

security.microsoft.com > Cloud Apps

Was MDCA für Copilot relevant macht

  • Shadow IT Discovery. Welche Cloud-Apps nutzen deine User neben M365? Werden Unternehmensdaten in nicht genehmigte KI-Tools kopiert? Gerade in Kombination mit Copilot steigt das Risiko dass User auch andere KI-Dienste ausprobieren.
  • Session Policies. Über Conditional Access App Control (Reverse Proxy) kannst du steuern was User innerhalb einer Browser-Session tun dürfen. Download blockieren, Copy & Paste einschränken, Wasserzeichen einblenden.
  • Cloud App Catalog. Prüfe welche KI-Tools deine User neben Copilot nutzen. Der Catalog bewertet Apps nach Sicherheitskriterien.

Wichtig zu wissen. MDCA kann nicht unterscheiden ob ein Dokument von Copilot erstellt oder manuell angelegt wurde. Die Kontrolle läuft indirekt. Wenn Copilot ein Dokument erstellt und dabei ein Sensitivity Label erbt kannst du per Session Policy den Download von gelabelten Dokumenten auf nicht verwalteten Geräten blockieren. Der Hebel ist also das Label, nicht die Herkunft “Copilot”.

Defender for Endpoint. Kompromittierte Geräte erkennen

Copilot läuft auf Endgeräten. Wenn ein Gerät kompromittiert ist kann ein Angreifer Copilot nutzen um gezielt nach sensiblen Daten zu suchen. Schneller und effektiver als manuelles Durchsuchen.

Microsoft Defender for Endpoint (MDE) liefert den Device Compliance Status an Entra ID. Damit schließt sich der Kreis zu Conditional Access.

Im Portal Microsoft Security Center > Endpoints > Device inventory

security.microsoft.com > Endpoints > Device inventory

So arbeiten MDE und Copilot-Sicherheit zusammen

  1. MDE bewertet das Geräterisiko basierend auf Schwachstellen, verdächtigen Aktivitäten und Compliance-Status
  2. Entra ID empfängt den Risiko-Score über die MDE-Integration
  3. Conditional Access blockiert den Zugriff wenn das Gerät als “High Risk” eingestuft wird
  4. Copilot ist damit auf kompromittierten Geräten nicht nutzbar

Voraussetzung. MDE muss auf allen Geräten onboarded sein und an Intune berichten bevor du Copilot ausrollst. Sonst fehlt die Compliance-Bewertung und Conditional Access kann nicht greifen.

Purview Audit. Was macht Copilot eigentlich den ganzen Tag

Du hast Labels gesetzt, DLP aktiviert, Conditional Access konfiguriert. Aber woher weißt du ob alles funktioniert? Und was Copilot tatsächlich mit den Daten deiner User macht?

Microsoft Purview Audit protokolliert Copilot-Interaktionen im Unified Audit Log.

Im Portal Microsoft Purview > Audit > Search

compliance.microsoft.com > Audit

Was wird protokolliert

  • Copilot Events. Welcher User hat Copilot genutzt, in welcher App (Word, Teams, Excel), zu welchem Zeitpunkt
  • Art der Aktivität. Zusammenfassung, Entwurf, Chat, Analyse
  • Kontext. Je nach App und Event werden zusätzliche Informationen protokolliert, z.B. in welchem Dokument oder Chat Copilot genutzt wurde. Der Detailgrad kann variieren.
# Copilot Interaktionen im Audit Log suchen
# Der Operations-Name kann je nach Tenant variieren
# Prüfe im Audit Log welche Copilot Events bei dir verfügbar sind

Search-UnifiedAuditLog -Operations "CopilotInteraction" -StartDate (Get-Date).AddDays(-7) -EndDate (Get-Date) -ResultSize 100 |
  Select-Object CreationDate, UserIds, Operations |
  Export-Csv -Path "CopilotAudit.csv" -NoTypeInformation

Audit Premium vs. Standard. Mit E5 Lizenz bekommst du Audit Premium mit 1 Jahr Aufbewahrung statt 180 Tage bei Standard. Für Copilot empfehle ich Audit Premium, damit du auch nach Monaten noch nachvollziehen kannst was passiert ist.

Tipp. Erstelle Alert Policies für ungewöhnlich hohe Copilot-Nutzung. Wenn ein User plötzlich hunderte Copilot-Anfragen pro Tag stellt könnte das auf Datenexfiltration hindeuten.

Das Zusammenspiel. Kein Baustein alleine reicht

Die Stärke liegt nicht in einzelnen Tools sondern darin wie sie zusammenspielen.

  1. Sensitivity Labels sagen Copilot was vertraulich ist
  2. DLP verhindert dass sensible Daten die Copilot-Antwort verlassen
  3. Conditional Access steuert wer von wo auf Copilot zugreifen darf
  4. Defender for Cloud Apps kontrolliert wohin die Daten fließen
  5. Defender for Endpoint stellt sicher dass das Gerät sauber ist
  6. Purview Audit dokumentiert was Copilot tatsächlich tut

Fällt ein Baustein weg entsteht eine Lücke. Labels ohne DLP bedeutet du weißt was vertraulich ist aber verhinderst nicht dass es rausgeht. DLP ohne Labels bedeutet du blockierst nach Muster aber nicht nach Klassifizierung. Conditional Access ohne MDE bedeutet du prüfst den User aber nicht das Gerät.

🏋️ Trainingsplan. Daten klassifizieren und absichern

  • Label-Hierarchie definieren und mindestens 4 Stufen anlegen von Öffentlich bis Streng Vertraulich
  • Sensitivity Labels veröffentlichen und an alle User ausrollen mit klarer Anleitung
  • Auto-Labeling im Simulationsmodus starten und Ergebnisse prüfen bevor Labels automatisch gesetzt werden
  • DLP-Policies erstellen für die wichtigsten Sensitive Information Types und im Testmodus validieren
  • Conditional Access verschärfen und M365 Zugriff nur von verwalteten und compliant Geräten erlauben
  • Defender for Cloud Apps Session Policies prüfen und Download-Kontrolle für nicht verwaltete Geräte einrichten
  • MDE Onboarding sicherstellen und alle Geräte müssen Compliance-Status an Entra melden
  • Audit Premium aktivieren und CopilotInteraction Events überwachen, Alert Policies einrichten

👉 Zum Copilot Readiness Check 12 Fragen, die zeigen ob dein Tenant bereit ist für Copilot.

Im nächsten und letzten Teil geht es um den Rollout. Warum Lizenz zuweisen kein Rollout ist, wie du mit KeyUsern und Multiplikatoren eine echte Adoption erreichst und eine komplette Copilot Readiness Checkliste die alles aus den drei Teilen zusammenfasst.

Gruß Micha

Hat dir der Artikel geholfen? Teile ihn mit deinem Netzwerk.

LinkedIn X