INFLECT
Zurück zu Insights

Insight

KI-Beratung7 min

Datenschutz & KI: So schützen Schweizer KMU ihre Daten beim Einsatz künstlicher Intelligenz

Künstliche Intelligenz ist für Schweizer KMU zugänglicher denn je. ChatGPT, Claude, Gemini und Co. versprechen massive Produktivitätsgewinne – von der automatisierten Offertenerstellung bis zur intelligenten Kundenkommunikation. Doch eine Frage bremst viele Unternehmen: Was passiert mit unseren Daten? Datenschutz bei KI bedeutet, die Kontrolle darüber zu behalten, welche Daten an welche KI-Systeme fliessen, wo diese verarbeitet werden und wer darauf Zugriff hat. Dieser Leitfaden zeigt Ihnen als KMU-Verantwortlicher konkret, wie Sie KI datenschutzkonform einsetzen – mit praktischen Massnahmen, die sofort umsetzbar sind.

Das Schweizer Datenschutzgesetz (nDSG) und KI

Seit dem 1. September 2023 gilt in der Schweiz das revidierte Datenschutzgesetz (nDSG). Für KMU, die KI einsetzen, sind folgende Grundsätze besonders relevant:

Transparenz: Betroffene Personen müssen informiert werden, wenn ihre Daten durch KI verarbeitet werden. Wer Kundendaten in ein KI-Tool eingibt, muss dies in der Datenschutzerklärung offenlegen.

Zweckbindung: Daten dürfen nur für den Zweck verwendet werden, für den sie erhoben wurden. Kundendaten, die für die Auftragsabwicklung gesammelt wurden, dürfen nicht ohne Weiteres zum KI-Training verwendet werden.

Datensparsamkeit: Es dürfen nur so viele Daten verarbeitet werden, wie für den Zweck nötig sind. Statt komplette Kundendossiers in ein KI-Tool zu laden, sollten nur die relevanten Informationen übermittelt werden.

Verhältnismässigkeit: Der Einsatz von KI muss verhältnismässig sein. Automatisierte Entscheide, die erhebliche Auswirkungen auf Personen haben, erfordern besondere Sorgfalt.

Für KMU mit EU-Kunden gilt zusätzlich die DSGVO (Datenschutz-Grundverordnung), die in vielen Bereichen noch strengere Anforderungen stellt – etwa beim Recht auf Erklärung bei automatisierten Entscheidungen. Konkret heisst das: Wenn Sie als Treuhandbüro Kundendaten in ChatGPT eingeben, um eine Steueranalyse zu erstellen, müssen Sie sicherstellen, dass die Datenverarbeitung transparent, zweckgebunden und verhältnismässig erfolgt.

Serverstandorte: Wo werden Ihre Daten verarbeitet?

Der Serverstandort eines KI-Anbieters bestimmt, welchem Rechtsrahmen Ihre Daten unterliegen – und wer potenziell Zugriff darauf hat. Das ist keine theoretische Frage: Der US-amerikanische Cloud Act erlaubt US-Behörden, auf Daten zuzugreifen, die von US-Unternehmen gespeichert werden – unabhängig davon, wo die Server physisch stehen.

Die wichtigsten KI-Anbieter und ihre Serverstandorte

  • OpenAI (ChatGPT): Primär US-Server (Microsoft Azure). Enterprise-Kunden können EU-Datenverarbeitung wählen. Die Free- und Plus-Version verarbeitet Daten in den USA.
  • Anthropic (Claude): Primär US-Server (AWS/Google Cloud). Die API verarbeitet Daten standardmässig in den USA. Für Enterprise gibt es Optionen zur regionalen Datenverarbeitung.
  • Google (Gemini): Globale Infrastruktur mit wählbaren Regionen. EU-Regionen verfügbar, Schweizer Rechenzentrum in Zürich für Google Cloud.
  • Microsoft (Copilot): Azure-Regionen frei wählbar, inklusive Schweiz (Zürich und Genf). Für Microsoft-365-Kunden gelten die bestehenden Datenverarbeitungsverträge.
  • Lokale Open-Source-Modelle: Volle Kontrolle – Daten verlassen nie Ihre eigene Infrastruktur.

Für Schweizer KMU mit sensiblen Daten lautet die Empfehlung: Prüfen Sie den Serverstandort, bevor Sie ein KI-Tool produktiv einsetzen. Für hochsensible Daten (Personendaten, Finanzdaten, Gesundheitsdaten) sind EU/CH-basierte Lösungen oder lokale Modelle die sicherere Wahl.

Kundendaten und KI: Was darf rein, was nicht?

Nicht alle Daten sind gleich sensibel. Eine pragmatische Kategorisierung hilft, klare Richtlinien für den KI-Einsatz zu schaffen:

Unbedenklich – frei verwendbar:

  • Allgemeine Fragen und Recherchen ohne Personenbezug
  • Öffentlich verfügbare Informationen
  • Bereits anonymisierte oder synthetische Daten
  • Interne Prozessbeschreibungen ohne vertrauliche Details

Vorsicht – nur mit Massnahmen:

  • Interne Geschäftsdaten (Umsatzzahlen, Strategiepapiere)
  • Aggregierte Kundendaten ohne Einzelpersonenbezug
  • E-Mail-Vorlagen mit Platzhaltern statt echten Namen

Tabu – nie ohne Anonymisierung:

  • Personenbezogene Kundendaten (Namen, Adressen, Telefonnummern)
  • Gesundheitsdaten und besonders schützenswerte Personendaten
  • Finanzdaten (Kontodaten, Kreditkarteninformationen)
  • Passwörter, Zugangsdaten, interne Sicherheitsinformationen
  • Vertrauliche Verträge und juristische Dokumente

Werden Ihre Daten zum KI-Training verwendet?

Ein zentrales Risiko: Viele KI-Anbieter nutzen eingegebene Daten, um ihre Modelle zu verbessern. Das bedeutet, dass Ihre Geschäftsdaten potenziell in zukünftige Modellantworten einfliessen können.

  • ChatGPT Free/Plus: Eingaben werden standardmässig zum Training verwendet. Opt-out ist möglich über die Einstellungen, aber nicht voreingestellt.
  • ChatGPT Team/Enterprise/API: Keine Nutzung für Training. Vertraglich garantiert.
  • Claude (Anthropic) API: Keine Nutzung für Training. Klar dokumentiert in den Nutzungsbedingungen.
  • Claude.ai Free: Daten können zum Training verwendet werden, sofern nicht deaktiviert.
  • Lokale Open-Source-Modelle: Keine Daten verlassen Ihre Infrastruktur – kein Trainingsrisiko.

Drei Regeln für Mitarbeitende

  • Regel 1: Keine echten Kundennamen, Adressen oder Kontaktdaten in KI-Tools eingeben – verwenden Sie Platzhalter.
  • Regel 2: Vor der Nutzung eines neuen KI-Tools prüfen: Werden Daten zum Training verwendet? Wenn ja, Opt-out aktivieren.
  • Regel 3: Im Zweifel anonymisieren – lieber einmal zu viel als einmal zu wenig.

Open Source vs. Closed Source KI: Die Datenschutz-Perspektive

Open Source bei KI bedeutet, dass der Quellcode und oft auch die Modellgewichte öffentlich zugänglich sind. Das Modell kann heruntergeladen, auf eigenen Servern betrieben und angepasst werden. Closed-Source-Modelle hingegen sind nur über die Server des Anbieters nutzbar.

Für den Datenschutz ist dieser Unterschied fundamental:

Vergleich: Open Source vs. Closed Source

  • Datenkontrolle – Open Source: Volle Kontrolle, lokal betreibbar, keine Daten verlassen das Unternehmen. Closed Source: Daten werden an Anbieter-Server übermittelt und dort verarbeitet.
  • Hosting – Open Source: Eigene Server, eigene Cloud oder On-Premise. Closed Source: Anbieter-Cloud, Standort abhängig vom Anbieter.
  • Kosten – Open Source: Hardware- und Hosting-Kosten, keine Lizenzgebühren. Closed Source: Abonnement- oder API-Kosten, keine Hardware nötig.
  • Qualität – Open Source: Gut bis sehr gut, je nach Modell und Aufgabe. Closed Source: In der Regel State-of-the-Art bei komplexen Aufgaben.
  • Setup-Aufwand – Open Source: Hoch, IT-Know-how oder externer Partner nötig. Closed Source: Gering, sofort nutzbar über Browser oder API.
  • Updates – Open Source: Manuell, neue Versionen müssen selbst eingespielt werden. Closed Source: Automatisch, immer die neueste Version.
  • Datenschutz – Open Source: Maximal, keine Daten verlassen die eigene Infrastruktur. Closed Source: Abhängig von Vertrag, AGB und Serverstandort.

Konkrete Modelle im Überblick

Open-Source-Modelle:

  • Llama 3.1 / 3.2 (Meta): Leistungsstarke Modelle, die lokal betrieben werden können. Ideal für datensensible Anwendungen in Unternehmen. Verfügbar in verschiedenen Grössen (8B bis 405B Parameter).
  • Mistral / Mixtral (Mistral AI, Frankreich): EU-basiertes Unternehmen mit starker Performance. Besonders interessant für europäische KMU, die Wert auf DSGVO-Konformität legen.
  • Qwen (Alibaba): Leistungsstark und Open Source, aber chinesischer Anbieter – wer das Modell lokal betreibt, hat volle Kontrolle; bei Cloud-Nutzung gelten chinesische Datenschutzgesetze.

Closed-Source-Modelle:

  • ChatGPT / GPT-4 (OpenAI): Marktführer mit breitem Funktionsumfang. Enterprise-Version mit vertraglichen Datenschutzgarantien. API-Nutzung ohne Training auf Kundendaten.
  • Claude (Anthropic): Starker Fokus auf Sicherheit und verantwortungsvolle KI. API-Nutzung schliesst Training auf Kundendaten vertraglich aus. Besonders stark bei langen Dokumenten und komplexen Analysen.
  • Gemini (Google): Integration in Google-Workspace-Ökosystem. Für bestehende Google-Kunden nahtlos nutzbar, aber Datenverarbeitung über Google-Infrastruktur.

Unsere Empfehlung: Der Hybridansatz

Für die meisten KMU ist ein Hybridansatz optimal: Nutzen Sie Closed-Source-Modelle wie ChatGPT oder Claude für allgemeine, nicht sensible Aufgaben – Textentwürfe, Recherchen, Brainstorming. Setzen Sie Open-Source-Modelle lokal ein für Aufgaben mit sensiblen Daten – Kundendatenanalysen, interne Dokumente, vertrauliche Kommunikation. So kombinieren Sie die Benutzerfreundlichkeit von Closed-Source-Diensten mit der Datenkontrolle von Open-Source-Modellen.

Anonymisierungs-Architektur: Sensible Daten sicher mit KI verarbeiten

Die eleganteste Lösung für den Datenschutz bei KI ist die Anonymisierung: Sensible Daten werden maskiert, bevor sie an ein KI-Modell übergeben werden. Nach der Verarbeitung werden die Platzhalter wieder durch die echten Daten ersetzt. So nutzen Sie die volle Leistung eines KI-Modells, ohne sensible Daten preiszugeben.

Praxisbeispiel: n8n-Workflow mit Claude

n8n ist ein Open-Source-Automatisierungstool, das sich perfekt für Anonymisierungs-Workflows eignet. Es kann selbst gehostet werden – Ihre Automatisierungslogik und Daten bleiben auf Ihren eigenen Servern. So funktioniert eine typische Anonymisierungs-Pipeline:

Schritt 1 – Dateneingang: Eine Kundenanfrage kommt per E-Mail herein. Sie enthält den Kundennamen, die Vertragsnummer und eine spezifische Frage zu einem Produkt.

Schritt 2 – Automatische Anonymisierung: Der n8n-Workflow erkennt sensible Datenfelder und ersetzt sie durch Platzhalter. Aus «Herr Müller, Vertrag CH-2024-4582» wird «[KUNDE_1], Vertrag [VERTRAG_1]». Namen, Adressen, Telefonnummern, E-Mails und IDs werden systematisch maskiert.

Schritt 3 – KI-Verarbeitung: Die anonymisierten Daten werden an die Claude API gesendet. Claude analysiert die Anfrage und generiert eine Antwort – ohne je die echten Kundendaten zu sehen.

Schritt 4 – Re-Identifikation: Der n8n-Workflow ersetzt die Platzhalter in der Claude-Antwort wieder durch die echten Daten. Aus «Sehr geehrter [KUNDE_1]» wird «Sehr geehrter Herr Müller».

Schritt 5 – Ausgabe: Die fertige, personalisierte Antwort wird ausgegeben – per E-Mail, ins CRM oder in ein anderes System.

Warum n8n?

  • Open Source und selbst hostbar: Ihre Workflows und Daten bleiben auf Ihren Servern – auch die Anonymisierungslogik.
  • Visuelle Workflows: Keine Programmierkenntnisse nötig. Workflows werden per Drag-and-Drop erstellt und sind für alle im Team nachvollziehbar.
  • Flexible Integration: n8n verbindet sich mit über 400 Tools – von E-Mail und CRM bis hin zu KI-APIs wie Claude, ChatGPT oder lokalen Modellen.
  • Audit-Trail: Jeder Workflow-Durchlauf wird protokolliert – wichtig für die Nachweispflicht gemäss nDSG.

Weitere Anonymisierungs-Ansätze

  • Microsoft Presidio: Open-Source-Tool speziell für die Erkennung und Anonymisierung personenbezogener Daten (PII). Erkennt Namen, Adressen, Telefonnummern und weitere Datenkategorien automatisch.
  • Eigene Regex-Patterns: Für einfache Fälle können reguläre Ausdrücke (Regex) eingesetzt werden, um bekannte Muster wie E-Mail-Adressen, AHV-Nummern oder Telefonnummern zu erkennen und zu maskieren.
  • Differential Privacy: Fortgeschrittene Technik, bei der Daten so verrauscht werden, dass einzelne Personen nicht mehr identifizierbar sind, die statistischen Aussagen aber erhalten bleiben.

Praktische Checkliste: KI datenschutzkonform einsetzen

Diese sieben Schritte helfen Ihrem KMU, KI sicher und compliant zu nutzen:

  • 1. Dateninventar erstellen: Dokumentieren Sie, welche Daten in welche KI-Tools fliessen. Erstellen Sie eine einfache Übersicht: Tool → Datentyp → Sensibilität → Serverstandort.
  • 2. Anbieter prüfen: Kontrollieren Sie für jeden KI-Anbieter: Wo stehen die Server? Werden Daten zum Training genutzt? Gibt es einen Auftragsverarbeitungsvertrag (AVV)? Wie werden Daten verschlüsselt?
  • 3. Interne Richtlinien definieren: Erstellen Sie eine KI-Nutzungsrichtlinie für Ihre Mitarbeitenden. Definieren Sie klar, welche Daten in welche Tools eingegeben werden dürfen – und welche nicht.
  • 4. Anonymisierung implementieren: Richten Sie einen Anonymisierungs-Workflow ein für alle Prozesse, bei denen sensible Daten mit KI verarbeitet werden sollen. Tools wie n8n machen das auch ohne Entwicklerteam möglich.
  • 5. Mitarbeitende schulen: Führen Sie einen KI-Workshop durch, der auch den Datenschutz-Aspekt abdeckt. Mitarbeitende müssen verstehen, warum bestimmte Daten nicht in KI-Tools gehören.
  • 6. Verträge prüfen: Stellen Sie sicher, dass mit jedem KI-Anbieter ein Auftragsverarbeitungsvertrag (AVV) besteht. Dieser regelt, was der Anbieter mit Ihren Daten tun darf – und was nicht.
  • 7. Regelmässig auditieren: Überprüfen Sie vierteljährlich, welche KI-Tools im Einsatz sind, ob die Richtlinien eingehalten werden und ob sich die Datenschutzbedingungen der Anbieter geändert haben.

Häufige Fragen

Darf ich als KMU ChatGPT für Kundendaten verwenden?

Nicht in der kostenlosen Version – dort fliessen Eingaben ins Training. Mit ChatGPT Enterprise oder der API (mit deaktiviertem Training) ist eine datenschutzkonforme Nutzung möglich, sofern Sie einen Auftragsverarbeitungsvertrag abschliessen und Ihre Datenschutzerklärung anpassen. Für besonders sensible Daten empfehlen wir dennoch eine vorherige Anonymisierung.

Sind Open-Source-KI-Modelle automatisch sicherer?

Nicht automatisch – aber sie bieten mehr Kontrolle. Ein Open-Source-Modell, das unsicher konfiguriert auf einem öffentlichen Server läuft, ist weniger sicher als ChatGPT Enterprise. Der Vorteil von Open Source liegt darin, dass Sie die volle Kontrolle über die Infrastruktur haben und Daten nie an Dritte übermitteln müssen.

Was passiert, wenn mein KMU gegen das nDSG verstösst?

Das revidierte nDSG sieht Bussen von bis zu CHF 250'000 vor – und zwar für die verantwortliche natürliche Person, nicht für das Unternehmen. Das bedeutet: Die Geschäftsleitung haftet persönlich. Zusätzlich drohen Reputationsschäden und der Verlust von Kundenvertrauen.

Brauche ich einen Datenschutzberater für den KI-Einsatz?

Für einfache Anwendungsfälle (z.B. ChatGPT für Textentwürfe ohne Personendaten) reichen interne Richtlinien. Sobald Sie KI systematisch mit Kundendaten einsetzen, empfehlen wir eine professionelle Datenschutzberatung – idealerweise kombiniert mit KI-Strategieberatung, damit Datenschutz und Nutzen gemeinsam optimiert werden.

Wie erkenne ich, ob ein KI-Anbieter DSGVO/nDSG-konform ist?

Prüfen Sie: Hat der Anbieter einen Auftragsverarbeitungsvertrag (AVV)? Wo stehen die Server? Werden Daten zum Training genutzt? Gibt es eine Datenschutz-Folgenabschätzung? Seriöse Anbieter wie Anthropic (Claude) oder OpenAI (Enterprise) stellen diese Informationen transparent zur Verfügung.

KI sicher einsetzen – mit der richtigen Strategie

Datenschutz und KI sind kein Widerspruch – im Gegenteil. Schweizer KMU, die den Datenschutz von Anfang an in ihre KI-Strategie integrieren, gewinnen nicht nur Compliance-Sicherheit, sondern auch das Vertrauen ihrer Kunden. Die Kombination aus klaren Richtlinien, der richtigen Wahl zwischen Open Source und Closed Source und einer durchdachten Anonymisierungs-Architektur ermöglicht es, die Produktivitätsgewinne von KI voll auszuschöpfen – ohne Risiko.

Bei INFLECT unterstützen wir Schweizer KMU dabei, KI-Strategien zu entwickeln, die den Datenschutz im Kern berücksichtigen. Von der Analyse Ihrer Datenflüsse über die Implementierung von Anonymisierungs-Workflows bis hin zur Schulung Ihrer Mitarbeitenden – wir begleiten Sie auf dem gesamten Weg.

Starten Sie mit einem kostenlosen Erstgespräch und erfahren Sie, wie Ihr KMU KI sicher und datenschutzkonform einsetzen kann.

Artikel teilen

Bereit loszulegen?

Lassen Sie uns gemeinsam herausfinden, wie wir Ihr Unternehmen voranbringen können.