Dieses Szenario wiederholt sich in Schweizer Kanzleien: Ein Partner entdeckt ChatGPT, beginnt damit, Mandantenmemos zu verfassen, und informiert niemanden. Drei Monate später steht die Kanzlei vor einer Exposition gegenüber Art. 321 StGB — Verletzung des Berufsgeheimnisses — ohne dokumentierten Prozess, den sie einem Regulator oder einem Anspruchsteller vorlegen könnte.
Das ist kein Compliance-Problem. Das ist ein Haftungsproblem im Gewand des Berufsgeheimnisses. Und es ist mit vier Wochen strukturierter Arbeit vollständig vermeidbar.
Dieser Leitfaden richtet sich an eine Zehn-Anwälte-Kanzlei ohne Compliance-Officer. Wenn Sie einen haben, gilt dasselbe Rahmenwerk — es dauert nur weniger lang.
Das schweizerische Berufsgeheimnis gilt unabhängig von Ihrer KI-Policy
Die strafrechtliche Exposition trifft den einzelnen Anwalt, deshalb braucht ungeprüfte KI-Nutzung dokumentierte Kontrollen.
Ihre Schweizer Ausgangsbasis: SAV-Leitlinien, nicht nur EU AI Act
Die meisten Governance-Leitfäden für Kanzleien beginnen mit dem EU AI Act. Das ist das richtige Rahmenwerk für die Hochrisiko-KI-Klassifizierung, Einsatzverpflichtungen nach Artikel 26 und Dokumentationsanforderungen. Aber für eine Schweizer Kanzlei sind die SAV-Leitlinien (Schweizerischer Anwaltsverband), verabschiedet am 14. Juni 2024, Ihre unmittelbare operative Grundlage — verbindliche Berufsregeln, keine Empfehlung.
Die SAV-Leitlinien definieren drei Compliance-Pfade für jedes KI-Tool, das Mandantendaten verarbeitet:
Pfad 1 — Interne/lokale Nutzung. Die KI läuft im eigenen Netzwerk der Kanzlei. Mandantendaten verlassen die Infrastruktur nie. Dies ist der sicherste Compliance-Pfad und der stärkste Schutz gegen eine Exposition nach Art. 321 StGB.
Pfad 2 — Compliance-konforme Auslagerung. Sie nutzen ein cloudbasiertes Tool, aber der Anbieter erfüllt die SAV-Cloud-Empfehlungen und qualifiziert sich als Hilfsperson gemäss Art. 321 StGB. Der Anwalt bleibt persönlich haftbar. Der Anbieter darf die Datenverarbeitung nicht weiterdelegieren — das Bundesgericht (BGE 145 II 229) hat bestätigt, dass Subdelegation die Hilfspersonen-Kette unterbricht.
Pfad 3 — Informierte Mandantenzustimmung. Der Mandant verzichtet ausdrücklich auf seinen Geheimnisschutz für die spezifische KI-Nutzung. Das Bundesgericht hat Skepsis geäussert, ob eine «informierte» Zustimmung angesichts des «Black-Box»-Charakters von KI-Systemen praktisch erreichbar ist. Dies ist der schwächste Pfad und sollte nicht Ihre primäre Compliance-Strategie sein.
Ihr KI-Governance-Rahmenwerk ist in operativer Hinsicht ein System, das sicherstellt, dass jedes Tool in Ihrer Kanzlei einem dieser drei Pfade folgt. Bauen Sie Ihre Nutzungsrichtlinie darauf auf.
Der sichere Ausgangspunkt: Schweizer gehostete Tools
Bevor Sie jedes Tool gegen DSG und SAV klassifizieren, beachten Sie, dass drei Tools speziell für die Schweizer Compliance konzipiert wurden und einen sicheren Ausgangspunkt bilden:
- CASUS — In der Schweiz gehosteter KI-Assistent für Vertragsgestaltung und -prüfung
- Omnilex — In der Schweiz gehostete Rechtsrecherche mit über 700.000 Schweizer Gerichtsentscheiden
- DeepLaw — In der Schweiz gehostete Rechtsrecherche, ISO 27001:2022 zertifiziert, DSG-konform, Anfragen werden nicht für das Training verwendet
Eine Kanzlei, die ausschliesslich diese drei Tools für mandantenbezogene Arbeit einsetzt, muss keine vollständige DSG-Analyse pro Tool durchführen. Das Schweizer Hosting, der Schweizer Betreiberkontext und die zertifizierte Compliance-Position decken die Kernanforderungen ab. Dies ist Ihr reibungsärmster Ausgangspunkt.
Die Komplexität entsteht bei jedem weiteren Tool im Stack: Microsoft Copilot, allgemeines ChatGPT, eine Dokumentenautomatisierungsplattform mit US-basierter Verarbeitung, ein Vertragsprüfungs-Add-in mit unklaren Unterauftragnehmer-Ketten. Jedes davon muss klassifiziert werden.
Der 4-Wochen-Implementierungsplan
Woche 1 — Inventar
Erstellen Sie eine Tabelle mit einer Zeile pro KI-Tool. Die Felder:
| Feld | Zweck |
|---|---|
| Tool-Name | Identifikation |
| Anbieter und juristische Person | Inkorporationsland |
| Anwendungsfall | Welche Aufgabe erfüllt das Tool? |
| Verarbeitete Daten | Persönliche, vertrauliche, privilegierte — welche Kategorien? |
| Mandantendaten ja/nein | Verarbeitet das Tool Mandanteninformationen? |
| Schweizer/EU-Hosting | Datensouveränitätsfrage |
| SAV-Pfad | Welcher der 3 Pfade wird eingehalten? |
| Verantwortlicher | Namentlich genannter Partner |
| Überprüfungsdatum | Nächste geplante Bewertung |
Erfassen Sie alles: das Recherchetool, das Vertragsprüfungs-Add-in, den Transkriptionsdienst für Mandantengespräche, das KI-gestützte Abrechnungstool, den Redaktionsassistenten im Word-Plugin. Wenn es Text oder Dokumente verarbeitet, gehört es auf diese Liste.
Woche 2 — Klassifikation
Für jedes Tool in Ihrem Inventar beantworten Sie eine Frage: Empfängt dieses Tool identifizierbare Mandantendaten, und wenn ja, welchem SAV-Pfad folgt es?
Jedes Tool, das Mandantendaten an ein US-gehostetes Modell ohne Auftragsverarbeitungsvertrag und ohne dokumentierte Qualifikation als Hilfsperson sendet, ist ein roter Alarm. Dies betrifft die kostenlose Nutzung von ChatGPT, Claude.ai oder Gemini — Dienste, bei denen Anfragen für das Training verwendet werden können und Unterauftragnehmer-Ketten undurchsichtig sind.
Das Klassifikationsergebnis ist einfach: Grün (konform, Pfad bestätigt), Gelb (benötigt einen Auftragsverarbeitungsvertrag oder Anbieterklärung), Rot (Nutzung mit Mandantendaten sofort einstellen). Die meisten Kanzleien finden in Woche zwei zwei bis drei rote Alarme. Das ist normal und lösbar.
Führen Sie bei der Klassifizierung jedes Tools eine Sechs-Fragen-Sorgfaltsprüfung des Anbieters durch, bevor Sie den Status «Grün» vergeben:
- Ist der Anbieter SOC 2 Type II oder ISO 27001 zertifiziert?
- Verbietet der Auftragsverarbeitungsvertrag des Anbieters ausdrücklich die Nutzung von Mandantenanfragen für das Modelltraining?
- Wie sehen die vollständigen Unterauftragnehmer-Ketten aus, und wo befinden sich die Daten geografisch?
- Stellt der Anbieter Dokumentation zur Herkunft der Trainingsdaten bereit?
- Wie steht es um die finanzielle Tragfähigkeit des Anbieters — handelt es sich um einen dünnen Wrapper über GPT oder ein substanzielles Produkt?
- Gibt es eine Datenlöschungs- und Ausstiegsregelung?
Das ist keine Bürokratie. Es ist der dokumentierte Nachweis beruflicher Sorgfalt bei der Toolauswahl. Wenn ein Anbieter diese Fragen nicht beantworten kann, ist dieses Schweigen selbst ein Compliance-Signal. Allein 2025 sind siebzig neue generative KI-Unternehmen in den Rechtsmarkt eingetreten; viele sind GPT-Wrapper ohne institutionelle Beständigkeit. Eine Kanzlei, die ein Tool freigegeben hat, das sie bei regulatorischer Prüfung nicht beschreiben kann, steht materiell schlechter da als eine, die es gar nicht erst freigegeben hat.
Woche 3 — AUP verfassen
Ihre Nutzungsrichtlinie sollte zwei Seiten umfassen, nicht zwanzig. Eine dreissigseitige Policy wird nicht gelesen. Eine zweiseitige schon.
Kernregeln, die jede Schweizer Kanzlei-AUP braucht:
Keine Mandantendaten in nicht genehmigten Tools. Gebührenträger dürfen keine persönlichen Mandantendaten, vertraulichen Informationen oder privilegierten Mitteilungen in ein KI-Tool eingeben, das nicht auf der genehmigten Liste steht. Das ist keine Empfehlung — es ist eine Art.-321-StGB-Verpflichtung.
Verifizierung vor Lieferung. Jeder KI-Output, der einen Mandanten erreicht, in eine Eingabe einfliesst oder in einer wesentlichen Angelegenheit berät, muss von einem qualifizierten Anwalt geprüft werden. Der KI-Output ist ein Entwurf, kein Produkt. Schweizer Gerichte akzeptieren nicht «die KI hat es gesagt» als berufliche Sorgfalt.
Ein spezifischer Fehlermodus, der erwähnt werden sollte: KI-Sycophancy. Modelle sind darauf ausgelegt, hilfreich zu sein, und «hilfreich» bedeutet manchmal, den Nutzern zu sagen, was sie hören wollen, statt was sie hören müssen. OpenAI hat ein GPT-4o-Update zurückgenommen, weil es «zu nett» war — es produzierte Bestätigung statt Kritik. Ein Anwalt, der eine KI bittet, seinen eigenen Vertragsentwurf zu überprüfen, und eine bestätigende Antwort erhält, bekommt keine unabhängige Überprüfung. Die AUP-Verifizierungsanforderung sollte an diesem Punkt explizit sein: KI-Validierung der eigenen Arbeitsprodukte ist nicht dasselbe wie eine unabhängige Überprüfung. Der Prüfer muss aktiv nach Schwachstellen fragen, nicht nach Bestätigung.
KI-Einsatz offenlegen. Fügen Sie Ihren Mandatsbedingungen eine Standardformulierung hinzu: «Wir nutzen KI-Tools bei der Erbringung unserer Dienstleistungen. Alle KI-gestützten Arbeiten werden von qualifizierten Anwälten überprüft und verifiziert. Eine Zusammenfassung unserer KI-Governance-Policy ist auf Anfrage erhältlich.» Damit wird Ihr Governance-Rahmenwerk vom internen Dokument zur mandantenseitigen Referenz.
Diese Offenlegung ist keine optionale Kosmetik. Unter SAV-Pfad 2 bleibt der Anwalt persönlich haftbar für die Nutzung von Mandantendaten durch das Tool. Die Mandatsbedingungsklausel ist der Beweisnachweis, dass der Mandant informiert wurde und dass die spezifische Tool-Wahl dokumentiert und offengelegt wurde. Eine Kanzlei, die vertrauliche Mandantendaten durch ein KI-Tool verarbeitet, ohne dies offenzulegen, hat keine dokumentierte Grundlage zur Verteidigung dieser Entscheidung, falls die Daten später kompromittiert oder missbraucht werden — und keinen Weg, die Mandantenzustimmung als mildernden Faktor geltend zu machen.
Ein KI-Verantwortlicher. Ein namentlich genannter Partner ist verantwortlich für die Pflege der genehmigten Tool-Liste, die Bearbeitung von Eskalationen und die Durchführung der vierteljährlichen Überprüfung. In einer Zehn-Anwälte-Kanzlei entspricht das zwei Stunden pro Quartal, keine Vollzeitstelle.
Woche 4 — Unterzeichnen, Schulen, Dokumentieren
Alle Partner unterzeichnen die AUP. Dann eine einstündige Schulung für alle Mitarbeitenden: welche Tools genehmigt sind, was die Policy verlangt, wo die roten Linien liegen und wie man eine Frage eskaliert. Anwesenheit dokumentieren.
Diese Dokumentation ist von Bedeutung. Gemäss EU AI Act Artikel 26(6) und gemäss den Schweizer Standards zur beruflichen Sorgfaltspflicht ist Ihre Fähigkeit nachzuweisen, dass Mitarbeitende geschult wurden und ein Governance-Rahmenwerk existierte, ein materieller Beweis, falls eine Beschwerde oder ein Anspruch entsteht.
Checkliste für das KI-Governance-Rahmenwerk
0/0Das Governance-Rahmenwerk als Mandantensignal
Die Blickstein Group hat in ihrer Law Department Operations-Umfrage 2025 festgestellt, dass fast zwei Drittel der Kanzleimandanten nicht der Meinung sind, dass ihre Kanzleien innovativ sind. Die meisten Kanzleien haben ihre Technologieinvestitionen erheblich gesteigert — das Problem ist, dass diese Investitionen für Mandanten unsichtbar sind.
Ihr Governance-Rahmenwerk ist eine der kostengünstigsten und schnellsten Möglichkeiten, diese Wahrnehmungslücke zu schliessen. Fügen Sie einen Satz in Ihre Mandatsdokumentation ein: «Diese Kanzlei arbeitet unter einer dokumentierten KI-Governance-Policy, die auf Anfrage erhältlich ist.» Senden Sie eine einseitige Zusammenfassung proaktiv an Ihre fünf wichtigsten Mandanten, wenn die Policy abgeschlossen ist.
Die meisten Mandanten werden nie um die vollständige Policy bitten. Was sie registrieren: Die Kanzlei hat eine — und hat sich die Mühe gemacht, sie mitzuteilen. Das signalisiert einen KI-Ansatz, der diszipliniert, dokumentiert und mandantenorientiert ist. In einem Markt, in dem zwei Drittel der Mandanten meinen, ihre Kanzleien hinken hinterher, verändert eine proaktiv versandte einseitige Policy-Zusammenfassung die Wahrnehmung über Nacht.
Das Risiko ohne Governance
Das Risiko der Untätigkeit ist konkret, nicht theoretisch. Ein Partner, der ChatGPT für ein Mandantenmemo zu einem laufenden Rechtsstreit nutzt, kann bereits eine Exposition nach Art. 321 StGB auslösen, noch bevor eine Datenschutzbehörde ins Spiel kommt. Die strafrechtliche Analyse trifft den einzelnen Anwalt, nicht nur die Kanzlei.
Das revidierte DSG (in Kraft seit September 2023) schafft einen parallelen Haftungsrahmen: vorsätzliche Verstösse sind mit bis zu CHF 250.000 für die verantwortliche natürliche Person strafbewehrt.
Das Governance-Rahmenwerk ist keine Bürokratie. Es ist der dokumentierte Nachweis, dass die Kanzlei bei der KI-Einführung die berufliche Sorgfaltspflicht wahrgenommen hat. In einem Beruf, in dem persönliche Haftung der Standard ist, ist dokumentierte Sorgfalt die einzige Verteidigung.
EU AI Act-Integration
Für Kanzleien, die Mandanten in EU-Mitgliedstaaten betreuen, gelten die Einsatzverpflichtungen des EU AI Act nach Artikel 26 direkt. Ihr Governance-Rahmenwerk erfüllt bereits die Kernanforderungen: Risikobewertung durch den Inventar- und Klassifizierungsprozess, menschliche Aufsicht durch Ihre AUP-Verifizierungsanforderungen, Protokollierung durch Ihre Dokumentationspraxis und Vorfallsberichterstattung durch Ihren vierteljährlichen Überprüfungsprozess.
Die einzige Ergänzung für die EU-Act-Compliance: ein definierter Eskalationspfad für schwerwiegende Vorfälle an die zuständige nationale Aufsichtsbehörde. Dokumentieren Sie, wohin dieser Pfad für jede Jurisdiktion führt, in der Sie Mandantenangelegenheiten bearbeiten.
ISO 42001: Der Governance-Standard, der Ihnen rechtliche Absicherung bietet
ISO/IEC 42001 — der internationale Standard für KI-Managementsysteme — wird für Kanzleien direkt relevant. Colorado SB 205 (in Kraft ab 1. Februar 2026) bietet eine konkrete «Safe-Harbour»-Verteidigung: Betreiber von Hochrisiko-KI, die sowohl NIST AI RMF als auch ISO 42001 einhalten, können eine affirmative Verteidigung gegen die Durchsetzung erheben. Dies ist die erste Gesetzgebung, die der ISO-42001-Compliance explizites rechtliches Gewicht verleiht, und sie setzt einen Präzedenzfall, dem andere Jurisdiktionen folgen werden.
Für Schweizer Kanzleien, die bereits DSG-Datenschutzrichtlinien pflegen, ist die Integration praktisch: ISO 42001 Control A.2.3 stellt ausdrücklich fest, dass «die Datenschutzdomäne sich mit künstlicher Intelligenz überschneidet» und empfiehlt, bestehende Datenschutzrichtlinien um KI zu erweitern — nicht ein paralleles Governance-Dokument zu erstellen. Ihre bestehende DSG-Compliance-Arbeit ist der Ausgangspunkt und halbiert den Implementierungsaufwand.
Anbieterbewertung: Das 22-Fragen-Beschaffungsrahmenwerk
Das Trustworthy AI Procurement-Rahmenwerk bietet eine strukturierte Bewertungsmethodik für jedes juristische KI-Tool. Jeder Anbieter wird über Dimensionen bewertet — Bedarfsbewertung, Datenqualität, Fairness, Transparenz, Sicherheit und Verantwortlichkeit — mit einer Bewertung von 1-5. Alle Dimensionen müssen mindestens 3 erreichen, um fortzufahren; jede Dimension mit 1 erfordert eine Behebung vor Vertragsabschluss.
Für eine Kanzlei ohne Compliance-Officer die drei wichtigsten Fragen an jeden KI-Anbieter:
- Datenherkunft: Welche Daten wurden zum Training des Modells verwendet, und beinhalten sie Mandantendaten anderer Kanzleien?
- Transparenz der Unterauftragnehmer: Wie sieht die vollständige Kette der Datenverarbeiter zwischen Ihrer Oberfläche und dem Modell-Inferenzendpunkt aus?
- Ausstiegsstrategie: Wie werden unsere Daten bei Kündigung gelöscht, und können wir ohne Verlust von Arbeitsprodukten zu einem anderen Anbieter migrieren?
Wenn ein Anbieter diese Fragen nicht innerhalb von fünf Arbeitstagen beantworten kann, ist dieses Schweigen ein Governance-Signal.
Wie ausgereift ist die KI-Governance Ihrer Kanzlei?
0 Fragen
Bereit, das KI-Governance-Rahmenwerk Ihrer Kanzlei aufzubauen? Nehmen Sie Kontakt auf — ich helfe Kanzleien dabei, Governance-Strukturen zu entwickeln, die in der Praxis funktionieren, nicht nur auf dem Papier.