Wenn Ihre Kanzlei ein KI-Tool für die Vertragsanalyse, Personalauswahl oder juristische Recherche einsetzt — und Sie in der Schweiz oder Deutschland tätig sind — befinden Sie sich bereits in einem Compliance-Rahmen mit echten Konsequenzen. Die Hochrisiko-Bestimmungen der EU-KI-Verordnung treten im August 2026 in Kraft. Für Schweizer Kanzleien, die EU-Mandanten betreuen, kommt eine zweite Ebene hinzu: das revidierte Datenschutzgesetz (DSG, in Kraft seit 1. September 2023) und die Berufsgeheimnispflicht nach Art. 321 StGB. Diese Rahmenwerke sind nicht deckungsgleich — Compliance mit einem bedeutet nicht automatisch Compliance mit dem anderen.
Zwei Rahmenwerke, nicht eines
Deutsche Kanzleien unterliegen direkt der EU-KI-Verordnung. Schweizer Kanzleien tragen eine Doppelverantwortung:
- EU-KI-Verordnung: Gilt, wenn Sie EU-ansässige Mandanten betreuen oder KI-Tools einsetzen, die für den EU-Markt entwickelt wurden — was auf praktisch alle marktgängigen Legal-AI-Plattformen zutrifft.
- Schweizer DSG (revDSG): Gilt für alle schweizerischen Tätigkeiten. Das DSG ist keine Kopie der DSGVO. Es hat eine eigene Strafstruktur (bis CHF 250.000 pro verantwortliche Einzelperson, nicht pro Unternehmen) und das DSG-spezifische Konzept des "Hochrisiko-Profilings" ohne DSGVO-Entsprechung.
- Art. 321 StGB (Anwaltsgeheimnis): Gilt unabhängig davon, welches Datenschutzrecht anwendbar ist. Ein Bruch des Berufsgeheimnisses ist mit bis zu 3 Jahren Freiheitsstrafe bedroht und kann zusätzlich eine Geldsanktion nach dem allgemeinen schweizerischen Strafrecht auslösen. Es gelten die ordentlichen strafrechtlichen Verjährungsregeln des Schweizer Rechts.
Eine Kanzlei, die ein US-gehostetes KI-Tool für die Mandatsdokumentation verwendet, kann bereits gegen Art. 321 StGB verstossen — bevor die EU-KI-Verordnung überhaupt zur Anwendung kommt.
Das Vier-Stufen-Risikomodell
Unzulässiges Risiko (verboten). Social Scoring durch Behörden, KI zur Ausnutzung psychologischer Schwachstellen und Echtzeit-Biometrie im öffentlichen Raum. Kein Legal-Tech-Tool sollte diese Kategorie berühren — prüfen Sie jedoch, ob Ihr Anbieter verbotene Techniken im Modell-Stack einsetzt.
Hochrisiko (Anhang III und Anhang II). Die für Kanzleien wichtigste Kategorie. Hochrisiko-Systeme erfordern Konformitätsbewertungen, technische Dokumentation, menschliche Aufsicht und eine Registrierung in der EU-Datenbank vor dem Einsatz.
Begrenztes Risiko (Transparenzpflichten). Chatbots und KI-Inhalts-Tools müssen den Nutzer über die KI-Interaktion informieren. Hier landen die meisten allgemeinen Legal-Research-Assistenten.
Minimales Risiko. Spam-Filter und die meisten Empfehlungssysteme. Nur allgemeine Produktsicherheitsregeln und das anwendbare Datenschutzrecht gelten.
Hochrisiko-Kategorien mit Relevanz für Kanzleien
Beschäftigung und Personalmanagement (Anhang III, Nr. 4). Jede KI zur Rekrutierung, Kandidatenauswahl, Leistungsbeurteilung oder Entlassung ist hochrisikoreich. Die Verantwortung liegt beim Betreiber — Ihrer Kanzlei — nicht nur beim Anbieter.
Rechtspflege und demokratische Prozesse (Anhang III, Nr. 8). KI zur Unterstützung von Justizbehörden bei der Sachverhaltsermittlung ist explizit erfasst. Kanzleien im Prozessbereich oder der Regulierungsberatung sollten die behördliche Auslegung dieser Kategorie verfolgen.
Zugang zu wesentlichen Dienstleistungen (Anhang III, Nr. 5). KI zur Bonitätsprüfung oder Risikobeurteilung ist hochrisikoreich. Kanzleien in der Finanzberatung müssen prüfen, ob eingebettete Mandantenworkflow-Tools diese Kategorie auslösen.
Was die Hochrisiko-Einstufung verlangt
Als Betreiber muss Ihre Kanzlei:
- Eine Konformitätsbewertung durchführen oder die Herstellerbewertung kritisch prüfen — und die Konformitätserklärung beim Anbieter einfordern.
- Technische Dokumentation nach Anhang IV führen: Zweck, Architektur, Trainingsdaten-Herkunft, Leistungsmetriken, bekannte Grenzen.
- Menschliche Aufsicht sicherstellen — das System muss einer verantwortlichen Person ermöglichen, Ausgaben zu verstehen und zu korrigieren.
- Das System in der EU-Hochrisiko-KI-Datenbank registrieren (Art. 51).
- Ein Risikomanagementsystem über den gesamten Lebenszyklus aufbauen (Art. 9), einschliesslich Nachmarktüberwachung.
Sanktionen für Verstösse durch Betreiber: bis zu 15 Mio. EUR oder 3% des weltweiten Jahresumsatzes, je nachdem was höher ist.
€15M
Maximale Betreiber-Sanktion
Oder 3 % des weltweiten Jahresumsatzes
CHF 250K
DSG-Einzelpersonenbusse
Pro verantwortliche Person, nicht pro Unternehmen
Art. 321
Eigenständiges Schweizer Geheimnisschutzregime
Kann schon vor abgeschlossener KI-Verordnungsanalyse strafrechtliche Exposition auslösen.
Die Schweizer Dimension: SAV-Leitlinien und Anwaltsgeheimnis
Für Schweizer Kanzleien ist die EU-KI-Verordnung in eine unmittelbarere Frage eingebettet: Verstösst der Einsatz dieses KI-Tools gegen Art. 321 StGB?
Der Schweizerische Anwaltsverband (SAV/FSA) hat im Juni 2024 KI-Leitlinien verabschiedet — das praktischste Compliance-Rahmenwerk für Schweizer Kanzleien. Der SAV definiert drei Wege für den KI-Einsatz mit Mandantendaten:
- Interner oder lokaler Betrieb. Die KI läuft in der eigenen Infrastruktur der Kanzlei. Mandantendaten verlassen das Netzwerk nie. Stärkster Schutz und klarster Weg.
- Compliant Outsourcing. Der Anbieter qualifiziert als Hilfsperson nach Art. 321 StGB. Das Bundesgericht hat in BGE 145 II 229 bestätigt, dass Cloud-Anbieter grundsätzlich als Hilfspersonen qualifizieren können — die Anforderungen sind jedoch hoch. Unterdelegation ist verboten; Haftungsbeschränkungen auf Vorsatz und grobe Fahrlässigkeit sind nicht ausreichend.
- Informierte Einwilligung des Mandanten. Der Mandant verzichtet ausdrücklich auf den Schutz. Das Bundesgericht hat in Frage gestellt, ob eine solche Einwilligung bei KI-Systemen wirklich "informiert" sein kann. Dies ist der schwächste Weg.
Kein Modelltraining mit Mandantendaten. Keine identifizierbaren Mandantendaten in öffentlichen LLMs. Das sind harte Grenzen nach Art. 321 StGB — unabhängig davon, welches Datenschutzrecht gilt.
Dreistufige Praxis-Checkliste für August 2026
Schritt 1: KI-Inventar erstellen. Erfassen Sie jedes KI-Tool, das Mandantendaten berührt oder juristische oder Personalentscheidungen beeinflusst — einschliesslich individueller Nutzung durch Anwälte (z.B. ChatGPT für Entwürfe). Festhalten: Anbieter, Hosting-Standort (CH/EU/USA), Anwendungsfälle.
Schritt 2: Konformitätsstatus jedes Anbieters prüfen. Fragen Sie: (a) Fällt dieses System unter eine Anhang-III-Hochrisiko-Kategorie? (b) Liegt eine Konformitätserklärung vor? (c) Verbietet der Datenverarbeitungsvertrag das Training mit Mandantendaten ausdrücklich? Fehlende Antworten sind selbst ein Compliance-Signal.
Schritt 3: Einen Partner als KI-Compliance-Verantwortlichen ernennen. Kein Vollzeitaufgabe — schätzungsweise zwei bis drei Stunden pro Monat: neue Tool-Anfragen prüfen, Inventar aktuell halten, DPA-Musterklauseln pflegen. Die Ernennung schriftlich dokumentieren.
Der August 2026 rückt näher. Kanzleien, die jetzt beginnen, können Compliance dokumentieren, Mandanten-Due-Diligence-Anfragen beantworten und Durchsetzungsrisiken vermeiden, die keine EU-Fristen kennen.
Checkliste: EU-KI-Verordnung Hochrisiko-Compliance
0/0LLM-Sicherheitsrisiken spezifisch für Legal AI
Die meisten Legal-AI-Plattformen (CASUS, Harvey, Lexis AI, Omnilex) verwenden Retrieval-Augmented Generation (RAG) — die KI ruft relevante Dokumente aus einer Datenbank ab und generiert darauf basierende Antworten. Diese Architektur schafft vier Angriffsvektoren, die über Standard-LLM-Risiken hinausgehen:
- Vektordatenbank-Exposition. Embedding-Vektoren kodieren Informationen über Originaldokumente. Ein Angreifer mit Zugang zum Vektorspeicher kann Beziehungen zwischen Mandaten ableiten oder Dokumentinhalte teilweise rekonstruieren.
- Abrufmuster-Leckage. Gemeinsam abgerufene Dokumente offenbaren sensible Zusammenhänge — wenn die Abfrage eines Arbeitsrechtsstreits eines Mandanten regelmässig eine bestimmte Regulierungsakte mitabruft, ist die Assoziation selbst eine Information.
- Dokumentzuordnung. Quellenangaben in KI-Antworten können vertrauliche Dokumente unbeabsichtigt Nutzern zugänglich machen, die keinen Zugang haben sollten.
- Prompt Injection. Manipulierte Eingaben können die KI dazu veranlassen, Sicherheitskontrollen zu umgehen, Dokumente falsch zu klassifizieren oder Informationen aus anderen Mandaten im gleichen System zu extrahieren.
Die Abhilfemassnahme für Kanzleien ist spezifisch: Zugriffskontrollen müssen mandatsbezogen, nicht nutzerbezogen sein. Ein Anwalt mit Berechtigung für das Recherchetool sollte nicht automatisch Zugriff auf Embeddings aus jedem Mandantenmandat der Kanzleidatenbank haben.
Anfechtungsrechte der Mandanten — eine neue Pflicht
Nach Art. 86(1) der EU-KI-Verordnung haben Einzelpersonen das Recht auf eine Erklärung durch den Betreiber, wenn ein Hochrisiko-KI-System "rechtliche Wirkungen entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt". Das bedeutet: Mandanten müssen KI-beeinflusste Rechtsberatung, Fallbewertungen oder Risikoeinschätzungen anfechten können — mit "klaren und aussagekräftigen Erläuterungen zur Rolle des KI-Systems im Entscheidungsprozess".
Für Schweizer Kanzleien kommt dieses Recht zu den bestehenden Rechten aus Art. 22(3) DSGVO hinzu, automatisierte Entscheidungen anzufechten. Praktisch bedeutet dies: Wenn das KI-Tool Ihrer Kanzlei die Fallstrategie oder Risikobeurteilung beeinflusst, können betroffene Mandanten verlangen zu erfahren, wie die KI zur Empfehlung beigetragen hat — und sie bestreiten. Dokumentieren Sie die Rolle der KI in jedem Mandat, in dem sie die Beratung wesentlich beeinflusst.
Gilt Ihr Legal-AI-System als Hochrisiko?
0 Fragen
Benötigen Sie Unterstützung bei der Klassifizierung der KI-Tools Ihrer Kanzlei? Nehmen Sie Kontakt auf für eine strukturierte Compliance-Prüfung.