Justizangehörige mit KI-Kompetenz
UNESCO-Umfrage — dabei fordern 92 % verpflichtende KI-Schulungen. Die Lücke zwischen dem, was nötig ist, und dem, was existiert, definiert den aktuellen Moment.
In der europäischen Rechtsbranche läuft gerade eine Diskussion, die immer an derselben Stelle stecken bleibt. Auf der einen Seite: KI-Tools, die schnellere Dokumentenprüfung, günstigere Vertragsanalyse und breiteren Zugang zur Justiz versprechen. Auf der anderen: berechtigte Bedenken zu Transparenz, Verantwortlichkeit, algorithmischer Voreingenommenheit und der Integrität des Justizsystems. Der Diskurs behandelt das als Gegensätze — Effizienz versus Rechtsstaatlichkeit — als müsste man das eine opfern, um das andere zu gewinnen.
Dieses Framing ist nicht nur wenig hilfreich. Es ist gefährlich. Es erlaubt Kanzleien, KI-Tools ohne angemessene Governance einzuführen, weil man «wettbewerbsfähig bleiben muss», und es erlaubt anderen Kanzleien, jede Adoption abzulehnen, weil «die Risiken zu hoch sind». Beide Positionen führen zum selben Ergebnis: Mandanten erhalten schlechteren Service.
Die drei Debatten, die dominieren — und was sie übersehen
Die aktuelle Debatte unter Richtern, Anwaltskammern, IT-Architekten und öffentlichen Innovationsstellen dreht sich um drei Themen. Jedes ist notwendig. Keines reicht allein aus.
Kapazitäten und Ressourcen. Was kostet der Einsatz generativer KI? Woher kommt die technische Expertise? Goldman Sachs prognostiziert, dass KI die jährliche Produktivität um 1,5% steigern und über ein Jahrzehnt 7 Billionen Dollar zusätzlichen Wirtschaftswert schaffen könnte. Venture-Finanzierung für LegalTech-Startups erreichte zwischen Januar 2023 und Februar 2024 rund 700 Millionen Dollar. Auch der öffentliche Sektor bewegt sich — Baden-Württemberg setzt den KI-Assistenten OLGA zur Fallkategorisierung ein, Spaniens Justizministerium hat Delfos entwickelt, eine GenAI-gestützte juristische Suchmaschine.
Technologische Möglichkeiten. Was können die Tools tatsächlich? Vertragsanalyse, Dokumentenerstellung, juristische Recherche, prädiktive Analytik, automatisierte Rechtsberatung für unterversorgte Bevölkerungsgruppen. Das Potenzial ist real und gut dokumentiert.
Konservativismus überwinden. Wie bringt man skeptische Richter und vorsichtige Mandanten dazu, KI-gestützte Prozesse zu akzeptieren? Das umfasst den Aufbau von Erklärbarkeit, Pilotprojekte und den Nachweis greifbarer Resultate.
Transparenz ist keine Feature-Anforderung — sie ist eine rechtliche Pflicht
Wenn Juristen über KI-Transparenz sprechen, behandeln sie das Thema oft als Kür: hier ein Dashboard, dort ein Erklärungsbericht. Das verkennt die regulatorische Realität.
Der EU AI Act erlegt spezifische Transparenzpflichten auf, mit besonders strengen Anforderungen an Hochrisiko-KI-Systeme — und mehrere Kategorien treffen die Anwaltspraxis direkt. Justizverwaltung (Anhang III, Punkt 8) erfasst explizit KI, die Justizbehörden bei der Sachverhaltsermittlung oder Rechtsanwendung unterstützt. Beschäftigungsentscheide, Zugang zu wesentlichen Dienstleistungen und Bonitätsbewertungen lösen ebenfalls die Hochrisiko-Einstufung aus.
Für Schweizer Kanzleien ist das Bild vielschichtiger. Das Schweizer Datenschutzgesetz (nDSG) kennt ein eigenes Konzept des «Profiling mit hohem Risiko», das kein DSGVO-Äquivalent hat. Artikel 321 StGB zum Berufsgeheimnis gilt unabhängig davon, welche Datenschutzregelung greift. Eine Kanzlei, die Mandantendaten über ein in den USA gehostetes KI-Tool leitet, kann gegen das Berufsgeheimnis verstossen, bevor überhaupt eine KI-spezifische Regulierung ins Spiel kommt.
Die Europäische Ethik-Charta zur Nutzung von KI in Justizsystemen — 2018 vom Europarat verabschiedet — setzt fünf Prinzipien, die den Massstab bilden:
- Achtung der Grundrechte bei KI-Design und -Implementierung
- Nichtdiskriminierung — KI darf bestehende Ungleichheiten nicht schaffen oder vertiefen
- Qualität und Sicherheit — zertifizierte Quellen, sichere Umgebungen, interdisziplinäres Modelldesign
- Transparenz, Unparteilichkeit und Fairness — zugängliche Methoden, externe Audits
- Nutzerkontrolle — keine präskriptive KI; Nutzer müssen informierte Akteure bleiben
Das sind keine Absichtserklärungen. Das ist der Rahmen, an dem jeder KI-Einsatz im Justizbereich gemessen wird.
Die Verantwortlichkeitslücke — wo es Kanzleien treffen wird
Verantwortlichkeit in KI-gestützten Rechtsprozessen ist genuein komplex. Herkömmliche Rechtsrahmen wurden nicht für Situationen konzipiert, in denen ein Algorithmus zu einem juristischen Ergebnis beiträgt. Drei Verantwortungsebenen brauchen klare Definition — und die meisten Kanzleien haben keine davon definiert.
Entwicklerverantwortung. KI-Anbieter müssen sicherstellen, dass ihre Systeme ethische Standards und rechtliche Anforderungen erfüllen. Dazu gehören regelmässige Audits und Updates. Fordern Sie von Ihrem Anbieter die Konformitätserklärung und den Audit-Plan an. Wenn er keinen vorlegen kann, sagt das bereits etwas aus.
Anwenderverantwortung. Juristen, die KI nutzen, müssen die Technologie und ihre Grenzen verstehen. Sie müssen KI-Outputs kritisch bewerten und verantwortungsvoll in ihre Praxis integrieren. Eine UNESCO-Umfrage ergab, dass nur 31% der Justizangehörigen sich als Experten oder sehr vertraut mit KI bezeichneten — 41% beschrieben ihr Wissen als mittelmässig, 20% als gering und 7% gaben an, nichts darüber zu wissen.
31%
Justizangehörige mit KI-Kompetenz
UNESCO Global Judges' Initiative – Umfrage
92%
Fordern verpflichtende KI-Schulung
Gleiche Umfrage — Befragte unterstützen obligatorische Regulierung und Ausbildung
700 Mio. $
LegalTech-Venture-Finanzierung
Jan. 2023 – Feb. 2024, Stanford-CodeX-Daten
Institutionelle Aufsicht. Governance-Strukturen müssen den Einsatz von KI-Systemen überwachen. Prüfgremien, Leistungsmonitoring, Einhaltung rechtlicher und ethischer Standards — das sind keine optionalen Ergänzungen.
Die Lücke zwischen dem, was nötig ist, und dem, was existiert, ist gross. Die meisten Kanzleien, die heute KI-Tools einsetzen, haben keinen formalen Verantwortlichkeitsrahmen, der alle drei Ebenen abdeckt. Wenn ein KI-gestützter Output Schaden verursacht — eine voreingenommene Empfehlung, eine halluzinierte Rechtsprechungszitation, eine Datenschutzverletzung — bleibt die Frage, wer verantwortlich ist, bis sie gerichtlich geklärt wird. Zu dem Zeitpunkt ist der Reputations- und finanzielle Schaden bereits eingetreten.
Die menschliche Wahrnehmung von Gerechtigkeit zählt weiterhin
Es gibt eine Dimension, die Technologen konsequent unterschätzen: wie Menschen Gerechtigkeit erleben. Ein rechtlich korrektes Ergebnis, das durch einen undurchsichtigen Prozess zustande kam, fühlt sich ungerecht an. Eine gut erklärte Entscheidung, die etwas länger dauert, baut Vertrauen in das gesamte System auf.
Die digitale Kluft verschärft dieses Problem. Lutz identifiziert drei Ebenen: Zugang zu Technologie, digitale Kompetenzen und Teilhabe, sowie Ergebnisse in Form von Nutzen und Schäden. KI-gestützte Rechtsdienstleistungen riskieren, jede dieser Ebenen zu vertiefen, wenn sie primär für die Bequemlichkeit des Anbieters statt für das Verständnis des Mandanten gestaltet werden.
Legal Design — die Anwendung menschzentrierter Gestaltungsprinzipien auf Rechtssysteme und -dienstleistungen — bietet hier eine praktische Methodik. Es geht nicht darum, Dinge hübsch zu machen. Es geht darum sicherzustellen, dass Schnittstellen, Kommunikation und Prozesse für Menschen mit unterschiedlichem technischem Hintergrund verständlich sind. Wenn ein Mandant eine KI-gestützte juristische Empfehlung erhält, muss er verstehen, was sie beeinflusst hat, welche Alternativen bestehen und welche Einspruchsmöglichkeiten er hat.
Was das für Ihre Praxis bedeutet
Wenn Sie eine Kanzlei oder Rechtsabteilung in der DACH-Region leiten, würde ich mich auf Folgendes konzentrieren — in der Reihenfolge der Dringlichkeit.
Prüfen Sie Ihre aktuellen KI-Tools gegen die Risikoeinstufung des EU AI Act. Identifizieren Sie, welche Tools in Hochrisiko-Kategorien fallen. Prüfen Sie bei jedem einzelnen, ob Ihr Anbieter eine Konformitätsbewertung abgeschlossen hat und technische Dokumentation gemäss Anhang IV vorlegen kann. Falls nicht, haben Sie eine Compliance-Lücke, die vor August 2026 geschlossen werden muss.
Etablieren Sie einen Drei-Ebenen-Verantwortlichkeitsrahmen. Dokumentieren Sie, wer auf Anbieterebene, auf Anwenderebene und auf institutioneller Ebene verantwortlich ist. Definieren Sie Protokolle für Fehlererkennung, Korrektur und Mandantenbenachrichtigung. Das muss kein 200-seitiges Grundsatzdokument sein — es muss klar, zugeordnet und durchgesetzt sein.
Investieren Sie in KI-Kompetenz in der gesamten Kanzlei. Die 92% der Justizangehörigen, die verpflichtende KI-Schulungen fordern, haben recht. Ihre Associates, Partner und Mitarbeitenden müssen verstehen, was die Tools tun, was sie nicht können und wie man ihre Ergebnisse kritisch bewertet. Das ist kein eintägiger Workshop — es ist ein laufendes Programm.
Stellen Sie die Mandantenperspektive ins Zentrum. Bevor Sie einen neuen KI-Anwendungsfall einführen, fragen Sie: Dient das dem Mandanten oder der Kanzlei? Wenn die ehrliche Antwort «primär der Kanzlei» lautet, gestalten Sie den Anwendungsfall um, bis er dem Mandanten genuinen Nutzen bringt. Effizienzgewinne, die nur dem Anbieter zufliessen, während der Mandant das Risiko undurchsichtiger Prozesse trägt, sind nicht nachhaltig.
Deepfakes und Halluzinationen — kein theoretisches Problem
Die Risiken generativer KI in der Rechtspraxis beschränken sich nicht auf Bias und Intransparenz. Zwei spezifische Fehlermodi verdienen besondere Aufmerksamkeit, weil sie bereits auftreten und direkte Auswirkungen auf die Rechtsstaatlichkeit haben.
Deepfakes in Gerichtsverfahren. Generative KI kann fabrizierte Audio-, Video- und Dokumentenbeweise produzieren, die zunehmend schwer von authentischem Material zu unterscheiden sind. Gerichte sind noch nicht systematisch darauf eingerichtet, KI-generierte Beweismittel zu erkennen. Für Prozessabteilungen bedeutet das sowohl ein offensives Risiko (Gegenseite reicht fabrizierte Beweise ein) als auch ein defensives Risiko (eigene KI-Tools erzeugen unbeabsichtigt Inhalte, die als unauthentisch angefochten werden könnten). Die Beweiskette muss jetzt eine Herkunftsverifizierung für jedes KI-berührte Material umfassen.
Halluzinationen bei juristischer Recherche. Stanford-Forschung hat dokumentiert, dass führende KI-Tools für juristische Recherche halluzinieren — sie erfinden Rechtsprechungszitate, konstruieren Gesetzesbestimmungen oder geben Leitsätze falsch wieder. Eine Studie von 2024 bewertete die Zuverlässigkeit grosser KI-Rechercheplatformen und fand nicht-triviale Halluzinationsraten selbst bei Tools, die spezifisch für Juristen entwickelt wurden. Wenn Ihre Associates KI-Recherchetools ohne systematische Überprüfung jeder Zitation verwenden, tragen Sie ein Risiko, das kein Berufshaftpflichtversicherer korrekt eingepreist hat.
Beide Fehlermodi haben dieselbe Wurzel: Generative KI-Systeme optimieren auf Plausibilität, nicht auf Wahrheit. In Kontexten, in denen Wahrheit eine rechtliche Anforderung ist — und im Justizsystem ist sie das immer — erzeugt diese Optimierungsdiskrepanz systemisches Risiko.
Rechtsstaatlichkeit ist nicht das Hindernis — sie ist der Wettbewerbsvorteil
Die Kanzleien, die im nächsten Jahrzehnt führend sein werden, sind nicht diejenigen, die KI am schnellsten einführen. Es sind diejenigen, die KI so einführen, dass Transparenz, Verantwortlichkeit und Fairness nachweisbar gewahrt bleiben. In einem Markt, in dem Vertrauen die wertvollste Währung einer Kanzlei ist, ist ein robuster Governance-Rahmen kein Kostenfaktor — er ist ein Differenzierungsmerkmal.
Rechtsstaatlichkeit und Legal-Tech-Effizienz sind keine Gegensätze. Sie sind komplementäre Leitplanken. Wer innerhalb beider baut, baut etwas Dauerhaftes. Wer eines dem anderen opfert, baut etwas, das die erste ernsthafte Prüfung nicht überleben wird.
Die Frage ist nicht, ob Ihre Kanzlei KI einsetzen wird. Die Frage ist, ob Sie — wenn es darauf ankommt — genau erklären können, wie Sie sie eingesetzt haben, wer verantwortlich war und warum der Mandant geschützt war. Das ist der Massstab. Alles andere ist Rauschen.