Si votre cabinet utilise un outil d'IA pour l'analyse de contrats, la sélection de personnel ou la recherche juridique — et que vous exercez en Suisse ou en Allemagne — vous êtes déjà dans un cadre de conformité aux conséquences concrètes. Les dispositions relatives au risque élevé de la Loi IA de l'UE entrent en vigueur en août 2026. Pour les cabinets suisses servant des clients établis dans l'UE, une deuxième couche s'ajoute : la loi fédérale sur la protection des données (LPD révisée, en vigueur depuis le 1er septembre 2023) et le secret professionnel prévu à l'art. 321 du Code pénal suisse (CP). Ces régimes ne sont pas identiques — la conformité à l'un ne garantit pas la conformité à l'autre.
Deux cadres, pas un seul
Les cabinets allemands relèvent directement de la Loi IA de l'UE. Les cabinets suisses ont une double responsabilité :
- Loi IA de l'UE : S'applique si vous servez des clients résidant dans l'UE ou déployez des outils d'IA développés pour le marché européen — ce qui couvre pratiquement toutes les grandes plateformes d'IA juridique.
- LPD révisée (nLPD) : S'applique à toutes les activités suisses. La LPD n'est pas une copie du RGPD. Elle a sa propre structure pénale (jusqu'à CHF 250 000 par personne physique responsable, pas par entreprise) et son propre concept de "profilage à risque élevé" sans équivalent dans le RGPD.
- Art. 321 CP (secret professionnel de l'avocat, Anwaltsgeheimnis) : S'applique indépendamment du régime de protection des données applicable. La violation du secret professionnel est passible de jusqu'à 3 ans de privation de liberté et peut aussi déclencher une sanction pécuniaire dans le cadre général du droit pénal suisse. L'infraction suit les règles ordinaires de prescription du droit pénal suisse.
Un cabinet utilisant un outil d'IA hébergé aux États-Unis pour rédiger des documents de mandats peut déjà enfreindre l'art. 321 CP — avant même que la Loi IA de l'UE ne soit applicable.
Le cadre de classification en quatre niveaux
Risque inacceptable (interdit). Notation sociale par les autorités, IA exploitant des vulnérabilités psychologiques, identification biométrique à distance en temps réel dans des espaces publics. Aucun outil juridique ne doit toucher à cette catégorie — mais vérifiez que vos fournisseurs n'intègrent pas une technique interdite dans leur solution.
Risque élevé (Annexe III et Annexe II). La catégorie la plus importante pour les cabinets. Les systèmes à haut risque exigent des évaluations de conformité obligatoires, une documentation technique, une surveillance humaine et un enregistrement dans la base de données de l'UE avant tout déploiement.
Risque limité (obligations de transparence). Les chatbots et outils de contenu IA interagissant avec des humains doivent informer les utilisateurs qu'ils parlent à une IA. C'est là que se classent généralement les assistants de recherche juridique généralistes.
Risque minimal. Filtres anti-spam et moteurs de recommandation. Seules les règles générales de sécurité des produits et la protection des données applicable s'imposent.
Catégories à haut risque affectant la pratique juridique
Gestion de l'emploi et des ressources humaines (Annexe III, point 4). Tout système d'IA utilisé pour recruter, filtrer des candidats, évaluer des performances ou décider de licenciements est à haut risque. L'obligation incombe au déployeur — votre cabinet — pas seulement au fournisseur.
Administration de la justice et processus démocratiques (Annexe III, point 8). L'IA destinée à assister les autorités judiciaires dans la recherche des faits est explicitement visée. Les cabinets actifs en contentieux ou en conseil réglementaire doivent surveiller l'interprétation de cette catégorie par les autorités nationales.
Accès aux services essentiels (Annexe III, point 5). L'IA évaluant la solvabilité ou les risques d'assurance est à haut risque. Les cabinets conseillant des institutions financières doivent vérifier si des outils intégrés dans les flux de travail clients déclenchent cette classification.
Ce qu'exige la classification à haut risque
En tant que déployeur, votre cabinet doit :
- Réaliser ou vérifier une évaluation de conformité — et demander la déclaration de conformité à chaque fournisseur.
- Maintenir une documentation technique conforme à l'Annexe IV : objectif, architecture, provenance des données d'entraînement, métriques de performance.
- Mettre en place une surveillance humaine — le système doit permettre à une personne responsable de comprendre et de corriger les résultats.
- Enregistrer le système dans la base de données européenne pour l'IA à haut risque (art. 51).
- Établir un système de gestion des risques couvrant tout le cycle de vie (art. 9).
Les sanctions pour violation par le déployeur peuvent atteindre 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial.
€15M
Sanction maximale pour le déployeur
Ou 3 % du chiffre d'affaires annuel mondial
CHF 250K
Amende individuelle LPD
Par personne responsable, pas par entreprise
Art. 321
Régime suisse distinct du secret professionnel
Peut créer une exposition pénale avant même l'analyse complète de la Loi IA.
La dimension suisse : lignes directrices de la FSA et secret professionnel
Pour les cabinets suisses, la question de la Loi IA de l'UE s'inscrit dans une interrogation plus immédiate : l'utilisation de cet outil d'IA est-elle compatible avec l'art. 321 CP ?
La Fédération Suisse des Avocats (FSA/SAV) a adopté en juin 2024 des lignes directrices sur l'IA — le cadre de conformité le plus pratique pour les cabinets suisses. La FSA identifie trois voies pour utiliser des outils d'IA traitant des données de mandats :
- Déploiement interne ou local. L'IA fonctionne dans l'infrastructure propre du cabinet. Les données ne quittent jamais le réseau. Protection maximale, voie la plus claire.
- Externalisation conforme. Le fournisseur doit se qualifier comme personne auxiliaire (Hilfsperson) au sens de l'art. 321 CP. Le Tribunal fédéral a confirmé dans l'ATF 145 II 229 que les prestataires cloud peuvent en principe se qualifier — mais les exigences sont élevées. La sous-délégation est interdite ; les clauses limitant la responsabilité aux actes intentionnels et à la faute grave sont insuffisantes.
- Consentement éclairé du client. Le client renonce expressément à la protection. Le Tribunal fédéral a mis en doute la possibilité d'un consentement véritablement "éclairé" face à l'opacité des systèmes d'IA. Voie la plus fragile.
Aucun entraînement de modèle sur des données de mandats. Aucune donnée identifiable dans des LLM publics. Ce sont des limites absolues au titre de l'art. 321 CP, quel que soit le régime de protection des données applicable.
Liste de contrôle pratique en trois étapes pour août 2026
Étape 1 : Constituer un inventaire des outils d'IA. Lister tous les outils touchant aux données de mandats ou influençant des décisions juridiques ou RH — y compris l'usage individuel par les avocats (ex. : ChatGPT pour des projets). Noter : fournisseur, lieu d'hébergement (CH/UE/États-Unis), cas d'usage.
Étape 2 : Vérifier le statut de conformité de chaque fournisseur. Demander : (a) Ce système relève-t-il d'une catégorie à haut risque de l'Annexe III ? (b) Une déclaration de conformité est-elle disponible ? (c) Le contrat de traitement des données interdit-il explicitement l'entraînement du modèle sur les données des mandats ? L'absence de réponse est elle-même un signal de conformité.
Étape 3 : Désigner un associé responsable de la conformité IA. Ce n'est pas un rôle à temps plein — environ deux à trois heures par mois : examen des nouvelles demandes d'outils, mise à jour de l'inventaire, actualisation des modèles de contrats. Documenter la désignation par écrit.
Août 2026 approche. Les cabinets qui commencent maintenant seront en mesure de documenter leur conformité, de répondre aux exigences de due diligence des clients et d'éviter des risques d'exécution qui ne connaissent pas les délais européens.
Risques de sécurité LLM spécifiques à l'IA juridique
La plupart des plateformes d'IA juridique (CASUS, Harvey, Lexis AI, Omnilex) utilisent la génération augmentée par récupération (RAG) — l'IA récupère des documents pertinents dans une base de données, puis génère des réponses fondées sur ces sources. Cette architecture crée quatre vecteurs d'attaque qui dépassent les risques LLM standard :
- Exposition de la base vectorielle. Les vecteurs d'embedding encodent des informations sur les documents originaux. Un adversaire ayant accès au magasin vectoriel peut déduire des relations entre les affaires ou reconstruire partiellement le contenu des documents.
- Fuite des schémas de récupération. Les documents co-récupérés révèlent des associations sensibles — si l'interrogation d'un litige de travail d'un client co-récupère systématiquement un dépôt réglementaire spécifique, l'association elle-même constitue une information.
- Attribution documentaire. Les citations de sources dans les réponses de l'IA peuvent involontairement exposer des documents confidentiels à des utilisateurs qui ne devraient pas y avoir accès.
- Injection de prompt. Des entrées manipulées peuvent amener l'IA à contourner les contrôles de sécurité, à mal classifier des documents ou à extraire des informations d'autres affaires dans le même système.
La mesure d'atténuation pour les cabinets est spécifique : les contrôles d'accès doivent être par mandat, et non par utilisateur. Un avocat autorisé à utiliser l'outil de recherche ne devrait pas automatiquement avoir accès aux embeddings de chaque affaire de mandat dans la base de données du cabinet.
Droits de contestation des clients — une nouvelle obligation
En vertu de l'art. 86(1) de la Loi IA de l'UE, les individus ont le droit d'obtenir une explication du déployeur lorsqu'un système d'IA à haut risque "produit des effets juridiques ou les affecte de manière similaire et significative". Cela signifie que les clients doivent pouvoir contester les conseils juridiques, les évaluations de cas ou les évaluations de risques influencés par l'IA avec des "explications claires et significatives du rôle du système d'IA dans le processus décisionnel".
Pour les cabinets suisses, ce droit s'ajoute aux droits existants de l'art. 22(3) RGPD de contester les décisions automatisées. Concrètement, si l'outil d'IA de votre cabinet influence la stratégie de cas ou l'évaluation des risques, les clients concernés peuvent exiger de savoir comment l'IA a contribué à la recommandation — et la contester. Documentez le rôle de l'IA dans chaque affaire où elle influence matériellement les conseils.
Votre système d'IA juridique est-il classé à haut risque ?
0 questions
Liste de contrôle : conformité à haut risque de la Loi IA de l'UE
0/0Besoin d'aide pour classifier les outils d'IA de votre cabinet ? Prenez contact pour un examen structuré de la conformité.