Dans quelle mesure vos contrats comblent-ils l'écart de mise en œuvre ?
0 questions
Livrable à partir de prompts structurés
L'écart de qualité entre un prompt bâclé et un prompt structuré est énorme — un prompt structuré produit un résultat qui constitue 80 % de votre livrable, tandis qu'un prompt non structuré produit un résultat que vous jetez.
Toute personne impliquée dans la gestion contractuelle connaît le problème, même si elle le nomme rarement : le fossé d'implémentation. Les contrats sont rédigés par des juristes pour des juristes — optimisés pour le règlement des litiges, pas pour le responsable d'entrepôt qui doit comprendre ce que signifient concrètement des « efforts commercialement raisonnables » pour la livraison de mardi.
Le résultat est prévisible. Les obligations ne sont pas ignorées par négligence, mais parce que le contrat est illisible pour ceux qui doivent l'exécuter. L'écart entre ce que le contrat stipule et ce qui se passe réellement sur le terrain n'est pas un manquement à la conformité. C'est un échec de conception de la communication.
La question qui compte désormais : l'IA générative peut-elle combler ce fossé ? La réponse, fondée sur des recherches récentes et des tests pratiques, est un oui nuancé — assorti de réserves que la plupart des éditeurs d'IA ne mentionneront pas.
Ce que coûte réellement le fossé d'implémentation
Dans une relation d'approvisionnement classique, le contrat repose dans un dossier. L'équipe opérationnelle travaille de mémoire, à partir de fils d'e-mails et de ce que la cheffe de projet a compris lors de la réunion de lancement. Les dispositions contractuelles relatives aux standards de livraison, aux obligations de documentation et aux procédures d'escalade sont effectivement invisibles.
Ce n'est pas un cas marginal. Une étude de WorldCC a montré que la déconnexion entre les termes contractuels et l'exécution opérationnelle est l'un des problèmes les plus persistants dans les relations commerciales. Le contrat est censé être un outil de gestion. En pratique, c'est un document qu'on signe et qu'on oublie.
Le coût est tangible : des litiges qui naissent non pas de la mauvaise foi, mais d'une méconnaissance sincère de ce qui a été convenu. Des défaillances de livraison qui auraient pu être évitées si la bonne personne avait connu l'obligation de notification enfouie dans l'article 14.3(b). Des dégradations relationnelles qui s'accumulent silencieusement jusqu'à devenir une réclamation formelle.
Ce que l'IA générative sait effectivement faire
Lorsqu'on demande à un assistant IA moderne — Claude, ChatGPT ou équivalent — d'aider à combler le fossé d'implémentation, les premiers résultats sont étonnamment pertinents. Claude et ChatGPT ont immédiatement identifié l'enjeu central : les contrats doivent être traduits d'instruments juridiques en guides opérationnels.
Voici ce que l'IA fait bien aujourd'hui :
Extraire et classer les obligations. Donnez à un assistant IA des conditions générales d'achat, et il identifiera de manière fiable quelles clauses créent des obligations de conservation de documents, lesquelles exigent une communication entre les parties, et lesquelles nécessitent un accord mutuel. Lors de tests pratiques avec des CGA réelles, ChatGPT a produit des résultats comparables à ceux d'un concepteur contractuel humain — avec la nuance importante qu'il a occasionnellement surinterprété certaines clauses (interprétant par exemple une obligation de confidentialité comme une « obligation de tenue de registres »).
Produire des guides adaptés aux différentes audiences. C'est ici que l'IA a véritablement impressionné. Lorsqu'on lui a demandé de réorganiser le contenu contractuel séparément pour des publics opérationnels, financiers et juridiques, ChatGPT a correctement identifié que les procédures de déchargement sécurisé relèvent du guide opérationnel, les conditions de crédit du guide financier, et le droit applicable du guide juridique. La capacité à filtrer le contenu contractuel par pertinence en fonction du rôle est une compétence significative.
Simplifier le langage sans en perdre le sens. L'IA fait cela bien depuis un moment via des outils comme Grammarly et DeepL Write. La nouvelle génération de modèles va plus loin : elle propose des titres de type FAQ, applique des structures en couches aux textes contractuels et produit des synthèses réellement lisibles.
Là où l'IA échoue discrètement
Les échecs sont plus instructifs que les réussites, car ils révèlent la frontière entre ce que l'IA peut traiter et ce qui lui échappe.
L'IA introduit des connaissances absentes du document. Dans un test, on a demandé à ChatGPT de créer un guide d'utilisation pour des conditions d'achat. Le résultat était impressionnant — mais il incluait également des conseils sur la manière d'accepter une commande, un sujet qui n'apparaissait nulle part dans le document original. Interpellé, ChatGPT a d'abord défendu son ajout comme fondé sur « les connaissances générales du droit des contrats », puis a progressivement reculé. La version finale comportait une formulation prudente : « selon certaines interprétations du droit des contrats, le fait de commencer à exécuter la commande peut parfois impliquer une acceptation. »
C'est la forme la plus dangereuse du problème d'hallucination pour les documents juridiques : l'IA n'invente pas d'absurdités. Elle invente des conseils juridiques plausibles qui peuvent être corrects ou non au regard du droit applicable. Un non-juriste lisant le guide n'aurait aucun moyen de distinguer les ajouts de l'IA des stipulations contractuelles réelles.
L'IA n'a pas accès aux savoirs tacites. Le sociologue Etienne Wenger a étudié le fonctionnement réel des services de sinistres d'assurance et a conclu que les procédures écrites ne sont qu'une composante du savoir opérationnel. Les communautés de pratique s'appuient sur des « relations implicites, conventions tacites, indices subtils, règles empiriques non formulées » — un savoir qui n'est jamais documenté. Quand l'IA reformule un contrat pour un usage opérationnel, elle n'a aucun accès à cette strate de connaissance. Elle ignore que dans votre organisation, l'équipe achats traite les notifications de force majeure de manière informelle avant d'escalader, ou que le standard qualité référencé à l'article 8 est interprété différemment sur le site de Hambourg et à Zurich.
L'IA ne perçoit pas l'ambiguïté stratégique. Une bonne rédaction contractuelle inclut parfois une imprécision délibérée — une clause laissée ouverte pour préserver une marge de négociation, ou un recours aux termes implicites de la loi qui favorisent l'une des parties. L'IA tentera de tout clarifier, car la clarté est ce pour quoi elle est optimisée. Un rédacteur contractuel expérimenté reconnaîtrait quand l'ambiguïté est intentionnelle et la laisserait intacte.
Le problème de la textualité
Un cadre utile issu de la linguistique textuelle — les sept critères de textualité définis par de Beaugrande et Dressler — aide à comprendre où se situent les limites de l'IA. L'IA maîtrise bien la cohésion (liens grammaticaux) et la cohérence (logique conceptuelle). Elle est convenable sur l'informativité (signaler ce qui est nouveau ou inhabituel) et la situationnalité (comprendre le contexte contractuel).
Mais elle peine avec l'intentionnalité et l'acceptabilité — la compréhension des attitudes stratégiques des parties vis-à-vis du texte. L'IA ne peut pas détecter de manière fiable quand une partie a formulé une clause pour créer un avantage, ou quand une formulation particulière signale la flexibilité par opposition à la rigidité. Ce sont précisément les aspects qui importent le plus dans l'exécution contractuelle, où la question n'est pas « que dit cette clause ? » mais « que signifie cette clause dans le contexte de notre relation commerciale effective ? »
Recommandations pratiques pour les équipes juridiques suisses et européennes
Si vous travaillez avec des contrats dans un contexte suisse ou européen, voici comment utiliser l'IA efficacement pour accompagner la mise en oeuvre — sans créer de nouveaux risques.
Utiliser l'IA pour le premier jet des guides contractuels, pas pour la version finale. Les listes d'obligations et les synthèses par audience générées par l'IA constituent un point de départ solide. Mais chaque résultat nécessite une relecture par quelqu'un qui connaît la relation commerciale concrète, le droit applicable et le contexte organisationnel.
Investir dans l'ingénierie de prompts. La différence de qualité entre un prompt simple (« résumez ce contrat ») et un prompt structuré (précisant le rôle, le contexte, la tâche, le format et les contraintes) est considérable. Fournissez à l'IA des informations explicites sur l'audience, le secteur d'activité et la juridiction applicable. Dans un contexte suisse, précisez si le CO suisse, la réglementation européenne, ou les deux, s'appliquent. Ne présumez pas que l'IA choisira d'elle-même le bon cadre juridique.
Utiliser le RAG pour le contexte organisationnel. Si votre organisation maintient une base de connaissances comprenant des politiques internes, des interprétations contractuelles antérieures ou des exigences de conformité, utilisez la génération augmentée par récupération pour donner à l'IA accès à ce contexte. Le fossé d'implémentation est en partie un problème de design de l'information, et le RAG aide l'IA à produire des résultats reflétant votre réalité organisationnelle spécifique plutôt qu'un savoir juridique générique.
Maintenir une couche lisible par les humains. L'IA assistant de plus en plus acheteurs et vendeurs dans la préparation et l'évaluation des contrats, le risque croît que les contrats soient optimisés pour le traitement automatique plutôt que pour la compréhension humaine. Résistez à cette tentation. Le fossé d'implémentation existe parce que les humains ne peuvent pas opérationnaliser ce qu'ils ne peuvent pas lire. Chaque contrat devrait conserver une couche lisible sans assistance IA — et cette couche devrait être la référence principale pour le personnel d'exécution.
Construire des documents contractuels multicouches. L'approche la plus efficace combine le texte juridique intégral avec des explications lisibles et des points d'action de haut niveau. L'IA est bien adaptée à la génération des couches d'explication et d'action, pour autant qu'un humain valide le résultat au regard des stipulations contractuelles réelles et du contexte commercial spécifique.
Et après ?
Les assistants IA deviendront inévitablement plus sophistiqués. Les modèles qui aujourd'hui exigent un prompting soigneux pour produire des guides contractuels utiles accompliront bientôt ces tâches avec moins d'intervention humaine. Mais la limitation fondamentale demeure : l'IA opère sur le savoir réifié — ce qui est couché par écrit — et les contrats existent dans un monde de savoirs tacites, d'histoire relationnelle et d'intention stratégique.
Les organisations qui tireront le plus grand bénéfice de l'IA dans l'exécution contractuelle sont celles qui la traiteront comme un outil de conception de la communication, pas comme un oracle juridique. Le fossé d'implémentation est fondamentalement un problème humain : les personnes qui doivent agir sur la base des stipulations contractuelles ne peuvent pas y accéder ou les comprendre. L'IA peut rendre ces stipulations plus accessibles. Elle ne peut pas remplacer le jugement nécessaire pour les appliquer en contexte.
Ce jugement — savoir ce qu'une clause signifie en pratique, pour cette relation, dans ce secteur, sous ce droit applicable — reste une responsabilité humaine. Et pour les professionnels du droit qui conseillent en matière de conception contractuelle, c'est là que réside la véritable valeur ajoutée.