Des adultes finlandais
portent un défaut de paiement enregistré — et à travers l'UE, des millions de ménages ont emprunté pour couvrir leurs dépenses courantes pendant la pandémie
Le surendettement n'est pas un problème marginal. En Finlande, près de 8% des adultes portent un défaut de paiement enregistré. À travers l'UE, des millions de ménages ont dû emprunter pour couvrir leurs dépenses courantes pendant la pandémie. En Suisse, le système LP (loi sur la poursuite pour dettes et la faillite) traite chaque année des centaines de milliers de dossiers de recouvrement — et les chiffres continuent de grimper, particulièrement chez les jeunes adultes piégés dans des cycles de crédit instantané et de dépenses d'abonnement.
L'infrastructure juridique conçue pour y répondre — procédures judiciaires de désendettement, faillite personnelle, protection des consommateurs — a été pensée pour un monde de banques physiques et de dossiers papier. Elle laisse une grande partie de la population endettée sans accès réel à un allègement. Et l'écart entre ceux qui ont besoin d'aide et ceux qui en reçoivent est précisément le type de problème que l'IA générative pourrait réduire.
L'écart de justice est un problème de conception
La plupart des systèmes européens de réhabilitation des dettes partagent un défaut structurel : ils filtrent les débiteurs « méritants ». En Finlande, la loi sur l'ajustement des dettes d'une personne physique (57/1993) exige que l'insolvabilité résulte de circonstances « dont le débiteur n'est pas principalement responsable ». Le crédit à la consommation — la catégorie qui croît le plus rapidement — en a traditionnellement été exclu. Ce cadrage moralisant n'est pas propre à la Finlande. Dans toute la région DACH, le surendettement est stigmatisé, et les voies formelles de réhabilitation sont verrouillées par des critères d'éligibilité qui excluent bon nombre de ceux qui en ont le plus besoin.
Le résultat est un déficit de justice. Les personnes qui ne remplissent pas les conditions pour accéder aux procédures judiciaires doivent gérer le remboursement seules, parfois pendant 20 à 25 ans. Le conseil en matière de dettes existe — les services de conseil en désendettement en Suisse, les Schuldnerberatungsstellen en Allemagne — mais ces services sont sous-dotés et rarement personnalisés. Les données du World Justice Project confirment ce que les praticiens savent déjà : la plupart des personnes cherchant des conseils pour leurs problèmes financiers et juridiques déclarent ne pas avoir reçu une aide suffisante.
Pourquoi la science comportementale compte ici
Ce n'est pas seulement un problème d'architecture juridique. C'est un problème comportemental. La recherche montre de manière constante que le surendettement est alimenté par une interaction complexe de conditions socio-économiques, de facteurs psychologiques et de pressions environnementales — et non simplement par des « dépenses irresponsables ».
Le modèle COM-B, développé par Michie, Atkins et West, offre un cadre utile. Il pose que pour tout changement de comportement, trois conditions doivent être remplies simultanément :
- Capacité (Capability) : La personne a besoin de connaissances et de compétences — littératie financière, compétences budgétaires, compréhension des conditions de crédit.
- Opportunité (Opportunity) : Les conditions externes doivent soutenir le comportement — accès à l'information, temps, soutien social et outils appropriés.
- Motivation : La personne doit disposer d'une motivation intrinsèque ou extrinsèque suffisante — attitudes positives, autorégulation, résilience émotionnelle.
L'éducation seule ne modifie pas le comportement financier à long terme. La recherche est claire sur ce point. Ce qui fonctionne, c'est une intervention soutenue et personnalisée qui traite les trois dimensions — et c'est exactement ce qu'un coaching par IA pourrait offrir.
Ce que les coachs financiers IA savent déjà faire
La technologie n'est pas hypothétique. Une gamme d'outils financiers pilotés par l'IA existe déjà :
- Budgétisation et analyse des dépenses : YNAB, Empower, MoneyWiz — des applications qui utilisent l'IA pour catégoriser les dépenses et identifier les possibilités d'économie.
- Consolidation de dettes : Anyfin, Bright — des services qui regroupent plusieurs dettes et négocient des taux d'intérêt réduits.
- Négociation automatisée : Haggle It (Cleo) — un bot qui négocie avec les créanciers au nom de l'utilisateur.
- Amélioration du score de crédit : Experian Boost, DebtBusters — des plateformes qui aident les utilisateurs à construire un meilleur profil de crédit.
- Éducation financière : Zogo, MoneyMasters — des parcours d'apprentissage adaptatifs basés sur la situation financière et la progression de l'utilisateur.
- Robo-conseillers : Betterment (US, conseiller en investissement enregistré auprès de la SEC), Simplewealth (CH, robo-conseiller suisse) — gestion algorithmique de portefeuille.
Ce qui manque dans ce contexte, c'est un outil IA complet, soutenu par l'État ou par des organisations à but non lucratif, conçu spécifiquement pour les personnes surendettées — un outil qui combine budgétisation, orientation juridique, coaching comportemental et intégration avec les procédures de poursuite existantes.
Les auteurs de la recherche sous-jacente ont construit un prototype appelé « Finance Friend » avec le GPT Builder d'OpenAI. Leurs tests ont montré que même un outil simple basé sur GPT-4 pouvait fournir un accompagnement financier global, traduire des conditions de crédit complexes en langage clair, offrir des analyses de dépenses personnalisées et créer un environnement d'interaction motivant. L'outil a également fait preuve de sensibilité dans les situations de détresse aiguë, fournissant des conseils détaillés couvrant la revue des dépenses, les stratégies de revenus et la négociation avec les créanciers.
Le cadre réglementaire : l'AI Act rencontre les services financiers
Pour les professionnels du droit qui conseillent dans ce domaine — qu'il s'agisse d'institutions financières, de startups fintech ou d'organismes du secteur public — l'intersection réglementaire est complexe et lourde de conséquences.
AI Act de l'UE (2024/1689) : Les systèmes d'IA utilisés pour l'évaluation de la solvabilité sont classés à haut risque au titre de l'Annexe III. Un outil de coaching financier qui évalue la capacité de paiement d'un utilisateur ou recommande des stratégies de restructuration de dettes peut déclencher des exigences d'évaluation de conformité, selon sa conception. Le règlement impose la transparence, la supervision humaine et des obligations de documentation pour les fournisseurs et les déployeurs de systèmes à haut risque.
DSP2 et finance ouverte : La deuxième directive sur les services de paiement permet déjà l'accès de tiers aux données de comptes bancaires avec le consentement du client. La DSP3 proposée et le règlement sur l'accès aux données financières (FIDA) étendront ce cadre. Ces instruments créent l'infrastructure technique et juridique permettant aux coachs IA de s'intégrer avec les données financières réelles — mais soulèvent également d'importantes questions de protection des données.
LPD suisse (nLPD) : Pour les déploiements en Suisse, la loi fédérale révisée sur la protection des données s'applique indépendamment des règles de l'UE. Le profilage à risque élevé — un concept propre au droit suisse — peut être déclenché par des outils IA qui analysent le comportement financier pour générer des recommandations. La structure des sanctions vise les individus, pas les entités, avec des amendes pouvant atteindre CHF 250 000.
CHF 250 000
Amende max. LPD
Par personne responsable, pas par entité
Art. 53
Obligations AI Act fournisseurs
Documentation, transparence, conformité droits d'auteur
Annexe III, pt. 5
Classification haut risque
IA évaluant la solvabilité ou l'accès aux services essentiels
La confiance est le goulot d'étranglement
La technologie pour construire des coachs financiers IA efficaces existe aujourd'hui. La science comportementale pour les concevoir correctement est mature. Les cadres réglementaires — bien que complexes — restent praticables. La véritable contrainte est la confiance.
Les utilisateurs en détresse financière sont vulnérables. Ils sont précisément la population la plus susceptible d'être manipulée par des dark patterns et un design prédateur. Un coach IA qui utilise les connaissances comportementales pour pousser les gens vers des produits financiers spécifiques, plutôt que de soutenir véritablement leur rétablissement, causerait un préjudice grave. Les auteurs du chapitre citent à juste titre Dorresteijn et Verbeek : « Le bien-être ne survient que lorsque les utilisateurs des technologies ont la possibilité de formuler leurs propres réponses à la question de la vie bonne. »
Construire une IA digne de confiance dans ce domaine exige plusieurs éléments non négociables :
- Transparence sur les limites. L'outil doit clairement indiquer ce qu'il peut et ne peut pas faire, et orienter les utilisateurs vers des professionnels humains pour les décisions complexes.
- Aucun conflit d'intérêts commercial. Si l'outil recommande un produit financier, l'utilisateur doit comprendre qui en bénéficie.
- Protection de la vie privée dès la conception. Les données financières figurent parmi les catégories les plus sensibles. Le traitement doit être conforme au droit applicable de la protection des données, et les principes de minimisation des données doivent être appliqués architecturalement.
- Supervision humaine. Les recommandations à enjeux élevés — propositions de restructuration, négociations avec les créanciers — doivent inclure une revue humaine.
- Explicabilité. Les utilisateurs doivent pouvoir comprendre pourquoi une recommandation a été formulée.
Ce que cela signifie pour votre pratique
Si vous conseillez des institutions financières, des entreprises fintech ou des organismes publics dans la région DACH, trois évolutions méritent votre attention :
Les banques comme développeurs naturels. Les banques détiennent les données financières de leurs clients et ont un intérêt commercial direct dans le rétablissement financier de ceux-ci. Sous DSP2/DSP3, les tiers peuvent également accéder à ces données avec consentement. La question n'est pas de savoir si des coachs financiers IA émergeront dans le secteur bancaire, mais comment ils seront réglementés et si vos clients sont en mesure de les construire ou de les déployer en conformité.
L'opportunité du secteur public. Aucune solution IA portée par l'État ne fournit actuellement un soutien intégral et personnalisé à la réhabilitation des dettes. C'est une lacune que des partenariats public-privé pourraient combler — mais seulement avec une attention minutieuse aux contraintes réglementaires exposées ci-dessus.
Questions de responsabilité. Lorsqu'un coach IA fournit des conseils menant à des résultats financiers défavorables — un utilisateur suit un budget recommandé qui s'avère insoutenable, ou négocie avec des créanciers sur la base de conditions générées par l'IA qui sont erronées — la question de la responsabilité reste ouverte. La responsabilité du fait des produits, la responsabilité professionnelle et les cadres contractuels doivent tous être actualisés.
L'intersection entre IA, science comportementale et réhabilitation des dettes n'est pas un sujet de niche. Elle touche à la réglementation financière, à la protection des données, au droit de la consommation et à l'accès à la justice. Pour les professionnels du droit qui opèrent dans cet espace, l'opportunité est de façonner la conception de ces outils — plutôt que d'en plaider les conséquences après leur défaillance.