Coexistence homme-robot
La Corée du Sud anticipe la coexistence homme-robot pour 2030. Le programme japonais Moonshot R&D vise des robots IA autonomes capables d'« apprendre, s'adapter et agir aux côtés des humains » d'ici 2050. Les cadres de protection de la vie privée pour ces systèmes doivent être conçus maintenant.
Un hôpital déploie un robot de soins qui analyse les expressions faciales, le ton de la voix et le langage corporel des patients pour adapter son comportement. Il ressemble à un animal de compagnie amical. Les patients lui parlent. Ils se confient à lui. Ils oublient — ou n'ont jamais compris — que chaque signal émotionnel qu'ils émettent est traité, stocké et potentiellement transmis à des tiers.
C'est un problème de protection des données qu'aucune bannière de cookies ne résoudra. Et il arrive bien plus vite que la plupart des services juridiques ne s'y préparent.
L'écart fondamental entre robots industriels et robots émotionnels
Les robots industriels opéraient derrière des grilles de sécurité. Ils soudaient, peignaient, assemblaient. Ils ne rencontraient jamais un visage humain, n'entendaient jamais une confidence, ne déclenchaient jamais de lien affectif.
La génération suivante est radicalement différente. Ces robots opèrent dans les hôpitaux, les domiciles, les centres commerciaux et les établissements de soins. Ils sont conçus avec des visages humanoïdes, des yeux expressifs et des voix calibrées pour sonner chaleureusement. Ils utilisent l'informatique affective — la capacité de détecter et d'interpréter les états émotionnels à partir de données biométriques : expressions faciales, patterns vocaux, démarche, posture et signaux physiologiques.
Le programme japonais Moonshot R&D vise des robots IA autonomes capables d'"apprendre, s'adapter, évoluer en intelligence et agir aux côtés des humains d'ici 2050". La Corée du Sud anticipe la coexistence homme-robot pour 2030. Dans le secteur de la santé, des robots dotés de reconnaissance émotionnelle sont spécifiquement développés pour renforcer l'autonomie des patients en réadaptation et en soins chroniques.
La recherche est sans équivoque : les personnes manquant de connexions sociales anthropomorphisent davantage les agents non humains, développent des relations d'attachement et divulguent plus librement des informations personnelles. Les choix de design qui rendent les robots plus chaleureux et engageants — précisément les caractéristiques qui améliorent la qualité de service — amplifient simultanément le risque pour la vie privée.
Ce que le RGPD et l'AI Act exigent concrètement
Dans le cadre réglementaire européen (qui influence directement la pratique suisse via les décisions d'adéquation et l'accès au marché), les robots émotionnels sont soumis à un ensemble d'obligations superposées.
Classification à haut risque. Selon l'annexe III de l'AI Act, les systèmes de reconnaissance des émotions sont classés comme IA à haut risque. Cela déclenche l'ensemble des exigences du chapitre III : systèmes de gestion des risques, gouvernance des données, documentation technique, obligations de transparence, supervision humaine, et normes de précision et de robustesse.
Transparence dès la première interaction. L'article 50 de l'AI Act exige que les utilisateurs soient informés qu'ils interagissent avec un système d'IA "de manière claire et distincte, au plus tard au moment de la première interaction ou exposition". Les deployers de systèmes de reconnaissance des émotions doivent en outre informer les personnes exposées du fonctionnement du système.
Données biométriques comme catégorie spéciale. Reconnaissance faciale, reconnaissance vocale, analyse de la démarche, suivi oculaire — tous les inputs standard des robots émotionnels — constituent des données biométriques au sens de l'article 4(14) du RGPD. Leur traitement relève du régime des catégories spéciales de l'article 9, interdit par défaut sauf consentement explicite ou autre exception de l'article 9(2).
Consentement éclairé, spécifique, libre. L'article 4(11) du RGPD définit le consentement comme "toute manifestation de volonté, libre, spécifique, éclairée et univoque". Le silence, les cases précochées ou l'inaction ne suffisent pas. Pour les données biométriques de catégorie spéciale, le standard est rehaussé : consentement explicite. Le responsable du traitement doit pouvoir démontrer que le consentement a été donné (article 7(1)).
Le paradoxe du consentement
Voici le problème structurel : le consentement au traitement des données par le robot est sollicité une seule fois, avant que la relation ne commence. Mais le risque pour la vie privée s'intensifie au fil du temps, à mesure que l'utilisateur développe un lien émotionnel avec le robot.
Un patient qui a donné son consentement éclairé le premier jour peut, trois mois plus tard, confier ses angoisses de santé au robot en présence de membres de sa famille — générant des données sensibles qui n'avaient jamais été envisagées dans le périmètre initial du consentement. Le cadre juridique présuppose un sujet rationnel et informé prenant une décision ponctuelle. La réalité psychologique est une relation qui s'approfondit progressivement, où les considérations juridiques passent au second plan.
Bill Gates prevoyait "un robot dans chaque foyer". Si cela se realise, il ne sera pas envisageable d'envoyer des juristes d'entreprise dans chaque menage pour recueillir le consentement. Les robots eux-memes doivent etre concus pour mener la communication relative au consentement et a la vie privee — une version avancee et incarnee du dialogue de consentement aux cookies.
Comment le faire sans le vider de son sens : c'est la question ouverte.
Communication proactive sur la vie privee : cinq outils qui fonctionnent
L'approche proactive du droit, préconisée par le Comité économique et social européen (CESE) pour une meilleure réglementation européenne, offre le cadre conceptuel. Au lieu d'une conformité réactive (texte juridique minimal, opacité maximale), elle se concentre sur la prévention et la promotion : concevoir la communication de sorte que les utilisateurs comprennent réellement leurs droits et puissent les exercer.
Appliquée aux robots émotionnels, cinq outils concrets émergent de la recherche en design de l'information.
1. Communication multicanale
Un robot n'est pas une page web. Il dispose d'une voix, d'un écran et de gestes physiques. La communication sur la vie privée devrait utiliser ces trois canaux simultanément.
Un robot de soins qui doit expliquer son traitement de données pourrait afficher une animation claire sur son écran montrant quelles données circulent, commenter l'animation oralement en langage courant, et utiliser des gestes physiques pour souligner les points essentiels. Ce concept s'inspire des "contrats en bande dessinée parlants" — des accords juridiquement contraignants conçus pour des personnes à littéracie limitée, combinant éléments visuels, textuels et auditifs.
L'idée clé : quand l'information est disponible par des canaux alternatifs, même les utilisateurs qui ne liraient jamais une politique de confidentialité peuvent faire des choix éclairés.
2. Langage clair
La communication juridique sur la vie privée verse par défaut dans le jargon juridique recouvert de terminologie technique. Pour les robots émotionnels, cette combinaison est létale pour la compréhension.
Le langage clair n'est pas un langage imprécis. Comme le soutient le spécialiste de la rédaction juridique Joseph Kimble, le langage clair est en réalité plus précis que la rédaction juridique traditionnelle, car il révèle les ambiguïtés et les erreurs que le style complexe tente de masquer. Le RGPD lui-même impose à l'article 12 "un langage clair et simple" — pourtant, la plupart des politiques de confidentialité se lisent comme si cet article n'existait pas.
Pour la communication robotique, chaque énoncé relatif à la vie privée — qu'il soit parlé ou affiché — devrait être rédigé à un niveau de lecture adapté au groupe d'utilisateurs le plus vulnérable anticipé.
3. Ton de la communication
Les documents juridiques adoptent presque universellement un ton formel, impersonnel, technique et légaliste. Ce ton décourage activement l'engagement. Les utilisateurs décrochent.
Les robots peuvent choisir un ton différent. Un robot de soins communiquant les options de confidentialité à un patient âgé devrait employer un ton chaleureux, respectueux et rassurant — non par volonté de manipulation, mais parce que c'est la seule manière dont l'information sera effectivement reçue. Le ton s'applique à la parole, au texte à l'écran et même aux gestes : une expression amicale renforce l'ouverture, tandis qu'un langage corporel trop formel peut signaler que l'information est sans importance.
4. Visualisation
Les politiques de confidentialité sont abstraites. Les risques sont hypothétiques. La visualisation les rend concrets.
L'écran d'un robot peut afficher un scénario animé : "Voici ce qui se passe quand je collecte vos expressions faciales. Les données vont ici. Elles sont conservées pendant cette durée. Ces personnes y ont accès." L'article 12(7) du RGPD envisage déjà des icônes standardisées pour les résumés de traitement. Les robots peuvent aller plus loin : des explications visuelles interactives qui s'adaptent en temps réel.
5. Personnalisation
Une communication uniforme sur la vie privée échoue parce que les utilisateurs ont des niveaux de littéracie, des capacités cognitives, des préférences linguistiques et des états émotionnels différents. Les mêmes capacités émotionnelles qui créent les risques pour la vie privée permettent aussi la solution : un robot capable de détecter la confusion, la frustration ou le désengagement d'un utilisateur peut adapter sa communication en conséquence.
Cela peut signifier : passer du texte à la voix, simplifier le langage, proposer une explication visuelle plutôt que verbale, ou marquer une pause pour demander si l'utilisateur a des questions. Le robot apprend des interactions au fil du temps et affine son approche.
Implications pour la Suisse
Pour les praticiens suisses, la pertinence est immédiate. La Loi fédérale révisée sur la protection des données (nLPD), en vigueur depuis septembre 2023, s'aligne étroitement sur les principes du RGPD en matière de consentement, de transparence et de minimisation des données. Les prestataires de santé suisses déployant des robots de soins sont soumis à la fois à la nLPD et aux exigences sectorielles de protection des données des patients.
La portée extraterritoriale de l'AI Act européen signifie que toute entité suisse dont les robots dotés d'IA affectent des personnes dans l'UE doit se conformer. Compte tenu de la poursuite par la Suisse de l'équivalence en matière de protection des données avec l'UE, l'approche proactive décrite ici n'est pas du sur-perfectionnement — c'est le socle de préparation.
Et concrètement : si votre client déploie des robots dans des environnements de soins, hospitaliers ou de commerce de détail, le design de la communication sur la vie privée n'est pas un travail de finition à confier au département informatique. C'est un défi de legal design qui requiert la collaboration entre équipes juridiques, UX, design de l'information et ingénierie dès le premier jour.
Ce que vous devriez faire maintenant
Les robots émotionnels à grande échelle ne sont pas encore là. Mais le cadre réglementaire est déjà en place, et les décisions de conception prises aujourd'hui détermineront si les déploiements futurs seront conformes ou dangereusement exposés.
Trois actions pour les equipes juridiques conseillant des entreprises technologiques ou des deployers :
Auditez le design de communication des robots de vos clients. Si la communication sur la vie privée se résume à un mur de texte sur un écran, elle ne respecte pas l'exigence de langage clair du RGPD et échouera certainement auprès des populations vulnérables. Exigez une communication multicanale, en langage clair et visualisée comme exigence de conformité — pas comme un supplément agréable.
Cartographiez le cycle de vie du consentement. Un consentement unique est juridiquement fragile quand la relation utilisateur-robot évolue sur des mois. Concevez des mécanismes de consentement qui peuvent être révisés, réactualisés et reconfirmés à mesure que la relation s'approfondit et que le périmètre de traitement change.
Traitez le risque d'anthropomorphisme explicitement. Si votre client conçoit délibérément des robots chaleureux, empathiques et engageants — et il devrait le faire pour des raisons d'utilisabilité —, alors la communication sur la vie privée doit être proportionnellement plus robuste. Plus le design génère de confiance, plus le mécanisme de consentement éclairé doit être solide.
L'écart entre ce que le droit exige et ce que la pratique actuelle délivre est large. Le design proactif de la communication sur la vie privée est la manière de le combler — avant que le régulateur ou le demandeur ne le fasse à votre place.