La numérisation de nos vies sociales et affectives par le biais des réseaux sociaux ou d’objets connectés va aller en s’amplifiant. Cette capture permet de construire des bases de données qui contiennent nos habitudes et réactions émotionnelles qui vont nourrir des systèmes apprenants (systèmes d’Intelligence Artificielle). La modélisation informatique des émotions ou affective computing regroupe trois technologies : la reconnaissance des émotions, le raisonnement et la prise de décision à partir de ces affects et la génération d’expressions émotionnelles. Ces technologies peuvent aider un système à interagir plus facilement avec les humains.

Pour les concepteurs de ces machines artificielles, les stratégies d’informatique affective qui simulent et identifient les émotions humaines sont nécessaires.  Cependant, cette perspective ne doit pas occulter la période actuelle où ces machines sont capables de reconnaître, de simuler, d’interpréter et de manipuler seulement quelques expressions émotionnelles, sans toutefois ni reconnaître correctement ni synthétiser réellement les émotions humaines.

La relation émotionnelle entre les humains et les machines est donc à sens unique, la machine calcule, l’humain raisonne et ressent. Par contre, ces machines peuvent être en mesure d’influencer les utilisateurs grâce à la détection de leurs comportements émotionnels et par le biais d’émotions simulées, même si elles n’ont pas la capacité de développer une relation affective avec les humains. L’Intelligence artificielle (IA) n’est pas neutre, il faut anticiper la profondeur des modifications qu’elle va induire dans nos rapports aux autres et à nous-mêmes et essayer de trouver les conditions d’exercer notre liberté de décision et notre intelligence collective en démocratie. Ces machines apprennent de nos données mais les décisions basées sur l’IA sont susceptibles d’être inexactes, de contenir des biais notamment de genre et d’être discriminante.

Qu’est-ce que le «nudge»?

La détection de nos comportements affectifs permet également de nous profiler et ainsi potentiellement de nous nudger. Le nudging, théorie du coup de pouce, est devenue une stratégie attrayante pour ceux qui construisent des systèmes d’IA et de robotique qui interagissent avec les gens, car elle peut donner aux concepteurs des moyens d’utiliser l’informatique affective pour modifier et interagir avec le comportement des utilisateurs humains du système.

Le terme « nudge » est une expression désormais courante qui a été développée dans le domaine de l’économie comportementale au milieu des années 90 et a été popularisée par Richard Thaler et Cass Sunstein dans leur livre, Nudge : Improving Decisions About Health, Wealth, and Happiness. Ces systèmes ne sont pour l’instant ni évalués, ni règlementés. Sommes-nous prêts à dialoguer, à confier notre intimité à des robots ou chatbots « empathiques » ? Une réflexion éthique est urgente sur la co-adaptation humain-machine et les risques à long terme. Des recherches pluridisciplinaires sur l’éthique de conception des IA et des normes et standards permettant l’audit de ces systèmes sont nécessaires. Il est crucial d’anticiper la façon dont ces nouvelles technologies vont durablement modifier nos connaissances, notre mémoire, nos modes de vie et également notre vie affective.

 

Laurence Devillers, professeure en IA et affective computing à Sorbonne Université/chercheuse au LISN-CNRS (Laboratoire interdisciplinaire des Sciences du Numérique), responsable de la chaire en IA HUMAAINE : HUman-MAchine Affective Interaction & Ethics au CNRS, Paris-Saclay. Ouvrages : « Des robots et des hommes » (Plon 2017), « Les robots émotionnels » (L’observatoire, 2020), Membre du CNPEN, du GPAI, co-pilote d’un groupe AFNOR sur l’éthique de l’IA.