Comment les IA génératives contrôlent nos émotions
IA génératives : le contrôle de nos émotions

De plus en plus, nous déléguons aux intelligences artificielles la gestion de nos affects. Que cela signifie-t-il de confier à des machines l'établissement des normes sociales ? L'éclairage de la neuroscientifique Nadia Gerouaou.

La conformation de nos affects

Si ces IA conversationnelles nous sont devenues familières, elles ne sont que l'avant-garde de technologies plus intrusives. Déjà, dans les centres d'appels, des systèmes effacent en temps réel la colère dans la voix des clients mécontents ou injectent artificiellement un sourire dans celle des téléopérateurs. La visée, selon les entreprises, serait de soulager le travail émotionnel des opérateurs et d'augmenter le bien-être de leurs employés.

Avec les IA génératives, le masque social devient algorithmique. Appliqué automatiquement, sans conscience des règles qu'il impose ni des normes qu'il véhicule, il contribue à conformer nos affects avec les exigences de performance ou de « lissage relationnel » de nos sociétés. Si l'on parle beaucoup de la délégation de nos capacités cognitives – mémoire, langage – aux systèmes d'IA génératives et de ses effets, on interroge encore trop peu celle de notre expressivité émotionnelle.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Pourtant, les technologies « IAffectives », telles que je propose de les nommer, sans même être encore implantées dans nos cerveaux, ont un potentiel de façonnement, dit anthropotechnique, qu'il convient de questionner et de décrire : celui de notre sensibilité à nous-mêmes, aux autres et au monde. De ce qui nous touche et nous indigne également.

La domestication algorithmique des affects : un enjeu de pouvoir

Le contrôle des émotions est un enjeu de pouvoir. Les technologies à qui on le délègue sont en cela de véritables instruments de gouvernementalité des individus – des technologies de domestication émotionnelle. Cela doit nous amener à nous questionner : qui verrait son discours, ses revendications tus par le mute algorithmique ? Et, bien évidemment, qui décide de ce qu'est une émotion acceptable et pour qui ?

La colère est un bon exemple, car sa légitimité est, entre autres, genrée. La journaliste Rebecca Traister rappelle comment, en 2016, les moindres signes d'humeur d'Hillary Clinton furent raillés, là où les emportements de ses concurrents masculins, dont Donald Trump, relevaient de la saine colère. Pour les Américains, presque rien n'est aussi répugnant chez une femme que l'expression de la colère, écrit-elle. La généralisation des technologies de contrôle émotionnel risque d'automatiser cette disqualification, durcissant par-là les régimes d'affects existants et privant ces voix de leur place dans l'espace public. Elle contribuerait ainsi à ce qu'Alex Karp, PDG de Palantir, décrivait crûment en mars 2026 : l'affaiblissement par l'IA du pouvoir politique des femmes hautement qualifiées.

Les femmes ne sont pas les seules concernées. Gommer la colère pour « dépassionner » nos démocraties. Ce réflexe régulateur, né de l'opposition binaire entre émotion et raison, risque de marginaliser tout discours minoritaire qui puise sa force dans l'affect. Pourtant, l'expérience sensible n'est pas étrangère au registre de la raison. Elle est au contraire partie prenante d'une raison publique élargie, comme le souligne Myriam Revault d'Allones. Loin de la production massive et instrumentalisée des émotions, la philosophe en appelle à l'élaboration de « passions publiques » indispensables à notre existence démocratique. Un idéal politique collectif à rebours de la gouvernance aristocratique, espoir des élites techno-fascisante de la tech.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale

Chacun dans sa bulle affective, la fin des émotions communes ?

L'évocation du bien-être comme motif de contrôle des affects – pour Softbank, l'IA « sera un bouclier mental protégeant les opérateurs » – renforce l'idée que ces technologies puissent être considérées comme des anthropotechniques. Car ces dernières « contribuent au façonnement actif de l'espace qui protège la vie humaine contre les risques ambiants, transformant un monde qui nous dépasse fondamentalement en une résidence », selon la définition qu'en donne Sloterdijk. Ici, la neutralisation des affects « déplaisants » ou encore la complaisance systématique des chatbots qui abondent dans notre sens et flattent nos attentes, visent à créer des milieux au confort émotionnel d'une personnalisation sans précédent.

Le risque est alors de nous enfermer dans des sphères affectives hyperpersonnalisées. Or, les émotions ne sont pas que personnelles ou intimes ; elles sont, comme le souligne la neuroscientifique Lisa Feldman Barrett, des outils cognitifs collectifs. Elles servent de ciment social, stabilisant des attentes communes pour rendre le monde intelligible. Si les expériences affectives se fragmentent en bulles algorithmiques individuelles, les émotions pourront-elles encore jouer ce rôle ? Au-delà de l'hygiène psychique, la question est ici hautement politique. Car les affects sont indispensables à l'exercice de notre raison et de notre puissance d'agir collective.

Les changements techno-moraux : de l'option technologique à l'injonction morale

Au-delà de la fragmentation collective, ces technologies redessinent également le paysage moral de nos sociétés. Une nouvelle technologie apporte avec elle des possibilités inédites, mais elle interroge aussi les limites de ce qui est permis et de ce qui devient moralement exigible. Ces changements, dits « techno-moraux », transforment notre rapport au bien, au désirable ou à l'acceptable d'une manière souvent difficile à anticiper.

Par l'exercice d'une « médiation morale herméneutique », ces technologies transforment notre manière d'interpréter le monde. Ainsi, à force d'interagir avec des chatbots au registre émotionnel purement « positif », sans expérimenter aucune friction, nos attentes en matière d'interaction risquent de se conformer à ce modèle machinique – un phénomène de « robotomorphie », conceptualisé par le philosophe norvégien Sætra. Il précise que la façon dont nous traitons les autres repose sur la perception que nous en avons, et si la robotomorphie s'impose, nous pourrions, par exemple, être plus enclins à accepter la gouvernance technologique des humains. Le contrôle algorithmique des émotions pourrait-il alors devenir, sinon une obligation, une attente sociale très forte ? Serons-nous tenus d'adopter le style émotionnel policé des chatbots – désormais incapables de supporter un registre plus frictionnel ?

Au fond, si Michel Foucault nous a enseigné que les institutions disciplinaires façonnaient les corps, les technologies « IAffectives » ont aujourd'hui le potentiel de produire certains types de cerveaux. Nul besoin d'attendre les puces de Neuralink pour cela : le façonnement opère déjà par la structuration des environnements normatifs dans lesquels se déploie notre vie sensible. Dès lors, il nous faut anticiper ce qui s'apparente à une forme d'« impérialisme technologique sur notre sensibilité », moulant l'intime selon les standards « designés » par les tech bro de la Silicon Valley. Après des années d'investissement pour créer des émotions synthétiques et humaniser leurs technologies, ce sont désormais les émotions humaines qu'il s'agit de modeler. Quelles humanité et société pouvons-nous espérer en laissant cette matrice technologique dicter la grammaire de nos propres émotions ?