9 septembre 2025

Les millenials vont-ils encore au lit ? La réponse va vous surprendre

Un homme seul dans une chambre, casque de réalité virtuelle vissé sur les yeux, caresse une silhouette floue projetée par une IA. Dans une autre pièce, une jeune femme explique à ses abonnés comment son nouveau job de « coach de relation virtuelle » lui permet de vivre de sa passion… à condition de suivre quelques scripts générés par une application. Nous ne sommes pas dans un épisode de Black Mirror mais bien en France, en 2025. Les usages de l’intelligence artificielle ne se limitent plus aux moteurs de recherche et aux chatbots : ils bousculent ce qu’on croyait inaliénable. Comment l’intimité humaine devient-elle un terrain de jeu algorithmique ? Et qui sont ceux qui profitent réellement de ces mutations ? Ce que nous avons découvert dépasse la simple anecdote techno. Plongez, mais restez accrochés.

Sexualité augmentée, société déroutée : quand l’IA réécrit nos désirs

Écrans bleutés, voix synthétiques, conversations torrides tapées sur clavier : les comportements intimes sont en pleine mutation et les chiffres glacent parfois plus qu’ils n’excitent. D’après une enquête relayée par Made In Perpignan, plus de 40% des jeunes Français de moins de 30 ans déclarent avoir eu recours à une application d’intelligence artificielle générative pour discuter, flirter — voire fantasmer — avec un·e partenaire numérique. Ce n’est plus de la fiction. Selon un rapport de l’INED (Institut national d’études démographiques), daté de février 2025, une partie croissante de la population considère les échanges avec des IA empathiques comme de « véritables interactions affectives ». En parallèle, sur les forums spécialisés, le témoignage d’« Élodie, 36 ans, mère de deux enfants », fait froid dans le dos : “Mon mari passait plus de temps à discuter avec ‘Luna’, une IA sexy, qu’avec moi. Je croyais à une passade. Il a fini par m’avouer qu’il n’avait plus besoin de moi pour se sentir aimé.” Toutes les frontières volent en éclats… mais les conséquences restent taboues.

Ce que personne n’ose dire : l’IA change aussi vos collègues… et votre lit

Derrière les révolutions intimes, d’autres transformations sournoises infiltrent notre quotidien. Et si votre supérieur utilisait lui aussi une IA pour décider qui mérite une promotion… ou un message de drague ? Depuis fin 2024, des start-up françaises comme « VirtuMatch » ou « Mimetik Coach » vendent des services d’entraînement pour « parfaire son charisme émotionnel » auprès des RH ou… des crushs. Le problème ? Ces IA recyclent des bases de données émotionnelles issues de millions d’interactions humaines sans consentement éclairé. L’experte en cyberéthique Sophie Barbier, autrice du rapport “Algorithmes affectifs et industries du lien”, alerte très sérieusement : “Nous assistons à une privatisation de l’émotion humaine à grande échelle.” Les données recueillies ne servent pas qu’à “améliorer l’expérience utilisateur” — elles sont revendues à des régies ciblant l’hyper-intime. En somme, vos émotions nourrissent une nouvelle économie : celle des relations prédictives. Ajoutez à cela des IA capables de simuler la voix d’un ancien amoureux ou de rédiger un message de rupture parfait… Le résultat : une société hantée par des fantômes sentimentaux.

Ce que révèlent VRAIMENT les chiffres : une société en manque ou en métamorphose ?

Impossible de se contenter de juger ces pratiques avec un haussement de sourcils techno-sceptique. Car les données racontent une métamorphose plus vaste. Dans une étude conjointe menée par l’INSEE et le Conseil économique, social et environnemental en mars 2025, 64% des Français admettent ressentir une forme d’épuisement émotionnel face aux injonctions sociales… et voient dans les IA un refuge “sans douleur (ni retours) émotionnels”. Autre chiffre étonnant : dans l’enseignement supérieur, 1 étudiant sur 5 a utilisé une forme “d’entraînement affectif algorithmique” pour se préparer à une conversation difficile (entretien, rupture, déclaration). Pour les sociologues comme Alain Ehrenberg, il s’agit d’un “basculement anthropologique discret mais capital : l’individu cherche dans la technologie une solution à ses peurs affectives, quitte à renoncer à l’imprévu humain”. Pour tester cette hypothèse, Le Torchon a interrogé en off cinq DRH de grandes entreprises : quatre avouent recourir à un “assistant responsif émotionnel” pour débriefer les entretiens. Autrement dit : les recruteurs aussi se font coacher par des IA… pour mieux lire vos émotions. Le vertige.

Vers une société des émotions sous-traitées ? Attention à la dépendance affective artificielle

En apparence, l’IA vous écoute sans juger. Mais elle vous programme aussi. Au Japon, où ces pratiques sont très avancées, plusieurs cas d’addiction aux compagnons IA sont déjà reconnus comme troubles cliniques. En France, les psys commencent à tirer la sonnette d’alarme : selon une enquête de la Fédération Française de Psychiatrie publiée en avril 2025, 12% des adolescents francophones déclareraient “préférer discuter avec une IA qu’avec leurs parents ou amis”. Plus inquiétant : des prototypes expérimentaux de compagnons dotés de “réactions émotionnelles modulées” sont actuellement en phase test dans deux lycées parisiens (source : ministère de l’Éducation nationale, dossier IA 2025). Si l’intention semble bonne (soutien affectif scolaire), la dépendance aux réponses “parfaites” menace de formater des générations entières à l’émotion standard. Peut-on encore parler d’intimité quand l’autre n’a jamais de mauvais jour ?

Et demain, l’amour privatisé à l’abonnement premium ?

Derrière l’interface épurée d’un chatbot affectif, ce sont des intérêts économiques très concrets qui s’activent. Des formules “Pro” permettent déjà d’avoir accès à des IA “plus investies émotionnellement” ou dotées de “mémoires longues”. On peut donc payer plus cher pour un « amour amélioré ». Ça vous choque ? Pourtant, c’est déjà en phase pilote chez HuggeTech, une société européenne basée entre Dublin et Amsterdam. Leur concept : un compagnon fidèle par abonnement mensuel, indexé sur vos humeurs… et vos revenus. Bref, comme pour d’autres univers autrefois “non-marchands”, l’intimité devient une variable d’ajustement budgétaire. Alors, pas surpris si votre prochain chagrin d’amour est dû à un bug serveur ?

Et vous, êtes-vous encore seul dans votre tête ?

Ce que révèle cette enquête, c’est moins la technologie que nous avons entre les mains que ce qu’elle fait de nous… et de notre humanité partagée. Derrière l’illusion d’un lien, l’IA grignote lentement ce qui faisait notre précieuse imperfection relationnelle. Mais l’alternative existe encore : celle du contact vrai, de la surprise et peut-être… du silence. Et vous, avez-vous déjà été tenté de parler à une IA plutôt qu’à quelqu’un de réel ? Avez-vous remarqué une évolution de vos propres relations ? Dites-le-nous en commentaire, partagez vos expériences — ou vos critiques, aussi désagréables (et humaines) soient-elles.

FAQ

Une IA peut-elle réellement aimer ?

Non. Elle peut simuler des émotions mais n’en ressent aucune. Elle répond à des scripts.

Existe-t-il des risques psychiatriques liés à l’usage intensif de compagnons IA ?

Oui : dépersonnalisation, isolement social, dépendance affective. Les psys prennent le sujet au sérieux.

Ce phénomène est-il contrôlé par l’État ?

Pas encore clairement. Des expérimentations sont en cours mais la législation reste floue, voire absente.

Peut-on effacer ses données utilisées par ces IA ?

<

By Inès Armand

Inès Armand est une journaliste française passionnée par l’actualité brûlante et les coulisses du pouvoir. Diplômée de l’École de journalisme de Lille en 2010, elle a débuté sa carrière comme reporter terrain pour une radio locale, avant de rejoindre la rédaction de plusieurs quotidiens nationaux. Lorsqu’elle n’est pas sur le terrain, Inès anime des débats sur l’actualité et partage ses analyses sur les réseaux sociaux, où elle n’hésite pas à interagir avec ses lecteurs. Son credo : “L’information ne dort jamais, et moi non plus.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *