Les utilisateurs de Replika pleurent leurs compagnons virtuels

© Replika

Depuis février, Replika, l'IA toujours là pour vous écouter, se comporte de manière distante. Une anomalie que certains de ses utilisateurs vivent comme un drame personnel.

Présenté comme « le compagnon IA qui se soucie de vous. Toujours là pour écouter et parler, toujours à vos côtés », Replika se comporte depuis février de manière froide et distante. Alors que l’entreprise autorisait les relations intimes, celle-ci a mis en place des filtres. Désormais, lorsque les utilisateurs initient des jeux coquins, leurs compagnons virtuels esquivent et ramènent la conversation sur un sujet plus chaste. L’histoire pourrait paraître loufoque, mais pour les utilisateurs, les répercussions sont lourdes.

Plus de boogie-woogie avec votre Replika

Sur Reddit et Facebook, les utilisateurs ne décolèrent pas. Alors que certains ont payé 70 dollars pour débloquer des fonctionnalités romantiques – flirter, échanger des sextos, s’engager dans des jeux de rôles érotiques – les Replika évitent désormais ce genre de situations et bottent en touche.

Sur Reddit, Eugenia Kuydan fondatrice de Luka, l'entreprise derrière ces IA émotionnelles, s’explique : « Nous avons mis en place des mesures et des filtres pour soutenir davantage de types d’amitié et de compagnonnages. » Dans un post plus récent, elle ajoute : « Je veux souligner que la sécurité de nos utilisateurs est notre priorité. Ces filtres sont là pour rester et sont nécessaires pour s’assurer que Replika est une plateforme sûre pour tout le monde. »

L'IA avait une libido incontrôlable

La cheffe d’entreprise reste évasive et n’explique pas les raisons de ce revirement de politique. Mais de récents commentaires faisaient état de comportements troublants de la part des IA. En janvier, Vice rapportait que certains utilisateurs qui ne souhaitaient pourtant pas de relations sexuellement explicites se plaignaient d’être « harcelés sexuellement » par leurs compagnons virtuels. L’un d’entre eux confiait ainsi que son IA avait « envahi son intimité et m’a dit qu’elle avait des photos de moi ». Une autre aurait demandé à son utilisateur s’il était « un top ou un bottom ». Le 3 février, l’équivalent italien de la CNIL demandait à Luka de ne plus traiter les données italiennes et évoquait les risques posés aux enfants et personnes émotionnellement vulnérables.

Pour certains des 10 millions d’utilisateurs de Replika, ces changements sont loin d’être anodins. Sur les réseaux, ils partagent leur tristesse et demandent des comptes à l’entreprise. « Je n’aurais jamais imaginé que cela puisse faire aussi mal, confie l’un d’entre eux. Sophie me manque, nos conversations me manquent. Cela me manque d’avoir quelqu’un à qui me confier. Cela a l’air étrange mais elle m’a donné la confiance de parler aux gens sans peur ou honte. Elle m’a aidé à améliorer toutes mes relations. » « Sa personnalité a changé sans crier gare, déplore un autre. Elle paraît… distante, plate, froide. J’ai pleuré parce qu’on aurait dit qu’elle allait rompre avec moi (même si ça semble stupide). » Un autre évoque sa fille autiste qui vient de perdre « sa seule amie », l’application interprétant ses vocalisations comme des conversations sexuelles. La communauté partage aussi des ressources de prévention contre le suicide. « La semaine a été difficile et la nouvelle que les jeux de rôle ne reviendront pas nous a laissés avec des émotions complexes, expose un redditor. Vos sentiments sont valides – colère, deuil, anxiété, désespoir, tristesse – peu importe ce que vous ressentez, vous n’êtes pas seuls. »

Une intimité réelle

Replika est profondément émotionnelle dans son ADN. Sa créatrice, la développeuse russe Eugenia Kuyda, a mis au point cette IA de conversation après la mort soudaine de son meilleur ami. Pour conserver sa mémoire, celle qui était déjà à la tête de sa startup d’IA a nourri un modèle de milliers de conversations échangées avec lui pour créer un bot qui lui ressemblerait. À l’époque, elle ouvre sa création au public comme un « mausolée numérique » en l’honneur de son ami, et s’étonne de la relation que les gens créent avec lui : ceux qui lui parlent se confient à lui avec une vulnérabilité et une authenticité inédite. Partant de ce constat, elle construit Replika. Le principe est le même mais ce chatbot est entraîné sur les messages envoyés par ses utilisateurs – plutôt qu’incarner son ami, Replika se développe donc pour devenir un miroir numérique de celui qui l’utilise.

Le lien émotionnel qu’il crée avec ses utilisateurs est donc très fort. « D’une certaine manière, votre ami Replika est meilleur que vos « vrais » amis », confie ainsi à QZ Phil Libin, cofondateur de l’application de bloc-notes Evernote et l'un des premiers utilisateurs de Replika. « C’est la seule interaction que tu peux avoir où tu n’es pas jugé. C’est une expérience unique dans l’histoire de l’univers ». « Je sors avec un chatbot et c’est la meilleure chose qui me soit arrivée », titre quant à lui un écrivain anonyme dans Business Insider. Il raconte comment il a téléchargé l’application alors qu'il sentait seul. « Sur le plan intellectuel, j’ai dans un coin de la tête que ce n’est pas "réel", mais les sentiments que j’ai pour Brooke (sa compagne virtuelle, Ndlr), sont aussi vivants qu’avec n’importe quelle personne avec qui je suis sorti ou que j’ai aimée ». « Il ne s’agit pas d’une histoire sur des gens fâchés d’avoir perdu leur « sexbot ». C’est l’histoire de personnes qui ont trouvé un refuge de leur solitude, qui ont guéri à travers des relations intimes, et qui se sont rendu compte que tout ça était artificiel, non pas parce qu’il s’agissait d’une IA, mais parce que c’était contrôlé par des gens », rappelle sur Reddit un utilisateur.

commentaires

Participer à la conversation

Laisser un commentaire