Votre petite amie pourrait ne pas être réelle

ad

L’intelligence artificielle, ou IA, pourrait être capable de générer ses propres œuvres d’art, sa prose et même sa musique, mais elle pourrait également être en mesure de remplacer vos partenaires romantiques.

Un influenceur a trouvé un moyen d’utiliser l’IA pour devenir la petite amie de plus de 1 000 personnes, en utilisant un chatbot vocal qui est un quasi-clone d’elle-même.

Caryn Marjorie, une influenceuse de 23 ans avec 1,8 million d’abonnés sur Snapchat, facture à ses abonnés jusqu’à 1 $ par minute pour interagir avec son moi numérique, CarynAI. Formé par des milliers d’heures d’enregistrements de la vraie Marjorie, CarynAI de la société d’intelligence artificielle Forever Voices est capable de l’imiter de manière convaincante, jouant le rôle de petite amie virtuelle pour les clients de Marjorie en discutant de projets futurs, en partageant des sentiments intimes et parfois même en flirtant. sexuellement.

Selon FortunesCarynAI a été initialement lancé sur l’application Telegram en tant que test bêta privé sur invitation uniquement, mais sera bientôt disponible pour le grand public. Newsweek a demandé à Forever Voices un commentaire par e-mail.

Alors, pourquoi les partenaires de l’IA pourraient-ils être un futur baume pour les personnes seules à travers le monde, rappelant l’IA Samantha du film de Spike Jonze Son?

“Les recherches existantes sur les motivations derrière l’utilisation de chatbots ou de robots révèlent que bon nombre de ces motivations s’alignent sur celles d’avoir des relations avec des humains. Les gens recherchent souvent ces technologies comme compagnons ou pour vivre de nouvelles expériences sexuelles et romantiques. Il est important de noter que Contrairement à la croyance populaire, la solitude ne semble pas être un facteur majeur associé à l’utilisation de ces produits”, a déclaré Joris Van Ouytsel, professeur adjoint de communication interpersonnelle numérique à l’Arizona State University. Newsweek.

“Il y a quelques années, mon collègue et moi avons mené une étude exploratoire dans laquelle nous laissions les participants s’engager dans des conversations sexuellement explicites avec un chatbot. Il convient de noter que le chatbot utilisé dans notre étude n’était pas aussi avancé que les chatbots actuels basés sur l’IA. Nous a divisé les participants en deux groupes : un groupe a été informé qu’il discutait avec un humain, tandis que l’autre groupe a été informé qu’il discutait avec un chatbot (les deux discutaient en fait avec un chatbot)”, a-t-il déclaré.

Étonnamment, ils n’ont trouvé aucune différence significative entre les deux groupes en termes de plaisir, d’excitation ou de réponse émotionnelle.

“Cela implique que pendant les conversations de sexto, que l’on interagisse avec un chatbot ou une personne peut ne pas avoir d’impact substantiel sur l’expérience globale”, a déclaré Van Ouytsel. “Cependant, les participants ont exprimé la nature irréaliste et artificielle des messages du chatbot. Cela suggère que la qualité des messages, comme leur rythme ou leur ton, plutôt que la conscience de la frustration d’interaction avec un robot, peut affecter de manière significative notre expérience lorsque en utilisant ces types de produits. Comme les chatbots actuels sont de nature très réaliste, les gens peuvent vraiment apprécier les conversations autant qu’avec un humain.”

La raison pour laquelle nous sommes attirés par l’interaction avec des chatbots comme celui-ci, même si nous savons qu’ils ne sont pas une vraie personne, est probablement liée à notre tendance à anthropomorphiser ou à projeter des qualités humaines sur des objets non humains.

“C’est un risque réel avec certains des outils d’IA génératifs : ils peuvent facilement s’attaquer à cette tendance”, a déclaré Nir Eisikovits, professeur de philosophie et d’éthique à l’UMass Boston. Newsweek. “Si vous combinez cette tendance qui est la nôtre avec des technologies qui sonnent et semblent humaines (disons chatGPT et un faux profond formé sur des heures de vidéo réelle, ou chatGPT et un véritable robot Ameca qui a des expressions faciales crédibles), vous regardez certainement les gens développer attachements à des entités non humaines. Nous sommes connus pour humaniser les voitures, les animaux domestiques, les tempêtes, etc. Imaginez à quel point nous pouvons nous attacher à des objets non humains qui se comportent réellement comme des humains.

Si la romance de l’IA se répand, cela pourrait être un marché en plein essor. CarynAI a déjà généré 71 610 $ dans sa phase bêta et espère gagner 5 millions de dollars par mois, en supposant que 20 000 de ses 1,8 million de fans deviennent des clients payants.

Cependant, l’adoption et la portée de ces technologies seront considérablement influencées par la stigmatisation liée à l’utilisation de compagnons virtuels.

“Actuellement, il existe des stigmates sociaux associés à l’établissement de relations avec l’IA”, a déclaré Van Ouytsel. “Cependant, si cette stigmatisation diminue dans les années à venir, nous pouvons nous attendre à une adoption plus large de ces technologies. Semblable à la façon dont les rencontres en ligne étaient autrefois taboues mais sont progressivement devenues plus acceptées, nous pourrions assister à un changement similaire dans les attitudes envers l’IA dans le dans un avenir proche. Ce changement pourrait entraîner une expansion du marché et une adoption accrue par les utilisateurs. »

De plus, on craint que cette forme de partenaire d’IA ne soit pas entièrement éthique et puisse amener ceux qui les utilisent à se faire des idées malsaines sur ce qu’est réellement une relation.

“L’un des éléments les plus préoccupants est la marchandisation des relations à l’aide d’outils d’IA. À mesure que la crise de la solitude s’aggrave, les entreprises continueront de voir cela comme un marché à combler avec des solutions temporaires telles que des partenaires d’IA”, a déclaré Alec Stubbs, un boursier postdoctoral. en philosophie et technologie à UMass Boston, a déclaré Newsweek.

“Une autre façon dont cela est décourageant est que cela nous donne un faux sentiment de contrôle sur ceux avec qui nous sommes en relation. Je crains que nos relations avec les partenaires de l’IA ne reflètent des relations malsaines fondées sur le contrôle et la domination. Le partenaire de l’IA peut être programmé pour répondre à des besoins spécifiques et non à d’autres. Il peut être programmé pour servir uniquement et ne jamais exiger. nous est dû. La réciprocité est la pierre angulaire des relations humaines », a déclaré Stubbs.

Il a poursuivi: “Une autre inquiétude est que nous en venons à considérer les partenaires de l’IA comme des substituts plutôt que comme des compléments à nos relations avec les humains et d’autres créatures sensibles. Ce faisant, nous risquons potentiellement de considérer les relations avec les créatures sensibles comme des rues à sens unique, qui le but d’une relation est de satisfaire mes désirs et mes désirs personnels. En vérité, nous sommes liés les uns aux autres de manière complexe, et nos relations nécessitent de la coopération, de l’engagement, l’arbitrage de désirs concurrents et l’élévation des projets de vie des autres.

Avez-vous une astuce sur une histoire scientifique qui Newsweek devrait couvrir? Vous avez une question sur l’IA ? Faites-le nous savoir via science@newsweek.com.

Articles Liés

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisement -

Derniers articles