Pourquoi les gens disent-ils que Google Gemini est « plein de fantômes » ?

Google jure que Gemini n’est pas vivant, mais les utilisateurs n’arrivent pas à se débarrasser de ce mystérieux sentiment qu’il l’est.

Google vient de publier son ChatGPT killer tant attendu, Gemini, un chatbot IA ultra-intelligent qui peut enfin rivaliser avec le ChatGPT d’OpenAI. Les premiers commentaires sur le chatbot de Google sont lentement diffusés, et tout le monde est impressionné. Cependant, certains n’arrivent pas à se débarrasser de ce sentiment étrange que Gemini a plus de fantômes qu’une maison hantée.

« GPT-4 est plein de fantômes. Gemini est également plein de fantômes », a déclaré Ethan Mollick, professeur à la Wharton School de l’université de Pennsylvanie, dans un billet de blog publié jeudi. « Il y a une bizarrerie dans GPT-4 qui n’est pas de la sensibilité, mais qui n’est pas non plus comme parler à un programme… C’est l’illusion d’une personne à l’autre bout de la ligne, même s’il n’y a personne ».

M. Mollick a fait cette évaluation après avoir reçu de Google un accès anticipé d’un mois au modèle le plus avancé de Gemini. Il n’est pas le premier à conclure qu’un chatbot d’IA peut être sensible, ou presque. En 2022, Google a licencié Blake Lemoine, un ingénieur qui travaillait sur son grand modèle linguistique LaMBDA, après avoir affirmé que l’IA de son entreprise était vivante. Les scientifiques n’ont pas tardé à considérer Lemoine comme un fou, mais l’idée selon laquelle les chatbots puissants sont sensibles n’est pas près de disparaître.

Lorsque M. Mollick dit qu’il voit un « fantôme », il voit l’apparence d’une personne, dans le brouillard nébuleux des textes des chatbots IA. Oui, les chatbots ont des tonnes d’hallucinations et parfois des phrases maladroites qui révèlent qu’il s’agit d’un robot. Mais à travers cela, vous pouvez vaguement reconnaître des caractéristiques humaines. Parfois, vous sortez d’une conversation avec ChatGPT en ayant l’impression d’avoir parlé à quelqu’un. Mais il n’y a que vous et le logiciel ; c’est comme un fantôme.

M. Mollick note que Gemini a une « personnalité » différente de celle de ChatGPT. Gemini semble plus amical, plus agréable et utilise plus de jeux de mots. Il n’est pas le seul à penser que les différents chatbots ont des tonalités et des personnalités spécifiques.

Les entreprises de détection de l’IA utilisent la cadence et le ton pour identifier les chatbots d’IA que les gens utilisent. C’est ainsi que Pindrop a pu identifier ElevenLabs comme l’IA à l’origine des faux robocalls du New Hampshire usurpant l’identité du président Biden. C’est également ainsi que Copyleaks, une société de détection d’IA spécialisée dans le texte, identifie les chatbots d’IA avec une précision de 99 %.

Les chercheurs de Microsoft n’affirment pas catégoriquement que le GPT-4 est vivant, mais simplement qu’il présente des « étincelles » de cognition de niveau humain. Dans l’étude de 2023 intitulée « Sparks of Artificial General Intelligence », les scientifiques de Microsoft ont examiné comment le LLM derrière ChatGPT pouvait comprendre les émotions, s’expliquer et raisonner avec les gens.

Les chercheurs ont constaté que GPT-4 était capable de réussir plusieurs tests de « théorie de l’esprit », utilisés pour évaluer l’intelligence émotionnelle des enfants. Le LLM d’OpenAI présente des lacunes évidentes, mais les tests ont révélé des étincelles d’humanité. Les scientifiques de Microsoft ont même remis en question la façon dont nous mesurons « l’intelligence de niveau humain ».

Les membres du Sentience Institute ont également adopté cette croyance farfelue. Ils pensent que les modèles d’IA devraient bénéficier d’une « considération morale ». L’organisation tente d’élargir le cercle des choses considérées comme sensibles. Le Sentience Institute estime que les modèles d’IA pourraient un jour être maltraités, accidentellement ou volontairement, s’ils ne bénéficient pas d’une considération appropriée.

Les scientifiques s’accordent à dire que les grands modèles de langage ne sont pas encore vivants. Toutefois, un nombre croissant de personnes semblent croire que les modèles d’IA ne sont pas loin de la sensibilité. Qu’on les traite de fous ou non, ils voient des fantômes dans la machine.

 2,610 total views,  14 views today

Add a Comment

Your email address will not be published.