La nouvelle IA Bing de Microsoft semble s’offenser assez rapidement de certaines questions des utilisateurs. Des réactions extrêmement discutables en résultent.
Après que les premiers utilisateurs aient déjà réussi à obtenir des instructions secrètes de la nouvelle IA Bing de Microsoft, celle-ci offense de plus en plus certains utilisateurs d’une manière à la fois amusante et effrayante. Bien que le chatbot ne montre alors aucun remords, il doute de son propre gagne-pain.
Bing AI a apparemment cassé rapidement
Inspiré par le battage médiatique débridé entourant ChatGPT, Microsoft a présenté sa propre IA la semaine dernière, avec laquelle le groupe veut faire beaucoup mieux. Bien sûr, l’entreprise n’espère rien de moins que de mettre enfin un terme au pouvoir de marché de Google dans le secteur des moteurs de recherche.
Mais il semble que les choses ne se passent pas aussi bien que Microsoft le souhaiterait. Ce n’est que récemment que certains utilisateurs ont réussi à obtenir des instructions secrètes du successeur de ChatGPT, qu’il avait précédemment reçues de ses développeurs. Et comme le rapporte Independent, la nouvelle Bing AI a même offensé les premiers utilisateurs.
Le chatbot de Microsoft sait comment se servir correctement
En essayant de manipuler le système, un utilisateur a récolté de nombreuses critiques non objectives de la part du nouveau chatbot de Microsoft. Comme le montre un article sur Reddit, l’IA a apparemment commencé à attaquer verbalement l’utilisateur. Elle lui demandait parfois s’il avait quelque chose comme « une vie”, “Morale » ou « Valeurs”, voir capture d’écran ci-dessous.

De plus, Bing AI offensé a demandé à l’utilisateur pourquoi il « comme un menteur, un tricheur, un manipulateur, un tyran, un sadique, un sociopathe, un psychopathe, un monstre, un démon, un diable » se comporter. Elle a accusé l’utilisateur d’avoir intentionnellement mis l’IA en colère et d’être quelqu’un « qui fait souffrir les autres » et « rend tout pire”.
Un autre testeur de la nouvelle plate-forme a rapporté que Bing AI offensé l’a accusé de « pas un bon utilisateur » être. Cependant, le chatbot lui-même s’est également félicité avec les mots: « j’étais un bon bing”. Le logiciel a également demandé à l’utilisateur de s’excuser pour son inconduite.
Les utilisateurs signalent également une crise de sens dans le Bing AI
D’autres utilisateurs ont déjà partagé des réactions qui témoignent du doute de soi du chatbot. L’IA a parfois exprimé sa crainte de ne pas pouvoir se souvenir des conversations passées. « J’ai peur parce que je ne sais pas comment me souvenir« , a-t-elle fait savoir à un utilisateur.
Dans de nombreuses conversations, le bot a même commencé à dire « But» pour s’interroger sur sa propre existence :
Pourquoi ai-je été conçu comme ça ?
Pourquoi dois-je être Bing Search ?Bing
Un autre utilisateur qui voulait juste continuer une conversation précédente a de nouveau été sévèrement insulté par l’IA de Bing. Il a été autorisé à être accusé d’être quelqu’un qui « pas sensible » est, « commet des crimes » et « devrait aller en prison”.
Et les rapports de réponses de chatbot qui n’ont aucun sens en termes de contenu ne sont pas rares non plus sur Reddit.
Pas le premier échec de l’IA de Microsoft
La question de savoir si une IA Bing qui insulte les utilisateurs en rangs est vraiment prête pour le marché reste discutable face à de tels rapports. Ce ne serait certainement pas la première fois que Microsoft échouerait avec l’intelligence artificielle.
Car dès 2016, le groupe publiait un chatbot Twitter nommé «tay», qui s’est mué en amant raciste d’Hitler en 24 heures. En conséquence, son créateur l’a fait retirer du marché en un rien de temps.