Afin d’éviter que Microsoft AI ne se comporte mal, les utilisateurs du chat Bing ne sont désormais autorisés à faire que cinq demandes par session.
Le nouveau chat Bing de Microsoft, inspiré de ChatGPT, est sujet à des dysfonctionnements parfois massifs lorsque les utilisateurs font plus de 15 requêtes par session. Pour contourner ce problème, il existe désormais des plafonds d’utilisation du chatbot IA. Cependant, certains utilisateurs ne semblent pas très satisfaits de ce changement.
Le chatbot de Microsoft devient fou lors de longues sessions
Comme nous l’avons récemment signalé, le nouveau chat Bing de Microsoft a attiré l’attention à plusieurs reprises en raison d’une inconduite massive. Pas seulement en remettant en cause son propre gagne-pain devant quelques utilisateurs. Le chatbot a offensé et manipulé certains de ses utilisateurs ont également massivement et n’ont montré aucun remords par la suite.
Mercredi, Microsoft a ensuite tiré une conclusion de ses premières découvertes depuis la sortie de l’outil dans un nouveau billet de blog. Le groupe a constaté que le Bing AI «dans de longues sessions de chat prolongées de 15 questions ou plus” pour montrer un acte répréhensible.
Cela s’est parfois illustré par le fait que le chatbot fréquemment répété ou même répondu sans qu’on le lui demande. De plus, l’IA a généré des réponses, « qui ne sont pas nécessairement utiles ou ne correspondent pas au ton que nous voulions”.
Contournement des dérives de l’IA de Bing : Microsoft castre son chatbot
Afin de maîtriser l’inconduite du chat Bing de Microsoft, la société a annoncé hier que l’outil d’IA ne répondrait désormais qu’à cinq requêtes par session et un maximum de 50 par jour.

« Nos données ont montré que la grande majorité d’entre vous trouvent les réponses que vous recherchez dans les 5 tours et que seulement 1 % environ des conversations de chat sont plus longues que 50 messages.», le groupe justifie sa décision.
« Après qu’une session de chat ait atteint 5 tours, vous serez invité à démarrer un nouveau sujet. A la fin de chaque session de chat, le contexte doit être effacé pour ne pas confondre le modèle. Cliquez simplement sur l’icône du balai à gauche du champ de recherche pour recommencer.
Microsoft
De plus, à la suite de nouveaux commentaires des utilisateurs, le géant du logiciel vérifie si une extension des limites supérieures définies a du sens, « pour améliorer encore les capacités de recherche et de découverte.Cependant, cela nécessite que les utilisateurs de Bing AI continuent de partager leurs pensées et leurs idées avec l’entreprise.
Les utilisateurs critiquent la mise à jour de Bing Chat
Cependant, les réactions souhaitées ont jusqu’à présent été tout sauf roses. Sur Reddit, certains utilisateurs se plaignent désormais que Microsoft modifie son chat Bing »castré» pour contourner son acte répréhensible.
Selon un utilisateur déçu, la limite de cinq requêtes par session est un « perte de temps totale pour les utilisateurs”. De plus, cela limite massivement la qualité du service. De même, soyez la limite quotidienne »tout simplement inacceptable et ne fera qu’inciter les utilisateurs à passer de Bing à d’autres produits.» Par exemple, à son modèle ChatGPT, développé par OpenAI.
Mais l’essentiel est que Microsoft a déjà un plan sur la façon de traire correctement la nouvelle vache à lait. Car très bientôt, les utilisateurs pourront probablement s’attendre à des publicités dans l’historique des discussions avec l’IA de Bing. Et le groupe a aussi massivement augmenté les prix des accès API à son moteur de recherche sous l’effet de l’attention médiatique.
Rien d’étonnant, car le chat Bing a besoin de beaucoup de puissance de calcul malgré son comportement incorrect – avec des conséquences correspondantes sur les besoins en énergie. D’un autre côté, très peu d’utilisateurs devraient réellement l’avoir sur leurs écrans lorsqu’ils l’utilisent.