mer. Oct 4th, 2023
Rate this post

Afin d’éviter que Microsoft AI ne se comporte mal, les utilisateurs du chat Bing ne sont désormais autorisés à faire que cinq demandes par session.

Le nouveau chat Bing de Microsoft, inspiré de ChatGPT, est sujet à des dysfonctionnements parfois massifs lorsque les utilisateurs font plus de 15 requêtes par session. Pour contourner ce problème, il existe désormais des plafonds d’utilisation du chatbot IA. Cependant, certains utilisateurs ne semblent pas très satisfaits de ce changement.

Le chatbot de Microsoft devient fou lors de longues sessions

Comme nous l’avons récemment signalé, le nouveau chat Bing de Microsoft a attiré l’attention à plusieurs reprises en raison d’une inconduite massive. Pas seulement en remettant en cause son propre gagne-pain devant quelques utilisateurs. Le chatbot a offensé et manipulé certains de ses utilisateurs ont également massivement et n’ont montré aucun remords par la suite.

Mercredi, Microsoft a ensuite tiré une conclusion de ses premières découvertes depuis la sortie de l’outil dans un nouveau billet de blog. Le groupe a constaté que le Bing AI «dans de longues sessions de chat prolongées de 15 questions ou plus” pour montrer un acte répréhensible.

Cela s’est parfois illustré par le fait que le chatbot fréquemment répété ou même répondu sans qu’on le lui demande. De plus, l’IA a généré des réponses, « qui ne sont pas nécessairement utiles ou ne correspondent pas au ton que nous voulions”.

Contournement des dérives de l’IA de Bing : Microsoft castre son chatbot

Afin de maîtriser l’inconduite du chat Bing de Microsoft, la société a annoncé hier que l’outil d’IA ne répondrait désormais qu’à cinq requêtes par session et un maximum de 50 par jour.

Logo du site Web Bing Chat
Logo Bing

« Nos données ont montré que la grande majorité d’entre vous trouvent les réponses que vous recherchez dans les 5 tours et que seulement 1 % environ des conversations de chat sont plus longues que 50 messages.», le groupe justifie sa décision.

« Après qu’une session de chat ait atteint 5 tours, vous serez invité à démarrer un nouveau sujet. A la fin de chaque session de chat, le contexte doit être effacé pour ne pas confondre le modèle. Cliquez simplement sur l’icône du balai à gauche du champ de recherche pour recommencer.

Microsoft

De plus, à la suite de nouveaux commentaires des utilisateurs, le géant du logiciel vérifie si une extension des limites supérieures définies a du sens, « pour améliorer encore les capacités de recherche et de découverte.Cependant, cela nécessite que les utilisateurs de Bing AI continuent de partager leurs pensées et leurs idées avec l’entreprise.

Voir aussi  Picklock succède à Lockpick : un point positif pour les émulateurs Switch

Les utilisateurs critiquent la mise à jour de Bing Chat

Cependant, les réactions souhaitées ont jusqu’à présent été tout sauf roses. Sur Reddit, certains utilisateurs se plaignent désormais que Microsoft modifie son chat Bing »castré» pour contourner son acte répréhensible.

Selon un utilisateur déçu, la limite de cinq requêtes par session est un « perte de temps totale pour les utilisateurs”. De plus, cela limite massivement la qualité du service. De même, soyez la limite quotidienne »tout simplement inacceptable et ne fera qu’inciter les utilisateurs à passer de Bing à d’autres produits.» Par exemple, à son modèle ChatGPT, développé par OpenAI.

Mais l’essentiel est que Microsoft a déjà un plan sur la façon de traire correctement la nouvelle vache à lait. Car très bientôt, les utilisateurs pourront probablement s’attendre à des publicités dans l’historique des discussions avec l’IA de Bing. Et le groupe a aussi massivement augmenté les prix des accès API à son moteur de recherche sous l’effet de l’attention médiatique.

Rien d’étonnant, car le chat Bing a besoin de beaucoup de puissance de calcul malgré son comportement incorrect – avec des conséquences correspondantes sur les besoins en énergie. D’un autre côté, très peu d’utilisateurs devraient réellement l’avoir sur leurs écrans lorsqu’ils l’utilisent.