jeu. Avr 18th, 2024
Microsoft restreint la recherche par IA après avoir offensé les utilisateurs
Rate this post

Microsoft réduit le nombre de questions que les utilisateurs peuvent poser à son nouveau Bing de recherche alimenté par l’IA. Désormais, seul le quotidien peut 50 questions être demandé. Les questions sont par chat 5 réduita annoncé la société dans un article de blog.

Une fois la limite atteinte, vous serez invité à démarrer une nouvelle conversation. De plus, le chat doit être réinitialisé via l’icône « balai ». Microsoft veut éviter que l’IA ne soit « confuse » par de très longues conversations.

MICROSOFT GOOGLE US AI TECH


Vie numérique

La recherche Bing de Microsoft avec ChatGPT offense les utilisateurs

Certains utilisateurs avaient spécifiquement contesté le chatbot Bing. En conséquence, l’IA l’a insultée. De plus, de fausses informations sur le système sont partagées (futurezone signalée).

« Pas forcément utile »

Microsoft avait déjà commenté cela dans une entrée de blog. Il stipule que dans les conversations de chat, le plus de 15 questions inclure, Bing peut se répéter ou donner des réponses « qui ne sont pas nécessairement utiles ou qui ne correspondent pas au ton que nous avons conçu ».

La nouvelle recherche Bing de Microsoft est toujours en cours essai. Il est basé sur le système de ChatGPT. Selon Microsoft, les commentaires des utilisateurs devraient indiquer si les nouvelles restrictions resteront en place ou seront à nouveau assouplies.

Voir aussi  Un nouveau documentaire montre les aventures du rover martien le plus persistant