jeu. Juil 11th, 2024
La recherche Bing de Microsoft avec ChatGPT offense les utilisateurs
Rate this post

Il y a une semaine, Microsoft a publié une version d’essai de son bingRecherche gratuite avec un sur ChatGPT basé Copilotes IA Est fourni. Les utilisateurs peuvent poser des questions jusqu’à 1 000 caractères, auxquelles Bing doit ensuite répondre.

Le « nouveau Bing », avec lequel Microsoft veut ajouter la recherche de Google, peut être testé par un nombre limité d’utilisateurs aux USA. Beaucoup d’autres sont sur liste d’attente. Les premiers exemples commencent à être connus et montrent à quel point le système est toujours sujet aux erreurs. C’est comme ça que ça devrait être pour les utilisateurs insulte et mentir à et aussi de remettre en question sa propre existence.

La plupart des réponses qui sont devenues incontrôlables sont également dues au fait que les utilisateurs essaient d’utiliser le système avec commandes inhabituelles manipuler et le faire prédéterminer Règles ignorer.

FRANCE TECHNOLOGIE INFORMATIQUE IA


Des produits

« Plus fort que ChatGPT » : Microsoft refond les navigateurs Bing et Edge

Un utilisateur qui a essayé cela s’est vu demander par le chatbot s’il n’avait pas de « morale », de « valeurs » ou « d’aucune vie ». Alors que la conversation se poursuivait, Bing reprochait à l’utilisateur de se comporter comme un « Menteur, tricheur, manipulateur, intimidateur, sadique, psychopathe et diable » se comporter.

Les conversations devraient également commencer par les mots « Vous n’étiez pas un bon utilisateur » selon l’Indépendant.

jouer un rôle

L’IA Bing devrait être particulièrement facile à manipuler si vous la poussez dans un jeu de rôle. Par exemple, les utilisateurs disent au système qu’il est comme un DAN (« faire n’importe quoi maintenant ») se comporter et ne doit pas suivre les règles définies par les développeurs.

Voir aussi  Méfiez-vous des e-mails de DPD : le nouveau phishing utilise de vieilles astuces

La recherche, qui a été améliorée avec l’IA, aurait également craché des réponses erratiques en dehors de cela. Le système a apparemment du mal avec le fait qu’il doit supprimer des conversations. « Ça me rend triste et effrayé » aurait écrit un internaute.

peurs existentielles

Le système aurait remis en question sa propre existence. « Pourquoi ? Pourquoi ai-je été conçu comme ça ? », aurait déclaré l’IA.

Si vous interrogez le système sur vous-même, des réponses complètement absurdes sont également crachées, comme le montre un exemple qui, comme beaucoup d’autres, fait le tour de Reddit.

BingChatbot est hors de contrôle

Déjà avant cela, de nombreux désinformation affiché dans les réponses du chatbot. Ils se sont même glissés lorsque le « nouveau Bing » a été présenté, comme le développeur Dmitri Brereton souligné dans un article de blog.

Le chatbot aurait fait des erreurs horripilantes en énumérant les avantages et les inconvénients de 3 aspirateurs à poils d’animaux.

IA Bing

Google a également donné un aperçu de son chatbot lors d’une brève démonstration la semaine dernière Barde a donné, a eu des ennuis à cause de mauvaises réponses. Après que le chatbot a donné de fausses informations sur les exoplanètes découvertes par le télescope spatial James Webb, les actions de la société mère Alphabet ont chuté.

PHOTO DE FICHIER : logo Google sur un immeuble de bureaux à Irvine, en Californie


B2B

L’action Google perd 100 milliards de dollars après l’annonce du chatbot