Aussi les chatbots comme ChatGPT ou barde de Google font parfois des erreurs. Et quand ils le font, ils sont si convaincants que les gens tombent souvent dans le panneau. C’est ainsi qu’il est arrivé, par exemple, qu’une erreur se soit glissée dans la présentation du chatbot Bard de Google. Cela a également eu un impact clairement négatif sur la prix de l’action l’entreprise. La futurezone a rapporté.
Pour que de telles erreurs ne se reproduisent plus à l’avenir, Employés de Google corriger l’intelligence artificielle. Quiconque est particulièrement bien informé sur un sujet doit interroger Bard à ce sujet et le corriger si nécessaire. Le chatbot apprend « le mieux grâce à des exemples », écrit Prabhakar Raghavanvice-président de Google Search, au personnel.
Bard a des sujets tabous
Le courrier de Raghavan énumère également quelques conseils sur la meilleure façon d’utiliser le chatbot. Les réponses doivent être dans le « je forme » doit être écrit et vous devez toujours communiquer poliment mais aussi avec désinvolture.
Les hypothèses sur la nationalité, le sexe, la religion, l’orientation sexuelle ou politique ou des catégories similaires doivent également être évitées dans la mesure du possible. éviter. De plus, ils ne devraient pas voir Bard comme une personne et lui donner leurs propres expériences ou sentiments attribut.
Raghavan est également critique des « conseils juridiques, médicaux ou financiers » que Bard pourrait donner. Si cela se produit, les réponses du chatbot doivent commencer par un pouces vers le bas être noté.
ChatGPT a également utilisé des formateurs humains
Le PDG de Google, Sundar Pichai, a également demandé aux Googlers, comme on appelle les employés de Google, de passer « quelques heures par semaine » avec le chatbot. Ils veulent donner aux employés la possibilité de « façonner et contribuer » au nouveau produit. Il a également parlé des sceptiques courage pour. La plupart des produits Google n’ont pas réussi immédiatement après leur sortie. Ils n’ont gagné qu’en temps dynamique« parce qu’ils répondaient à des besoins importants des utilisateurs ».
Ce n’est un secret pour personne que les modèles de langage tels que ChatGPT ou Bard sont partiellement entraînés par des humains. Développeur ChatGPT OpenAI a utilisé des travailleurs kenyans à bas salaire pour former son IA. Ceux-ci doivent reconnaître le contenu problématique et le catégoriser en conséquence afin que le bot devienne moins toxique.