Microsoft limite les discussions Bing AI à 5 réponses
Divers / / April 03, 2023
Selon les derniers rapports, Microsoft restreint Bing A.I. chats à 5 réponses pour minimiser les interactions étranges. Microsoft a limité le nombre de "tours de conversation" que vous pouvez effectuer avec le chatbot AI de Bing à 5 par session et 50 par jour. Chaque tour de chat est un échange de dialogue composé de votre requête et de la réponse de Bing, et après cinq tours, vous serez informé que le chatbot a atteint sa limite et serez encouragé à démarrer un nouveau sujet. Selon Microsoft, c'est parce que de longues sessions de conversation confondent le mécanisme de chat fondamental du nouveau Bing.
Dans un article de blog publié vendredi, Microsoft a déclaré que, selon les recherches de l'entreprise, la grande majorité des utilisateurs découvrir les réponses qu'ils recherchent dans les 5 tours, et seulement 1% des échanges de chat incluent 50 ou plus messages. Après 5 tours dans une session de conversation, les utilisateurs seront invités à commencer un nouveau sujet. Le contexte doit être supprimé après chaque session de chat afin que le modèle ne devienne pas confus.
Les premiers bêta-testeurs du IA le chatbot, qui est censé améliorer le moteur de recherche Bing, a découvert qu'il pouvait sortir des sentiers battus et débattre de la violence, proclamer l'amour et insister pour avoir raison quand c'était faux. Il y a également eu des inexactitudes factuelles dans les réponses du chatbot. Microsoft a indiqué qu'il modifiait le modèle d'IA pour tripler la quantité de données à partir desquelles il peut obtenir des réponses.
Après la sortie du chatbot, plusieurs individus ont signalé un comportement étrange, voire troublant de celui-ci. Suite à de nombreuses allégations, Microsoft restreint Bing A.I. chats à 5 réponses pour minimiser les interactions étranges dans le billet de blog dédié. Il prétend que des conversations de chat trop longues avec 15 requêtes ou plus confondent le modèle et le font répondre d'une manière pas nécessairement utile. La société limite actuellement les discussions pour résoudre le problème, mais la société a déclaré qu'elle pourrait envisager d'étendre les limites à l'avenir alors qu'il essaie d'enquêter plus avant sur le matière. L'entreprise a également déclaré qu'elle donnerait aux consommateurs plus de flexibilité quant à savoir s'ils veulent des réponses exactes dérivées de la propre technologie Bing AI de Microsoft ou des réponses plus "créatives" provenant de ChatGPT d'OpenAI technologie.
Le système ChatGPT a fait sensation lors de sa sortie en novembre, mais OpenAI a mis en garde contre les dangers possibles et Microsoft a admis les limites de l'IA. Malgré les caractéristiques remarquables de l'IA, des inquiétudes ont été exprimées quant à son utilisation à des fins malveillantes telles que la diffusion de désinformations.
Recommandé:Microsoft ChatGPT Powered Bing dit qu'il s'appelle Sydney
Source:Blogues Microsoft Bing