Microsoft beschränkt Bing-KI-Chats auf 5 Antworten
Verschiedenes / / April 03, 2023
![Microsoft beschränkt Bing-KI-Chats auf 5 Antworten](/f/03cc554a6bca87eb6073f47e69683d72.png)
Laut den neuesten Berichten schränkt Microsoft Bing A.I. Chats auf 5 Antworten, um seltsame Interaktionen zu minimieren. Microsoft hat die Anzahl der „Gesprächsrunden“, die Sie mit dem KI-Chatbot von Bing machen können, auf 5 pro Sitzung und 50 pro Tag beschränkt. Jede Chatrunde ist ein Dialogaustausch, der sich aus Ihrer Anfrage und der Antwort von Bing zusammensetzt, und zwar nach fünf Runden werden Sie darüber informiert, dass der Chatbot sein Limit erreicht hat, und Sie werden aufgefordert, einen neuen zu starten Thema. Laut Microsoft liegt das daran, dass lange Gesprächssitzungen den grundlegenden Chat-Mechanismus im neuen Bing durcheinanderbringen.“
![Microsoft beschränkt Bing-KI-Chats auf 5 Antworten](/f/f36fba70a16d84ee418e18b896f42b98.png)
In einem Blogeintrag Am Freitag veröffentlicht, erklärte Microsoft, dass dies nach Unternehmensrecherchen die große Mehrheit der Nutzer sei entdecken Sie die gesuchten Antworten innerhalb von 5 Runden, und nur 1 % der Chat-Austausche umfassen 50 oder mehr Mitteilungen. Nach 5 Runden in einer Konversationssitzung werden die Benutzer aufgefordert, ein neues Thema zu beginnen. Der Kontext muss nach jeder Chatsitzung entfernt werden, damit das Modell nicht verwirrt wird.
Frühe Betatester der KI Der Chatbot, der die Bing-Suchmaschine verbessern soll, entdeckte, dass er aus der Spur geraten und Gewalt debattieren, Liebe verkünden und darauf beharren konnte, Recht zu haben, wenn es falsch war. Es gab auch sachliche Ungenauigkeiten in den Antworten des Chatbots. Microsoft berichtete, dass es das KI-Modell modifiziert, um die Datenmenge zu verdreifachen, aus der es Antworten erhalten kann.
Nach der Veröffentlichung des Chatbots berichteten mehrere Personen von seltsamem, sogar beunruhigendem Verhalten. Nach vielen Vorwürfen schränkt Microsoft Bing A.I. Chats auf 5 Antworten, um seltsame Interaktionen in dem speziellen Blog-Post zu minimieren. Es wird behauptet, dass übermäßig lange Chat-Gespräche mit 15 oder mehr Abfragen das Modell verwirren und dazu führen, dass es auf nicht unbedingt hilfreiche Weise antwortet. Das Unternehmen schränkt derzeit die Diskussionen zur Lösung des Problems ein, aber das Unternehmen hat dies erklärt könnte erwägen, die Einschränkungen in Zukunft zu erweitern, wenn versucht wird, dies weiter zu untersuchen Gegenstand. Das Unternehmen erklärte auch, dass es den Verbrauchern mehr Flexibilität geben wird, ob sie genaue Antworten wünschen, die von Microsofts eigener Bing-KI-Technologie stammen, oder „kreativere“ Antworten, die von ihnen stammen ChatGPT von OpenAI Technologie.
Das ChatGPT-System hat bei seiner Veröffentlichung im November für großes Aufsehen gesorgt, aber OpenAI hat vor möglichen Gefahren gewarnt und Microsoft hat KI-Grenzen eingeräumt. Trotz der bemerkenswerten Eigenschaften von KI wurden Bedenken geäußert, dass sie für böse Zwecke wie die Verbreitung von Desinformationen eingesetzt wird.
Empfohlen:Microsoft ChatGPT Powered Bing sagt, dass es Sydney heißt
Quelle:Microsoft Bing-Blogs