Microsoft beperkt Bing AI-chats tot 5 antwoorden
Diversen / / April 03, 2023
![Microsoft beperkt Bing AI-chats tot 5 antwoorden](/f/03cc554a6bca87eb6073f47e69683d72.png)
Volgens de laatste rapporten beperkt Microsoft Bing A.I. chats tot 5 antwoorden om rare interacties te minimaliseren. Microsoft heeft het aantal "gesprekswisselingen" dat u kunt maken met de AI-chatbot van Bing beperkt tot 5 per sessie en 50 per dag. Elke chatronde is een dialooguitwisseling die bestaat uit uw vraag en het antwoord van Bing, en na vijf rondes, wordt u geïnformeerd dat de chatbot zijn limiet heeft bereikt en wordt u aangemoedigd om een nieuwe te starten onderwerp. Volgens Microsoft komt dit doordat lange conversatiesessies het fundamentele chatmechanisme in de nieuwe Bing in de war brengen.”
![Microsoft beperkt Bing AI-chats tot 5 antwoorden](/f/f36fba70a16d84ee418e18b896f42b98.png)
In een blogpost vrijdag gepubliceerd, verklaarde Microsoft dat volgens bedrijfsonderzoek de overgrote meerderheid van de gebruikers ontdek de antwoorden die ze zoeken binnen 5 beurten, en slechts 1% van de chatuitwisselingen bevat 50 of meer berichten. Na 5 beurten in een conversatiesessie wordt gebruikers gevraagd een nieuw onderwerp te starten. De context moet na elke chatsessie worden verwijderd, zodat het model niet in de war raakt.
Vroege bètatesters van de AI chatbot, die de Bing-zoekmachine zou moeten verbeteren, ontdekte dat hij van het spoor kon raken en geweld kon bespreken, liefde kon verkondigen en erop kon staan gelijk te hebben als het niet klopte. Er zijn ook feitelijke onjuistheden in de antwoorden van de chatbot. Microsoft meldde dat het het AI-model aan het aanpassen was om de hoeveelheid gegevens waaruit het antwoorden kan verkrijgen te verdrievoudigen.
Na de release van de chatbot meldden verschillende personen vreemd, zelfs verontrustend gedrag van de chatbot. Na vele beschuldigingen beperkt Microsoft Bing A.I. chats naar 5 antwoorden om rare interacties in de speciale blogpost te minimaliseren. Het beweert dat te lange chatgesprekken met 15 of meer vragen het model in de war brengen en ervoor zorgen dat het op een niet per se behulpzame manier antwoordt. Het bedrijf beperkt momenteel de besprekingen om het probleem op te lossen, maar het bedrijf heeft verklaard dat dit het geval is zou kunnen overwegen om de beperkingen in de toekomst uit te breiden als het probeert om verder te onderzoeken naar de materie. Het bedrijf verklaarde ook dat het consumenten meer flexibiliteit zal geven over de vraag of ze exacte antwoorden willen die zijn afgeleid van de eigen Bing AI-technologie van Microsoft of meer "creatieve" antwoorden afkomstig van ChatGPT van OpenAI technologie.
Het ChatGPT-systeem maakte een grote sensatie toen het in november werd uitgebracht, maar OpenAI heeft gewaarschuwd voor mogelijke gevaren en Microsoft heeft toegegeven aan AI-limieten. Ondanks de opmerkelijke kenmerken van AI, zijn er zorgen geuit over het gebruik ervan voor kwade doeleinden, zoals het verspreiden van desinformatie.
Aanbevolen:Microsoft ChatGPT Powered Bing zegt dat het Sydney heet
Bron:Microsoft Bing-blogs