Microsoft ограничава Bing AI чатовете до 5 отговора
Miscellanea / / April 03, 2023
![Microsoft ограничава Bing AI чатовете до 5 отговора](/f/03cc554a6bca87eb6073f47e69683d72.png)
Според последните доклади Microsoft ограничава Bing A.I. чатове до 5 отговора, за да минимизирате странните взаимодействия. Microsoft ограничи броя на „разговорите“, които можете да правите с AI chatbot на Bing, до 5 на сесия и 50 на ден. Всеки кръг на чат е обмен на диалог, съставен от вашето запитване и отговор на Bing и след пет кръгове, ще бъдете информирани, че чатботът е достигнал своя лимит и ще бъдете насърчени да започнете нов тема. Според Microsoft това е така, защото дългите разговори объркват основния механизъм за чат в новия Bing.
![Microsoft ограничава Bing AI чатовете до 5 отговора](/f/f36fba70a16d84ee418e18b896f42b98.png)
В блог пост публикувано в петък, Microsoft заяви, че според проучване на компанията, по-голямата част от потребителите открийте отговорите, които търсят, в рамките на 5 хода и само 1% от обмена в чат включва 50 или повече съобщения. След 5 завъртания в сесия на разговор потребителите ще бъдат помолени да започнат нова тема. Контекстът трябва да се премахва след всяка чат сесия, така че моделът да не се обърква.
Ранните бета тестери на AI chatbot, който трябва да подобри търсачката Bing, откри, че може да излезе от пистите и да обсъжда насилието, да провъзгласява любов и да настоява да бъде прав, когато не е правилно. Има и фактически неточности в отговорите на чатбота. Microsoft съобщи, че модифицира AI модела, за да утрои количеството данни, от които може да получи отговори.
След пускането на чатбота няколко души съобщиха за странно, дори обезпокоително поведение от него. След много обвинения, Microsoft ограничава Bing A.I. чатове до 5 отговора, за да минимизирате странните взаимодействия в специалната публикация в блога. Твърди се, че прекалено дългите чат разговори с 15 или повече заявки объркват модела и го карат да отговаря по начин, който не е непременно полезен. В момента компанията ограничава дискусиите за решаване на проблема, но фирмата заяви, че го прави може да обмисли разширяване на ограниченията в бъдеще, докато се опитва да проучи по-нататък материя. Бизнесът също така заяви, че ще даде на потребителите повече гъвкавост относно това дали искат точни отговори, получени от собствената технология Bing AI на Microsoft или по-„творчески“ такива, получени от ChatGPT на OpenAI технология.
Системата ChatGPT направи голяма сензация, когато беше пусната през ноември, но OpenAI предупреди за възможни опасности и Microsoft призна ограниченията на AI. Въпреки забележителните характеристики на AI, бяха изразени притеснения относно това, че той се използва за зли цели като разпространение на дезинформация.
Препоръчва се:Microsoft ChatGPT Powered Bing казва, че се казва Sydney
източник:Блогове на Microsoft Bing