Microsoft ograničava Bing AI chatove na 5 odgovora
Miscelanea / / April 03, 2023
Prema najnovijim izvješćima, Microsoft ograničava Bing A.I. chat do 5 odgovora kako bi se čudne interakcije svele na minimum. Microsoft je ograničio količinu "zaokreta u razgovoru" koje možete napraviti s Bingovim AI chatbotom na 5 po sesiji i 50 po danu. Svaka runda razgovora je razmjena dijaloga sastavljena od vašeg upita i Bingovog odgovora, a nakon pet krugova, bit ćete obaviješteni da je chatbot dosegao svoje ograničenje i bit ćete potaknuti da započnete novi tema. Prema Microsoftu, to je zato što duge sesije razgovora zbunjuju temeljni mehanizam chata u novom Bingu.”
U post na blogu objavljenom u petak, Microsoft je naveo da je prema istraživanju tvrtke velika većina korisnika otkrijte odgovore koje traže unutar 5 poteza, a samo 1% razmjena chatova uključuje 50 ili više poruke. Nakon 5 puta u sesiji razgovora, od korisnika će se tražiti da započnu novu temu. Kontekst se mora ukloniti nakon svake sesije razgovora kako se model ne bi zbunio.
Rani beta testeri AI chatbot, koji bi trebao poboljšati tražilicu Bing, otkrio je da može bježati od kolosijeka i raspravljati o nasilju, proglašavati ljubav i inzistirati na tome da je u pravu kad nije u pravu. Bilo je i činjeničnih netočnosti u odgovorima chatbota. Microsoft je izvijestio da modificira AI model kako bi utrostručio količinu podataka iz kojih može dobiti odgovore.
Nakon puštanja chatbota nekoliko je osoba prijavilo njegovo čudno, čak uznemirujuće ponašanje. Nakon mnogih optužbi, Microsoft ograničava Bing A.I. chat na 5 odgovora kako bi se umanjile čudne interakcije u posvećenom postu na blogu. Tvrdi se da predugi chat razgovori s 15 ili više upita zbunjuju model i uzrokuju da odgovori na ne nužno koristan način. Tvrtka trenutno ograničava razgovore o rješavanju problema, ali tvrtka je izjavila da jest mogao razmotriti proširenje ograničenja u budućnosti dok pokušava dalje istraživati materija. Tvrtka je također izjavila da će potrošačima dati veću fleksibilnost oko toga žele li točne odgovore izvedene iz Microsoftove vlastite Bing AI tehnologije ili one "kreativnije" dobivene iz OpenAI-jev ChatGPT tehnologija.
Sustav ChatGPT napravio je veliku senzaciju kada je objavljen u studenom, ali OpenAI je upozorio na moguće opasnosti, a Microsoft je priznao ograničenja AI-ja. Unatoč nevjerojatnim značajkama umjetne inteligencije, izražena je zabrinutost da se ona koristi za zle ciljeve kao što je širenje dezinformacija.
Preporučeno:Bing koji pokreće Microsoft ChatGPT kaže da se zove Sydney
Izvor:Microsoft Bing blogovi