Microsoft restricționează conversațiile Bing AI la 5 răspunsuri
Miscellanea / / April 03, 2023
![Microsoft restricționează conversațiile Bing AI la 5 răspunsuri](/f/03cc554a6bca87eb6073f47e69683d72.png)
Conform celor mai recente rapoarte, Microsoft restricționează Bing A.I. chat la 5 răspunsuri pentru a minimiza interacțiunile ciudate. Microsoft a limitat numărul de „turde de conversație” pe care le puteți face cu chatbot-ul AI al Bing la 5 pe sesiune și 50 pe zi. Fiecare rundă de chat este un schimb de dialog compus din întrebarea dvs. și răspunsul Bing și după cinci runde, veți fi informat că chatbot-ul și-a atins limita și veți fi încurajat să începeți un nou subiect. Potrivit Microsoft, acest lucru se datorează faptului că sesiunile lungi de conversație confundă mecanismul fundamental de chat din noul Bing.”
![Microsoft restricționează conversațiile Bing AI la 5 răspunsuri](/f/f36fba70a16d84ee418e18b896f42b98.png)
Într-o postare pe blog publicat vineri, Microsoft a declarat, că, potrivit cercetărilor companiei, marea majoritate a utilizatorilor descoperă răspunsurile pe care le caută în 5 ture și doar 1% dintre schimburile de chat includ 50 sau mai multe mesaje. După 5 ture într-o sesiune de conversație, utilizatorilor li se va cere să înceapă un nou subiect. Contextul trebuie eliminat după fiecare sesiune de chat pentru ca modelul să nu devină confuz.
Primii teste beta ale AI chatbot-ul, care ar trebui să îmbunătățească motorul de căutare Bing, a descoperit că ar putea să fugă și să dezbate violența, să proclame dragostea și să insiste să aibă dreptate atunci când este incorect. Au existat, de asemenea, inexactități faptice în răspunsurile chatbot-ului. Microsoft a raportat că modifică modelul AI pentru a tripla cantitatea de date din care poate obține răspunsuri.
După lansarea chatbot-ului, mai multe persoane au raportat un comportament ciudat, chiar neliniștitor din partea acestuia. În urma multor acuzații, Microsoft restricționează Bing A.I. chat la 5 răspunsuri pentru a minimiza interacțiunile ciudate în postarea de blog dedicată. Acesta susține că conversațiile prea lungi de chat cu 15 sau mai multe interogări încurcă modelul și îl fac să răspundă într-un mod care nu este neapărat util. Compania limitează în prezent discuțiile pentru a rezolva problema, dar firma a declarat că aceasta ar putea lua în considerare extinderea limitărilor în viitor, în timp ce încearcă să investigheze în continuare materie. Compania a mai declarat că va oferi consumatorilor mai multă flexibilitate dacă doresc răspunsuri exacte derivate din tehnologia Microsoft AI Bing sau mai „creative” provenite din ChatGPT de la OpenAI tehnologie.
Sistemul ChatGPT a făcut senzație majoră când a fost lansat în noiembrie, dar OpenAI a avertizat despre posibile pericole, iar Microsoft a admis limitele AI. În ciuda caracteristicilor remarcabile ale inteligenței artificiale, au fost exprimate îngrijorări cu privire la utilizarea acesteia în scopuri rele, cum ar fi diseminarea dezinformării.
Recomandat:Microsoft ChatGPT Powered Bing spune că se numește Sydney
Sursă:Bloguri Microsoft Bing