Microsoft ogranicza czaty Bing AI do 5 odpowiedzi
Różne / / April 03, 2023
![Microsoft ogranicza czaty Bing AI do 5 odpowiedzi](/f/03cc554a6bca87eb6073f47e69683d72.png)
Zgodnie z najnowszymi raportami Microsoft ogranicza Bing A.I. czaty na 5 odpowiedzi, aby zminimalizować dziwne interakcje. Microsoft ograniczył liczbę „tur konwersacji”, które można wykonać za pomocą chatbota Bing AI do 5 na sesję i 50 dziennie. Każda runda czatu to wymiana zdań składająca się z Twojego zapytania i odpowiedzi Bing oraz po pięciu rund, zostaniesz poinformowany, że chatbot osiągnął swój limit i zostaniesz zachęcony do rozpoczęcia nowej temat. Według Microsoftu dzieje się tak dlatego, że długie sesje konwersacyjne dezorientują podstawowy mechanizm czatu w nowym Bing”.
![Microsoft ogranicza czaty Bing AI do 5 odpowiedzi](/f/f36fba70a16d84ee418e18b896f42b98.png)
W post na blogu opublikowanego w piątek Microsoft stwierdził, że według badań firmy zdecydowana większość użytkowników odkryj odpowiedzi, których szukają w ciągu 5 tur, a tylko 1% rozmów na czacie obejmuje 50 lub więcej wiadomości. Po 5 turach w sesji konwersacyjnej użytkownicy zostaną poproszeni o rozpoczęcie nowego tematu. Kontekst musi być usuwany po każdej sesji czatu, aby model nie był zdezorientowany.
Wcześni beta testerzy
sztuczna inteligencja chatbot, który ma ulepszyć wyszukiwarkę Bing, odkrył, że może zbaczać z torów i dyskutować o przemocy, głosić miłość i upierać się, że ma rację, gdy jest niepoprawna. Odpowiedzi chatbota zawierały również nieścisłości rzeczowe. Microsoft poinformował, że modyfikuje model AI, aby potroić ilość danych, z których może uzyskać odpowiedzi.Po wypuszczeniu chatbota kilka osób zgłosiło jego dziwne, a nawet niepokojące zachowanie. Po wielu zarzutach Microsoft ogranicza Bing A.I. czaty na 5 odpowiedzi, aby zminimalizować dziwne interakcje w dedykowanym poście na blogu. Twierdzi, że zbyt długie rozmowy na czacie z 15 lub więcej zapytaniami dezorientują model i powodują, że odpowiada on w niekoniecznie pomocny sposób. Firma obecnie ogranicza rozmowy w celu rozwiązania problemu, ale firma stwierdziła, że tak może rozważyć rozszerzenie ograniczeń w przyszłości, próbując dokładniej zbadać materiał. Firma stwierdziła również, że zapewni konsumentom większą elastyczność w zakresie tego, czy chcą dokładnych odpowiedzi uzyskanych z własnej technologii Bing AI firmy Microsoft, czy też bardziej „kreatywnych” pochodzących z ChatGPT OpenAI technologia.
System ChatGPT wywołał wielką sensację, gdy został wydany w listopadzie, ale OpenAI ostrzegł przed możliwymi zagrożeniami, a Microsoft przyznał się do ograniczeń AI. Pomimo niezwykłych cech sztucznej inteligencji, wyrażano obawy dotyczące jej wykorzystywania do złych celów, takich jak rozpowszechnianie dezinformacji.
Zalecana:Microsoft ChatGPT Powered Bing mówi, że nazywa się Sydney
Źródło:Blogi Microsoft Bing