Microsoft обмежує чати Bing AI до 5 відповідей
Різне / / April 03, 2023
![Microsoft обмежує чати Bing AI до 5 відповідей](/f/03cc554a6bca87eb6073f47e69683d72.png)
Відповідно до останніх звітів, Microsoft обмежує Bing A.I. спілкуйтеся в чатах до 5 відповідей, щоб звести до мінімуму дивні взаємодії. Корпорація Майкрософт обмежила кількість «розмов», які ви можете зробити за допомогою чат-бота Bing зі штучним інтелектом, до 5 за сеанс і 50 за день. Кожен раунд чату — це обмін діалогом, який складається з вашого запиту та відповіді Bing, а також після п’яти раундів, ви отримаєте повідомлення про те, що чат-бот досяг свого ліміту, і вам буде запропоновано почати новий тема. За словами Microsoft, це тому, що довгі сеанси розмови плутають фундаментальний механізм чату в новому Bing».
![Microsoft обмежує чати Bing AI до 5 відповідей](/f/f36fba70a16d84ee418e18b896f42b98.png)
В публікація в блозі опублікованому в п'ятницю, Microsoft заявила, що, згідно з дослідженнями компанії, переважна більшість користувачів знайдіть відповіді, які вони шукають, протягом 5 ходів, і лише 1% обміну чатами включає 50 або більше повідомлення. Після 5 ходів сеансу розмови користувачам буде запропоновано почати нову тему. Контекст потрібно видаляти після кожного сеансу чату, щоб модель не заплуталася.
Ранні бета-тестери ШІ чат-бот, який, як передбачається, покращить пошукову систему Bing, виявив, що він може збиватися з колії та обговорювати насильство, проголошувати кохання та наполягати на своїй правоті, коли це було неправильно. У відповідях чат-бота також були фактичні неточності. Microsoft повідомила, що модифікує модель штучного інтелекту, щоб потроїти кількість даних, з яких можна отримати відповіді.
Після випуску чат-бота кілька людей повідомили про дивну, навіть тривожну поведінку. Після багатьох звинувачень Microsoft обмежує Bing A.I. спілкуйтеся в чатах до 5 відповідей, щоб мінімізувати дивні взаємодії у спеціальній публікації блогу. У ньому стверджується, що надто довгі розмови в чаті з 15 або більше запитами заплутують модель і змушують її відповідати не обов’язково корисно. Зараз компанія обмежує обговорення щодо вирішення проблеми, але фірма заявила, що це так може розглянути можливість розширення обмежень у майбутньому, оскільки він намагатиметься глибше дослідити справа. Компанія також заявила, що це дасть споживачам більше гнучкості щодо того, чи хочуть вони точні відповіді, отримані за допомогою власної технології Bing AI від Microsoft, чи більш «креативні» відповіді, отримані з ChatGPT від OpenAI технології.
Система ChatGPT справила сенсацію, коли була випущена в листопаді, але OpenAI попередила про можливі небезпеки, а Microsoft визнала обмеження ШІ. Незважаючи на чудові особливості штучного інтелекту, висловлювалися занепокоєння щодо його використання для злих цілей, таких як поширення дезінформації.
Рекомендовано:Microsoft ChatGPT Powered Bing каже, що він називається Сідней
Джерело:Блоги Microsoft Bing