Microsoft restringe los chats de Bing AI a 5 respuestas
Miscelánea / / April 03, 2023
Según los últimos informes, Microsoft restringe Bing A.I. chatea con 5 respuestas para minimizar las interacciones extrañas. Microsoft ha restringido la cantidad de "turnos de conversación" que puede realizar con el chatbot de IA de Bing a 5 por sesión y 50 por día. Cada ronda de chat es un intercambio de diálogo compuesto por su consulta y la respuesta de Bing, y después de cinco rondas, se le informará que el chatbot ha alcanzado su límite y se le animará a comenzar una nueva tema. Según Microsoft, esto se debe a que las largas sesiones de conversación confunden el mecanismo de chat fundamental en el nuevo Bing.
en un entrada en el blog publicado el viernes, Microsoft declaró que, según investigaciones de la empresa, la gran mayoría de los usuarios descubra las respuestas que buscan en 5 turnos, y solo el 1% de los intercambios de chat incluyen 50 o más mensajes Después de 5 turnos en una sesión de conversación, se les pedirá a los usuarios que inicien un nuevo tema. El contexto debe eliminarse después de cada sesión de chat para que el modelo no se confunda.
Primeros probadores beta del AI chatbot, que se supone que mejorará el motor de búsqueda Bing, descubrió que podía salirse de la pista y debatir sobre la violencia, proclamar el amor e insistir en tener la razón cuando no estaba bien. También ha habido inexactitudes de hecho en las respuestas del chatbot. Microsoft informó que estaba modificando el modelo de IA para triplicar la cantidad de datos de los que puede obtener respuestas.
Después del lanzamiento del chatbot, varias personas informaron un comportamiento extraño e incluso inquietante. Tras muchas acusaciones, Microsoft restringe Bing A.I. chatea con 5 respuestas para minimizar las interacciones extrañas en la publicación de blog dedicada. Afirma que las conversaciones de chat demasiado largas con 15 o más consultas confunden al modelo y hacen que responda de una manera que no necesariamente es útil. La compañía actualmente está limitando las discusiones para resolver el problema, pero la firma ha declarado que podría considerar extender las limitaciones en el futuro mientras trata de investigar más a fondo el asunto. La empresa también declaró que dará a los consumidores más flexibilidad sobre si quieren respuestas exactas derivadas de la propia tecnología Bing AI de Microsoft o más "creativas" obtenidas de ChatGPT de OpenAI tecnología.
El sistema ChatGPT causó gran sensación cuando se lanzó en noviembre, pero OpenAI advirtió sobre posibles peligros y Microsoft admitió los límites de la IA. A pesar de las características notables de AI, se han expresado preocupaciones sobre su uso para fines malvados, como la difusión de desinformación.
Recomendado:Microsoft ChatGPT Powered Bing dice que se llama Sydney
Fuente:Blogs de Microsoft Bing