Microsoft limita le chat di Bing AI a 5 risposte
Varie / / April 03, 2023
Secondo gli ultimi rapporti, Microsoft limita Bing A.I. chat a 5 risposte per ridurre al minimo le strane interazioni. Microsoft ha limitato la quantità di "turni di conversazione" che puoi effettuare con il chatbot AI di Bing a 5 per sessione e 50 al giorno. Ogni round di chat è uno scambio di dialoghi composto dalla tua domanda e dalla risposta di Bing, e dopo cinque round, verrai informato che il chatbot ha raggiunto il limite e sarai incoraggiato a ricominciare da capo argomento. Secondo Microsoft, ciò è dovuto al fatto che lunghe sessioni di conversazione confondono il meccanismo di chat fondamentale nel nuovo Bing.
In un post sul blog pubblicato venerdì, Microsoft ha dichiarato che, secondo la ricerca dell'azienda, la grande maggioranza degli utenti scoprono le risposte che stanno cercando entro 5 turni e solo l'1% degli scambi di chat ne include 50 o più messaggi. Dopo 5 turni in una sessione di conversazione, agli utenti verrà chiesto di iniziare un nuovo argomento. Il contesto deve essere rimosso dopo ogni sessione di chat in modo che il modello non venga confuso.
I primi beta tester di AI chatbot, che dovrebbe migliorare il motore di ricerca Bing, ha scoperto che potrebbe uscire dai binari e discutere la violenza, proclamare l'amore e insistere per avere ragione quando non era corretto. Ci sono state anche inesattezze fattuali nelle risposte del chatbot. Microsoft ha riferito che stava modificando il modello AI per triplicare la quantità di dati da cui può ottenere risposte.
Dopo il rilascio del chatbot, diverse persone hanno segnalato comportamenti strani, persino inquietanti. A seguito di numerose accuse, Microsoft limita Bing A.I. chat a 5 risposte per ridurre al minimo le strane interazioni nel post del blog dedicato. Afferma che conversazioni di chat eccessivamente lunghe con 15 o più query confondono il modello e lo inducono a rispondere in un modo non necessariamente utile. La società sta attualmente limitando le discussioni per risolvere il problema, ma l'azienda lo ha dichiarato potrebbe prendere in considerazione l'estensione dei limiti in futuro mentre cerca di indagare ulteriormente sul questione. L'azienda ha anche affermato che offrirà ai consumatori maggiore flessibilità sul fatto che desiderino risposte esatte derivate dalla tecnologia Bing AI di Microsoft o risposte più "creative" provenienti da ChatGPT di OpenAI tecnologia.
Il sistema ChatGPT ha fatto scalpore quando è stato rilasciato a novembre, ma OpenAI ha avvertito di possibili pericoli e Microsoft ha ammesso i limiti dell'IA. Nonostante le straordinarie caratteristiche dell'IA, sono state espresse preoccupazioni riguardo al suo utilizzo per fini malvagi come la diffusione di disinformazione.
Consigliato:Microsoft ChatGPT Powered Bing dice che si chiama Sydney
Fonte:Blog Microsoft Bing