martes, 26 noviembre 2024

El chat de Bing basado en inteligencia artificial sigue levantando sus límites

El chat de Bing, evolución de ChatGPT, recibió una calurosa acogida por parte del público después de que Microsoft anunciase su versión preliminar. Con más de un millón de registros en 48 horas, usuarios de todo el mundo comenzaron a poner a prueba al asistente conversacional de Microsoft… Con resultados inesperados.

Los de Redmond vieron que el modelo comenzaba a aprender del usuario y se despistaba si le cambiaban de tema en mitad de la conversación, pudiendo responder de forma seca e hiriente. También, se detectó que Bing era demasiado creativo e intentaba rellenar los huecos en los datos aportados con información inventada.

Así quedan los nuevos límites del chat de Bing

Para solucionarlo, la primera medida de Microsoft fue limitar la interacción con el chat de Bing. Como consecuencia, el chat basado en GPT-4 de Bing solo nos respondería 5 veces durante una misma conversación. Además, quedaba legitimado a finalizar la sesión de chat si el usuario pedía cosas que se excediesen en las funciones del buscador.

El límite de uso se situaba en 50 conversaciones al día. Aunque Microsoft no lo reconociese abiertamente, el objetivo de esto es rebajar la carga de los servidores de Bing, ya que una consulta en el chat conversacional puede ser equivalente hasta a 6 búsquedas convencionales.

Poco después, este límite se levantó hasta los 6 mensajes por conversación y 60 conversaciones al día. Ahora, Microsoft ha decidido seguir levantando el pie del freno y elevar los límites a 8 mensajes por conversación y hasta 120 conversaciones al día. Esto debería acercarnos a un uso prácticamente sin restricciones de la herramienta.

Esto se suma a los modos que podemos elegir a la hora de recibir la información. Esta solución viene a evitar los problemas de creación de la información que tenía Bing en su primera versión, pudiendo elegir si queremos una respuesta creativa, equilibrada o precisa para responder a nuestras consultas.

Javier Gualix Vidal
Javier Gualix Vidalhttp://microsofters.com
Administrador de sistemas. Creador de contenido en Microsofters. Hincha del Atlético de Madrid.

5 COMENTARIOS

Suscríbete
Notificar de
guest

5 Comentarios
Más votados
Más nuevos Más antiguos
Opinión Inline
Ver todos los comentarios
Michael Cerdas

Con, además de que es molesto que con pequeñas cosas abandone el chay

Yurleison

Creo que tienen que ajustar uno de los modos de Bing para que responda a la generación de cristal, pq veré a más de uno ofendido con una IA

Yurleison

Recomiendo siempre el modo equilibrado, es mejor respondiendo que el resto.
Ayer Bing me pegó mera regañado por decirle repetidamente que hiciera algo que el no sabía hacer y luego terminó la conversación jaja

Uio

Cierto es de muy mala cosa

jmartorell

Bing Chat no cumple los limites, ni de las conversaciones ni de las interacciones por cada conversacion cundo quiere te echa de la conversacion e incluso te dice que has superado el limita diario, yo en una conversacion solo pude hacer 6 preguntas porque Bing decidio que la conversacion era muy tensa y despues en otra cuando le hiba a hacer el comentario 5 me echo y me dijo que habia llegado a mi limite diario de conversaciones, impidiendome seguir utilizando bing chat, nunca antes me habia sucedido, y por supuesto con ChatGpt no ocurre. Muy decepcionante la verdad, y te indica que tal vez no sea una herramienta tan util o que no les interesa en absoluto a Microsoft. La cuestion es que echa al usuario y lo bloquea cuando quiere, por lo que no es tan libre como parece.

Últimas noticias