jueves, 21 noviembre 2024

Microsoft está desarrollando una herramienta para eliminar las ‘fake news’ de Copilot

Microsoft está trabajando arduamente para acabar con las respuestas con errores fácticos y sin fundamentos de su chatbot con IA.

Copilot se ha convertido en una de las herramientas conversacionales de IA más populares de los últimos tiempos. Sin embargo, al igual que otras alternativas de este sector, siempre ha existido todo el debate y el tema de las noticias falsas y sin fundamento que se pueden esparcir. Es precisamente por este motivo que siempre se ha recomendado tener cuidado con el contenido que se obtiene de estas herramientas.

Y en medio de todo este debate, Microsoft se encuentra trabajando en una nueva herramienta con el potencial para bloquear y modificar toda la información sin fundamento o falsa que pudiera existir en Copilot, de manera que se mejoren las respuestas obtenidas y su veracidad. Esto es de las tantas novedades que integra el chatbot.

Microsoft lucha contra las respuestas sin fundamento para mejorar las respuestas de la IA

Microsoft intenta solucionar el problema de obtener respuestas con información falsa
Microsoft intenta solucionar el problema de obtener respuestas con información falsa

Cuando se presentó Copilot, por allá por febrero de 2023, empezaron a surgir críticas en los medios de comunicación debido a que estaban recibiendo respuestas bastante extrañas y que no tenían sentido. De hecho, había muchos problemas de veracidad en estas respuestas.

A raíz de esto, Microsoft empezó a trabajar en establecer límites en lo que respecta a la cantidad de preguntas por día mientras intentaban solucionar todos estos problemas de errores y respuestas extrañas y con problemas fácticos.

Es importante reconocer que la compañía hizo un estupendo trabajo al eliminar las restricciones de turnos, aún podemos toparnos con respuestas extrañas. Pero no todo está perdido, ya que Microsoft ha compartido a través de su blog oficial que se encuentran comprometidos con acabar con estos errores fácticos y de información sin fundamento en Copilot.

Microsoft ha explicado que estos problemas con las respuestas ocurren por una situación denominada ‘contenido sin fundamento’. Entonces, Copilot, por alguna razón, toma y modifica datos que se han añadido en su modelo. Esto puede ser algo positivo en el enfoque de respuestas creativas, como al redactar una historia, por ejemplo.

Microsoft ha demostrado estar totalmente coprometida con solucionar este problema de respuestas sin fundamento en su chatbox
Microsoft ha demostrado estar totalmente coprometida con solucionar este problema de respuestas sin fundamento en su chatbox

La compañía alega que se encuentra trabajando arduamente en todo tipo de herramientas que les permitan deshacerse de estos datos sin fundamentos. Para ello, confirman que sus ingenieros han estado modificando el modelo de Copilot y complementando con datos de búsqueda de Bing mediante la generación aumentada de recuperación. Esto aporta más conocimiento al modelo y se puede entrenar, lo que siempre está muy bien.

Por otro lado, Microsoft también comenta que sus clientes empresariales pueden hacer uso de Azure OpenAi, donde encontrarán una función denominada ‘On Your Data’ y que les permite acceder a sus datos e información interna a través de las apps potenciadas por IA. Pero no es todo, ya que hay una herramienta extra que les puede ayudar a identificar si las respuestas de sus chats conversacionales están bien fundamentadas. Además, añaden que siguen trabajando arduamente para reducir al mínimo este tipo de respuestas, pero se desconoce cuándo estará disponible una solución definitiva.

Manuel Sifontes
Manuel Sifontes
Apasionado por la tecnología, especialmente de los productos de Microsoft, así como usuario del ecosistema de Windows de toda la vida.
Suscríbete
Notificar de
guest

0 Comentarios
Más votados
Más nuevos Más antiguos
Opinión Inline
Ver todos los comentarios

Últimas noticias