Copilot se ha convertido en una de las herramientas conversacionales de IA más populares de los últimos tiempos. Sin embargo, al igual que otras alternativas de este sector, siempre ha existido todo el debate y el tema de las noticias falsas y sin fundamento que se pueden esparcir. Es precisamente por este motivo que siempre se ha recomendado tener cuidado con el contenido que se obtiene de estas herramientas.
Y en medio de todo este debate, Microsoft se encuentra trabajando en una nueva herramienta con el potencial para bloquear y modificar toda la información sin fundamento o falsa que pudiera existir en Copilot, de manera que se mejoren las respuestas obtenidas y su veracidad. Esto es de las tantas novedades que integra el chatbot.
Microsoft lucha contra las respuestas sin fundamento para mejorar las respuestas de la IA
Cuando se presentó Copilot, por allá por febrero de 2023, empezaron a surgir críticas en los medios de comunicación debido a que estaban recibiendo respuestas bastante extrañas y que no tenían sentido. De hecho, había muchos problemas de veracidad en estas respuestas.
A raíz de esto, Microsoft empezó a trabajar en establecer límites en lo que respecta a la cantidad de preguntas por día mientras intentaban solucionar todos estos problemas de errores y respuestas extrañas y con problemas fácticos.
Es importante reconocer que la compañía hizo un estupendo trabajo al eliminar las restricciones de turnos, aún podemos toparnos con respuestas extrañas. Pero no todo está perdido, ya que Microsoft ha compartido a través de su blog oficial que se encuentran comprometidos con acabar con estos errores fácticos y de información sin fundamento en Copilot.
Microsoft ha explicado que estos problemas con las respuestas ocurren por una situación denominada ‘contenido sin fundamento’. Entonces, Copilot, por alguna razón, toma y modifica datos que se han añadido en su modelo. Esto puede ser algo positivo en el enfoque de respuestas creativas, como al redactar una historia, por ejemplo.
La compañía alega que se encuentra trabajando arduamente en todo tipo de herramientas que les permitan deshacerse de estos datos sin fundamentos. Para ello, confirman que sus ingenieros han estado modificando el modelo de Copilot y complementando con datos de búsqueda de Bing mediante la generación aumentada de recuperación. Esto aporta más conocimiento al modelo y se puede entrenar, lo que siempre está muy bien.
Por otro lado, Microsoft también comenta que sus clientes empresariales pueden hacer uso de Azure OpenAi, donde encontrarán una función denominada ‘On Your Data’ y que les permite acceder a sus datos e información interna a través de las apps potenciadas por IA. Pero no es todo, ya que hay una herramienta extra que les puede ayudar a identificar si las respuestas de sus chats conversacionales están bien fundamentadas. Además, añaden que siguen trabajando arduamente para reducir al mínimo este tipo de respuestas, pero se desconoce cuándo estará disponible una solución definitiva.