viernes, 13 diciembre 2024

La guerra de la IA generativa: AWS critica a Azure y Google

La inteligencia artificial (IA) generativa es una rama de la IA que utiliza modelos de lenguaje a gran escala (LLMs) para crear contenido nuevo como texto, imágenes, audio y vídeo. La tecnología ha avanzado rápidamente en los últimos años, con avances como GPT-3 y GPT-4 de OpenAI, PaLM y PaML-2 de Google, y LLaMA de Meta. Estos modelos pueden generar textos realistas y coherentes sobre diversos temas, responder preguntas, escribir código y hasta componer canciones.

La alianza entre Microsoft y OpenAI

Microsoft, invirtió 1.000 millones de dólares en OpenAI en 2019 y posteriormente 10.000 millones de dólares. Consiguiendo acceso exclusivo a los modelos de OpenAI y los ofrece a sus clientes de Azure, su plataforma de computación en la nube. Esta alianza le ha permitido a Microsoft posicionarse como un líder en el campo de la IA generativa, ofreciendo soluciones innovadoras y de alta calidad a sus usuarios.

La respuesta de Google y AWS

Google, que desarrolló sus propios modelos de vanguardia internamente, también los pone a disposición a través de su plataforma Google Cloud. Mientras tanto, AWS, que entró en el mercado de la IA generativa más tarde que sus competidores, se ha asociado con Anthropic, una startup de IA, para proporcionar su modelo Claude2 en AWS. AWS también anunció su propia serie de modelos Titan, que no son tan avanzados como los modelos ofrecidos por Microsoft y Google.

El ataque de Selipsky a Microsoft y Google

Adam Selipsky, que asumió el cargo de CEO de AWS en marzo, intentó presentar a AWS como la mejor opción para los clientes que quieren utilizar la IA generativa en sus negocios. Afirmó que AWS ofrece más variedad y flexibilidad que otros proveedores de nube, y criticó a Microsoft por estar “sometido principalmente a un proveedor de modelos”. También dijo que habló con al menos 10 CIOs de Fortune 500 que prohibieron ChatGPT, un popular servicio de chatbot impulsado por los modelos de OpenAI, de sus empresas debido a preocupaciones de privacidad y seguridad.

Sin embargo, los argumentos de Selipsky no son del todo precisos ni justos. Primero, Microsoft no depende solo de los modelos de OpenAI, sino que también ofrece una serie de modelos diferentes de otras fuentes, como Falcon, Stable Diffusion, LLaMA 2, Cohere, Jais, Mistral y NVIDIA Nemotran. Esto es similar a cómo Amazon depende de Anthropic y modelos de otros lugares. Segundo, ChatGPT tiene un producto empresarial separado, llamado ChatGPT Enterprise, que no utiliza datos de usuario para el entrenamiento y cumple con las normas de protección de datos. Tercero, Selipsky mencionó que muchos otros proveedores de nube “todavía están solo hablando” de sus propios chips de IA. Ignoró el hecho de que Google lleva usando sus propios chips de IA personalizados, llamados Unidades de Procesamiento Tensorial (TPUs), desde 2016. Los chips TPU de Google están diseñados para acelerar el entrenamiento y la inferencia de modelos a gran escala.

VíaMSPU
José Palacios
José Palacioshttps://microsofters.com
Todo esto empezó con Windows 8 y ya vamos por Windows 11. La tecnología y la comunidad es la mezcla perfecta para seguir después de tantos años.

1 COMENTARIO

Suscríbete
Notificar de
guest

1 Comentario
Más votados
Más nuevos Más antiguos
Opinión Inline
Ver todos los comentarios
Jose

Selipsky solo está intentando avanzar en la fila hablando disparates pq saben que van de últimos.

Últimas noticias