Meta apuesta por NVIDIA para impulsar la próxima versión de Llama 3
El gigante tecnológico Meta ha confirmado el lanzamiento de Llama 3, su modelo de lenguaje grande (LLM) de próxima generación. La presentación oficial se llevará a cabo en mayo de 2024, iniciando una nueva era en la inteligencia artificial de la compañía.
Un futuro con IA a la medida
Nick Clegg, presidente de asuntos globales de Meta, mencionó que Llama 3 estará disponible en diferentes versiones, cada una con capacidades específicas para adaptarse a las necesidades de diversos usuarios.
Aunque no se revelaron detalles técnicos específicos, se espera que este modelo represente un gran avance en comparación con sus predecesores.
Joelle Pineau, vicepresidenta de investigación de inteligencia artificial en Meta, mencionó que el objetivo a largo plazo es convertir a Meta AI en el asistente inteligente más útil del mundo. Llama 3 jugará un papel fundamental en esta estrategia, impulsando la creación de herramientas y soluciones innovadoras.
Código abierto: ¿un futuro por explorar?
Si bien Meta no ha confirmado si Llama 3 será de código abierto como sus predecesores, Mark Zuckerberg, CEO de la compañía, ha reiterado su compromiso con este modelo de desarrollo.
En una entrevista con The Verge, Zuckerberg mencionó que el acceso abierto a la tecnología es crucial para la democratización de la inteligencia artificial.
Zuckerberg ha declarado que el objetivo final de Meta es construir una inteligencia artificial general. Llama 3 representa un paso importante en esta dirección, impulsando la investigación y el desarrollo de tecnologías más avanzadas.
Meta apuesta por la potencia de NVIDIA
Para alcanzar sus objetivos, Meta ha realizado una inversión millonaria en chips de NVIDIA. La adquisición de 340.000 GPU H100 antes de finales de 2024 permitirá a la compañía aumentar considerablemente su capacidad de procesamiento y desarrollo de IA.
Meta ya cuenta con modelos de código abierto disponibles para los desarrolladores, como Code Llama 70B, un LLM enfocado en la programación.
Las pruebas de HumanEval han demostrado que este modelo supera a GPT-4 por un pequeño margen. Con Llama 3, Meta busca posicionarse a la vanguardia de la industria, creando modelos líderes en el mercado.
¿Un modelo multimodal en el horizonte?
La duda que queda por resolver es si Meta optará por un modelo multimodal para Llama 3, capaz de procesar texto, imágenes, sonido y video.
Durante el evento de Londres, Chris Cox, director de productos de Meta, mencionó los desafíos que implica la generación de imágenes, pero también la importancia de la latencia, la seguridad y la facilidad de uso.