Inteligencia Artificial

IA ligera y potente, Microsoft presenta la familia Phi-3

Microsoft apuesta por IA pequeña y eficiente

Microsoft ha desatado una oleada de innovación en Build 2024, presentando su nueva familia de modelos de lenguaje pequeño (SLM) que redefine la potencia de la IA. El protagonista de la jornada es Phi-3 Mini, un modelo ligero que sorprende por su capacidad, desafiando a titanes como GPT-3.5.

Pequeño pero feroz: Phi-3 Mini

A pesar de su tamaño compacto, Phi-3 Mini no se acobarda ante los desafíos. Entrenado con cuentos infantiles y utilizando un vocabulario sencillo, este modelo ha logrado alcanzar un rendimiento comparable al de GPT-3.5, todo ello ejecutándose en dispositivos móviles o PCs básicos.

Sus 3.800 millones de parámetros le permiten procesar lenguaje natural con fluidez, abriendo un abanico de posibilidades para aplicaciones en todo tipo de dispositivos. Phi-3 Mini ya está disponible en Azure para que desarrolladores exploren su potencial.

Inteligencia Artificial que ve y comprende: Phi-3 vision

Pero Microsoft no se detiene ahí. La compañía ha presentado Phi-3 vision, un modelo multimodal que integra la comprensión de texto e imágenes. Esta innovación permite a la IA razonar sobre gráficos, diagramas e incluso imágenes del mundo real, extrayendo información relevante y respondiendo preguntas de forma precisa.

A pesar de su complejidad, Phi-3 vision se mantiene compacto, con 4.200 millones de parámetros, superando en rendimiento a modelos más grandes como Gemini 1.0 Pro V o Claude-3 Haiku en tareas de razonamiento visual.

Software a medida para Copilot+ PC: Phi-Silica

Microsoft guarda lo mejor para el final: Phi-Silica, un SLM diseñado específicamente para los ordenadores Copilot+ PC. Integrado en dispositivos como Surface Pro y Surface Laptop, este modelo, con tan solo 3.300 millones de parámetros, aprovecha al máximo los chips Snapdragon X Elite de Qualcomm.

Esta IA se optimiza para ejecutarse en la NPU de Copilot+ PC, logrando inferencias locales ultrarrápidas y un bajo consumo energético.

Phi-Silica se convierte en el primer modelo de lenguaje implementado de forma local en Windows, con una latencia de primer token de 650 tokens/segundo y un consumo de energía de 1,5 vatios, Phi-Silica marca un hito en la eficiencia de la IA.

Los nuevos modelos de la familia Phi representan un salto gigante en cuanto a rendimiento, accesibilidad y eficiencia, acercando la IA a un público más amplio y abriendo un sinfín de posibilidades para el futuro.

Artículos relacionados

Back to top button
PasionMóvil
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible.

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudarnos a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Tienes toda la información sobre privacidad, derechos legales y cookies en nuestra página de privacidad y cookies.

Adblock Detectado

Por favor desactiva tu Adblock para poder navegar en nuestro sitio web