Al ver la fuerza en los números, Apple ha dado un paso estratégico en el competitivo mercado de la inteligencia artificial al poner a disposición ocho pequeños modelos de IA. Las herramientas compactas, denominadas colectivamente OpenELM, están diseñadas para funcionar en dispositivos móviles y fuera de línea, lo que las hace perfectas para teléfonos inteligentes.
Publicado en la comunidad de IA de código abierto abrazando la cara, los modelos se ofrecen en versiones con 270 millones, 450 millones, 1,1 mil millones y 3 mil millones de parámetros. Los usuarios también pueden descargar OpenELM de Apple en versiones previamente entrenadas o ajustadas a las instrucciones.
Los modelos previamente entrenados proporcionan una base sobre la cual los usuarios pueden ajustar y desarrollar. Los modelos ajustados a instrucciones ya están programados para responder a instrucciones, lo que los hace más adecuados para conversaciones e interacciones con usuarios finales.
Si bien Apple no ha sugerido casos de uso específicos para estos modelos, podrían aplicarse para ejecutar asistentes que puedan analizar correos electrónicos y mensajes de texto, o proporcionar sugerencias inteligentes basadas en datos. Este es un enfoque similar al adoptado por Googleque implementó su modelo Gemini AI en su línea de teléfonos inteligentes Pixel.
Los modelos se entrenaron en conjuntos de datos disponibles públicamente y Apple comparte tanto el código CoreNet (la biblioteca utilizada para entrenar OpenELM) como las «recetas» para sus modelos. En otras palabras, los usuarios pueden inspeccionar cómo los construyó Apple.
El lanzamiento de Apple llega poco después Microsoft anunciará Phi-3, una familia de pequeños modelos de lenguaje capaces de ejecutarse localmente. Phi-3 Mini, un modelo de 3.800 millones de parámetros entrenado en 3,3 billones de tokens, todavía es capaz de manejar 128.000 tokens de contexto, lo que lo hace comparable a GPT-4 y superando a Llama-3 y Mistral Large en términos de capacidad de tokens.
Al ser de código abierto y liviano, Phi-3 Mini podría potencialmente reemplazar a los asistentes tradicionales como Siri de Apple o Gemini de Google para algunas tareas, y Microsoft ya probó Phi-3 en un iPhone y reportó resultados satisfactorios y generaciones rápidas de tokens.
Si bien Apple aún tiene que integrar estas nuevas capacidades de modelado de lenguaje de IA en sus dispositivos de consumo, se rumorea que la próxima actualización de iOS 18 incluye Nuevas funciones de IA que utilizan el procesamiento en el dispositivo para garantizar la privacidad del usuario.
El hardware de Apple tiene la ventaja de utilizar la IA local, ya que combina la RAM del dispositivo con la RAM de vídeo de la GPU (o VRAM). Esto significa que una Mac con 32 GB de RAM (una configuración común en una PC) puede usar esa RAM como lo haría la VRAM de la GPU para ejecutar modelos de IA. En comparación, los dispositivos ventanas son limitados por la RAM del dispositivo y la VRAM de la GPU por separado. A menudo, los usuarios necesitan comprar una potente GPU de 32 GB para aumentar la RAM y ejecutar modelos de IA.
Sin embargo, Apple se queda atrás de Windows/Linux en el ámbito del desarrollo de IA. La mayoría de las aplicaciones de IA giran en torno a hardware diseñado y construido por Nvidia, que Apple eliminó gradualmente para admitir sus propios chips. Esto significa que hay relativamente poco desarrollo de IA nativo de Apple y, como resultado, usar IA en productos Apple requiere capas de traducción u otros procedimientos complejos.