Apple ha desarrollado ocho nuevos modelos de lenguaje, como se detalla en el documento PDF que han compartido sobre sus nuevos modelos de lenguaje OpenELM.
El objetivo de OpenELM es crear un modelo más eficiente y capaz de ejecutarse localmente en los dispositivos.
Actualmente, Apple ya cuenta con OpenELM, ReALM y MM1, modelos de lenguaje que estarán presentes en iOS y iPadOS 18. Estos modelos pueden combinarse para crear uno solo que permita ejecutar funciones de inteligencia artificial en los dispositivos. La meta es que estas funciones sean privadas, rápidas y locales.
Es posible que la compañía logre que la mayoría de sus funciones de inteligencia artificial se ejecuten localmente, al menos inicialmente, en lugar de depender de servidores en la nube. Aunque este enfoque, con menos parámetros, es más rápido y privado que un sistema que procesa funciones en la nube, es lo que busca Apple.
Se espera que todo este trabajo se integre en iOS 18, lo que significará mejoras en Siri y beneficios para las aplicaciones nativas como Apple Music, Mensajes, la aplicación Salud y las herramientas de la suite iWork.
También se anticipa mejoras en Safari, con la posibilidad de incluir un nuevo asistente de navegación.