saltar al contenido

¿La gran jugada de Samsung? Se rumorea que el Galaxy S26 incorporará LLM, lo que desencadenará la próxima guerra de la IA en smartphones.

Durante el último año, los fabricantes de smartphones han acelerado sus iniciativas de IA. El YOYO de Honor se ha integrado con más agentes de terceros, conectando las capacidades de IA entre las capas del sistema y las aplicaciones, mientras que el Xiaoyi de Huawei puede navegar entre aplicaciones para completar tareas con un solo comando.

A pesar de estos importantes avances, un análisis más detallado revela una realidad fundamental: estas funciones de IA aún dependen de una conexión a internet. En esencia, la IA de los smartphones se encuentra en la fase de colaboración entre el borde y la nube, y aún no ha dado el siguiente paso significativo.

Recientemente, una filtración sobre X de Semi-retired-ing reveló que Samsung está preparando un modelo de lenguaje grande (LLM) que puede ejecutarse localmente en la próxima serie Galaxy S26 para potenciar la mayoría de sus funciones de IA. Se dice que este modelo integrado incluso cuenta con privilegios avanzados, lo que le permite borrar la memoria cuando sea necesario para garantizar que pueda responder a las solicitudes de los usuarios en cualquier momento.

De hecho, Samsung presentó un LLM integrado en el dispositivo llamado "Gauss" en 2023, que incluso se rumoreaba que estaría preinstalado en la serie Galaxy S25. Sin embargo, por razones desconocidas, Samsung ha estado promocionando intensamente Gemini de Google y apenas ha mencionado Gauss desde entonces. Es ahora cuando el modelo integrado de Samsung vuelve a estar de moda. Dado que la mayoría de los fabricantes siguen centrándose en soluciones basadas en la nube, ¿por qué Samsung intenta implementar el modelo directamente en el teléfono? ¿Se trata de una estrategia para adelantarse a la competencia o la plataforma móvil finalmente tiene la capacidad de implementar LLM localmente? Sea cual sea la respuesta, una nueva fase de la IA en smartphones está a punto de comenzar.

Los fabricantes de teléfonos inteligentes no abandonarán el modelo híbrido Edge-Nube

Si Samsung realmente implementa un LLM localmente, ¿significa esto que la IA de los smartphones abandonará la estrategia híbrida edge-cloud para adoptar un enfoque puramente en el dispositivo? En realidad, es improbable que esto suceda a corto plazo. El modelo híbrido edge-cloud es actualmente una solución casi perfecta. La nube gestiona la escala del modelo, el razonamiento complejo y la iteración rápida, aprovechando los recursos informáticos superiores de los servidores para actualizaciones, gobernanza y seguridad. Mientras tanto, el dispositivo (el edge) gestiona el comando inicial del usuario, como las palabras de activación, el reconocimiento de voz y el análisis básico de intenciones, antes de enviar solicitudes complejas a la nube.

Esta división del trabajo funciona bien para usuarios que usan IA ocasionalmente. Sin embargo, esta lógica se basa en la suposición de que la frecuencia de uso de la IA no es demasiado alta. A medida que se aclara el rumbo de la IA en smartphones, los fabricantes están cambiando su enfoque de "responder a sus preguntas" a "completar tareas por usted". La IA está evolucionando de un chatbot a un sistema capaz de comprender el contenido en pantalla, desglosar los objetivos de las tareas y planificar rutas de ejecución, formando una cadena completa de agentes de IA. Una vez que la IA entra en este escenario de interacción continua, de alta frecuencia y a nivel de sistema, las deficiencias del modelo edge-cloud se hacen evidentes. Por ejemplo, en condiciones de red débiles, la latencia de respuesta en la nube puede causar interrupciones notables. En una secuencia de comandos, una caída de la red podría detener todo el proceso. Para los usuarios, esta ineficiencia es inaceptable.

LLM en dispositivo: ¿Cuáles son los obstáculos?

Dadas las desventajas del modelo híbrido, ¿por qué ha sido tan difícil implementar las LLM en dispositivos en smartphones? No es que los fabricantes no estén dispuestos a intentarlo, sino que las limitaciones son muy claras. En primer lugar, están las limitaciones del hardware. La memoria, la potencia de procesamiento y el consumo de energía son las tres condiciones fundamentales para la IA en dispositivos. Incluso para un modelo de tamaño moderado, la ejecución constante en segundo plano ejerce una presión continua sobre los recursos del sistema. Según se informa, el simple requisito de memoria ha obligado a Apple a aumentar la RAM de sus iPhones. En segundo lugar, están los costes de estabilidad y mantenimiento. Los modelos en la nube se pueden iterar rápidamente con correcciones de errores instantáneas, mientras que los modelos en dispositivos solo se pueden optimizar mediante actualizaciones del sistema. Para una IA a nivel de sistema, esto implica mayores riesgos y mayores costes de prueba.

Sin embargo, el panorama está cambiando en 2025, ya que las mejoras significativas en las capacidades de los chips están haciendo que los LLM puramente en el dispositivo sean una realidad cercana. Tomemos como ejemplo el Snapdragon 8 Gen 5. Qualcomm ha revelado que su NPU Hexagon puede alcanzar velocidades de salida de alrededor de 200 tokens/s en tareas generativas locales. Esta métrica es significativa porque significa que los modelos en el dispositivo ahora pueden realizar generación de lenguaje natural y continua, un prerrequisito para que la IA ejecute comandos interactivos complejos. De manera similar, el Dimensity 9500 de MediaTek presenta un diseño de eficiencia energética más agresivo en su NPU 990. Según las afirmaciones oficiales, mejora la eficiencia de generación en un modelo en el dispositivo de 3 mil millones de parámetros, al tiempo que reduce significativamente el consumo general de energía. Esto sugiere que los modelos en el dispositivo ya no son solo una función de "ejecución única", sino que se están volviendo viables para el funcionamiento continuo.

La IA en el dispositivo no será una revolución, sino una línea divisoria para los buques insignia

Al analizar las opciones de los principales fabricantes, el modelo híbrido edge-cloud sigue siendo la solución más prudente. Xiaoyi de Huawei, por ejemplo, sigue siendo uno de los asistentes de IA a nivel de sistema más completos de China; sin embargo, su arquitectura central sigue siendo un híbrido clásico: el dispositivo gestiona la percepción y la comprensión básica, mientras que la nube se encarga del razonamiento complejo. Esto no se debe a que los fabricantes no puedan implementar IA en el dispositivo, sino a una compensación práctica. Cuando la IA se integra profundamente en el sistema y los servicios, la estabilidad, la eficiencia y el control de recursos siempre son más importantes que una implementación agresiva.

En definitiva, los modelos de lenguaje de gran tamaño (LMG) integrados en el dispositivo no cambiarán por completo la dirección general de la IA en smartphones a corto plazo. Ya sea Samsung, Huawei u otras grandes empresas nacionales, la opción actual es la solución híbrida edge-cloud. Al fin y al cabo, los smartphones no se diseñaron para modelos de gran tamaño, lo que obliga a un equilibrio entre rendimiento, consumo de energía, estabilidad y seguridad. Desde esta perspectiva, los LLM integrados en el dispositivo quizá no sean la característica estrella en los eventos de lanzamiento de teléfonos, pero elevarán discretamente el nivel técnico de los dispositivos insignia. Esto creará una brecha tangible en la experiencia entre los teléfonos con IA integrados y aquellos basados ​​exclusivamente en la nube. Esa línea divisoria podría trazarse muy pronto.

_{area}

_{region}
_{language}