saltar al contenido
·AI Technology

Nvidia, SK Hynix, Samsung y Micron están trabajando en un nuevo estándar de memoria de Socamm para PC con IA

Memoria de Socamm

Nvidia es conocido principalmente por sus tarjetas gráficas, y hace solo unas semanas lanzaron el RTX 50, de las cuales hemos visto muy pocas unidades y han sido clasificados como un lanzamiento en papel. Aunque NVIDIA es famoso por sus GPU, también es responsable de desarrollar nuevas tecnologías y ahora está sumergido en un proyecto para crear un nuevo estándar de memoria. 

Según Sedaily, NVIDIA está liderando una colaboración entre Samsung, Micron y SK Hynix para crear un nuevo estándar para la memoria centrada en AI. Este último se llamaría al sistema en el módulo de memoria avanzada de chip, o más simplemente, Socamm.

Las tarjetas gráficas de juegos y las tarjetas de gráficos profesionales o de IA difieren principalmente en la cantidad y el tipo de memoria que usan. En el caso de las GPU de los juegos, ya hemos visto que usan GDDR6, GDDR6X o GDDR7 en el caso de la última RTX 50 de NVIDIA. Memoria HBM de alta capacidad. Así es como hemos visto GPU que superan los 100 GB de la memoria y esto es necesario para aplicaciones de este tipo.

Dígitos de proyecto de Nvidia AI PCS

Las GPU de AI continuarán usando la memoria HBM3E y HBM4 en el futuro, pero eso no significa que cada dispositivo haga lo mismo. Resulta que NVIDIA quiere hacer computadoras como dígitos de proyectos, que probablemente recuerde como una especie de supercomputadora de IA compacta. Utiliza un Superchip Grace Blackwell GB10 con una CPU de brazo de 20 núcleos y 128 GB de RAM DDR5X.

Con este chip y una GPU de Blackwell con 1 Petaflop de FP4 para AI, es posible ejecutar LLM de hasta 200 mil millones de parámetros y utiliza Linux para poder usar todo tipo de herramientas. Inspirado en dígitos, NVIDIA se ha unido a sus socios Samsung, SK Hynix y Micron para crear un formato de memoria llamado SOCMM (System on Chip Advanced Memory Module). Esta es una evolución del estándar CAMM solo adaptado al sistema de chips Nvidia y estos fabricantes esperan poder fabricar en masa la nueva memoria este año 2025.

Que es socamm

Socamm tiene un mayor número de puertos de E/S en comparación con LPCAMM y DRAM, con 694 puertos en total, mientras que los otros dos tienen 644 y 260, respectivamente. Otra ventaja es que Socamm sería más rentable que la DRAM convencional usando SO-DIMM. También es más pequeño que los módulos DRAM tradicionales y tiene un módulo extraíble para facilitar las actualizaciones. El objetivo de Nvidia con esta memoria es habilitar PC del tamaño de la palma con altas capacidades de IA.

Teniendo en cuenta que la inteligencia artificial depende de la memoria, este nuevo factor de forma tiene sentido, ya que permite el uso de la memoria en un formato más pequeño y más eficiente. Según Jensen Huang, en los futuros artistas, los ingenieros y cualquier persona involucrada en IA necesitarán pequeñas supercomputadoras personales y ahí es donde Socamm tiene sentido. No sabemos si tendremos supercomputadoras de dígitos en nuestros hogares en el futuro, pero se espera que la próxima generación de ellas utilicen dicha memoria.

Other Regions ( Español )

_{area}

_{region}
_{language}