Durante años dimos por sentado que, con los años, las memorias RAM (Random Access Memory/ memoria de acceso aleatorio) –cuya función es almacenar temporalmente el espacio de trabajo de una computadora o dispositivo– serían más rápidas, baratas y más abundantes.
Hoy ese supuesto está roto y la culpa es de la inteligencia artificial (IA).
A mayor RAM, más tareas puede ejecutar el equipo de forma fluida, porque ahí se cargan el sistema operativo y las aplicaciones que cualquier usuario utiliza en su dispositivo en ese momento, pero los grandes modelos de lenguaje (LLM por sus cifras en inglés) como ChatGPT, Copilot, Gemini o DeepSeek consumen mucha RAM. Actualmente todos los LLM compiten por esta memoria para entrenarse y mejorar, lo que ha provocado una escasez histórica de estos componentes tan usados en millones de aparatos electrónicos.
Así se explica un fenómeno que, hace apenas cinco años, habría parecido absurdo: el regreso a los 8 GB de RAM como configuración base en computadoras o dispositivos nuevos. En pleno 2025, el mercado empieza a parecerse peligrosamente al de hace una década.
De acuerdo con reportes recogidos por el portal FayerWayer y otros medios especializados, varios fabricantes de notebooks han optado por volver a ofrecer equipos con 8 GB de RAM para mantener precios de entrada “competitivos”. No es una decisión técnica ni de diseño, sino resultado de la presión que la IA impone sobre la manufactura de memorias.
Fuente: La Jornada