Tres mitos sobre la memoria gráfica que debes olvidar por completo
La memoria gráfica ha sido, desde hace muchos años, un componente fundamental en el mundo del PC. Todavía me acuerdo cuando, a mediados de los noventa, recibí mi primer PC, este venía con una tarjeta gráfica SiS de 1 MB que, debido a su baja cantidad de memoria, no me permitía utilizar resoluciones ni densidades de color elevadas, al menos no de forma simultánea.
¿Sorprendido? Pues no deberías, una de las tareas más importantes de la memoria gráfica es albergar la información del color de cada píxel en pantalla, y a mayor resolución, y densidad de color, más cantidad de memoria gráfica necesitaremos. Estoy no es, hoy por hoy, un problema, pero en la década de finales de los ochenta y también en los noventa fue un tema que estuvo de plena actualidad.
Para que te hagas una idea, utilizar resolución 1080p y una profundidad de color de 24 bits en una imagen requiere un total de 6 MB de memoria gráfica. Sin embargo, hay que tener en cuenta que hablamos de una imagen estática, y que los píxeles, y la información del color, no son lo único que consumen memoria gráfica. Como os contamos en su momento en esta guía, por la memoria gráfica pasan elementos tan necesarios como las texturas, la profundidad de la imagen y, en general, todo lo necesario para generar un fotograma (mapas de sombras, iluminación, étc).
A mayor resolución, y mayor profundidad del color, mayor consumo de memoria de todos esos elementos, aunque hoy por hoy lo que más influye, con diferencia, en el consumo de memoria gráfica, es la calidad de las texturas. Algunos juegos, como DOOM Eternal, optan por no ofrecer un ajuste concreto de calidad de texturas, y colocan en su lugar una opción llamada «tamaño de la reserva de texturas», que dice al juego cuántos datos de texturas debe cargar de golpe. Los niveles más altos cargan más texturas de forma simultánea, lo que puede ayudar a mejorar la calidad de imagen, sobre todo en elementos lejanos.
Sí, la memoria gráfica es una vieja conocida con la que todos hemos tenido nuestros más y nuestros menos, estoy convencido de ello, y también fue tuvo un momento de gran apogeo como herramienta de «máster en marketing» para vendedores con pocos escrúpulos que te vendían un PC como modelo gaming porque tenía 2 GB de memoria gráfica, pero no de decían que iba montada en una GT 710, una castaña que hasta se ahogaba con juegos anteriores a su generación.
El tiempo ha pasado, pero los mitos no solo no se han superado, sino que además han ido surgiendo otros alrededor de este componente que no están haciendo ningún bien, y que están yendo cada vez a más. He visto en muchos comentarios que habéis publicado durante los últimos meses que tenéis dudas sobre temas como el uso real de la memoria gráfica en juegos, y también sobre su impacto en el rendimiento. Por ello, me he animado a hacer este artículo donde os voy a explicar, al detalle, tres mitos recientes que debemos aparcar de una vez.
1.-Los juegos necesitan ahora mucha más memoria gráfica
Este mito se ha visto potenciado por la desafortunada estrategia de ciertos fans radicales que han aplaudido al extremo que AMD haya incluido 16 GB de memoria gráfica en las Radeon RX 6000, cosa que, ojo, me parece perfecto, ya que se ha comprobado que muchas de sus tarjetas gráficas de generaciones anteriores han envejecido mejor que sus homónimas de NVIDIA por contar, precisamente con más memoria gráfica, pero no se pueden decir cosas que no son ciertas.
Para entender cómo funciona un juego debemos tener claros dos conceptos, memoria ocupada y memoria consumida. La memoria ocupada es aquella que un juego ha decidido reservar para sí mismo, pero esto no quiere decir que realmente la necesite, simplemente ha actuado de forma preventiva porque ha detectado que la tarjeta gráfica que utilizamos tiene una enorme cantidad de memoria. Por contra, la memoria consumida es aquella que realmente necesita ese juego para funcionar bien.
Estoy seguro, querido lector, que te estarás haciendo esta pregunta: «¿Realmente es tan grande la diferencia que pueden marcar ambos conceptos?» Pues sí, lo es, y para entenderlo vamos a ver algunos ejemplos. Call of Duty Modern Warfare 2019 funciona, sin problemas, con una RTX 2060, una tarjeta gráfica que tiene 6 GB de memoria gráfica, incluso en 4K y calidad ultra, ya que mantiene 40 FPS estables de media. Sin embargo, si lo ejecutamos sobre una RTX 2080 Ti con 11 GB de memoria gráfica, utilizando resolución 1080p y calidad máxima, el consumo de memoria gráfica roza los 9 GB. Según esto, no debería funcionar en la RTX 2060, y mucho menos en 4K, ¿verdad?
Otro ejemplo lo tenemos en Horizon Zero Dawn, un juego que puede consumir hasta 7 GB de memoria gráfica en 1440p y 8 GB en 2160p funcionando sobre una RTX 2080 Ti, pero que, de nuevo, se mueve sin problemas en una RTX 2060 con 6 GB de memoria gráfica en 1440p con calidad máxima, y en 2160p afinando un poco los ajustes, no por un problema asociado a una posible falta de memoria gráfica, sino porque está muy mal optimizado.
Lo tienes claro, ¿no? Memoria consumida y memoria utilizada son dos cosas muy distintas, y tener clara la diferencia entre ambas es fundamental para superar este mito. No hemos dado un salto mágico en el tiempo, los juegos que llegan a PC siguen siendo adaptaciones de desarrollos que parten de la base de consolas de 2013, cuyo hardware lleva años obsoleto, así que no, el requisito de memoria gráfica no se ha doblado mientras te echabas la siesta.
2.-Más memoria gráfica equivale a mucha más potencia
Sé que más de uno me dirá que no es un mito nuevo, pero en parte sí, ya que ahora se está enfocando bajo una idea tan simple como inadecuada: contar con más memoria gráfica mejora el rendimiento en juegos. Esto no es verdad, y puede llevarnos a tomar decisiones terriblemente equivocadas. Piensa, por ejemplo, en el daño que esto puede hacer a alguien que decida comprar una RTX 3060 en vez de una RTX 3070 porque la primera tiene 12 GB de memoria gráfica y la segunda 8 GB. Sí, ríete, pero piensa que no todo el mundo tiene el mismo grado de conocimientos.
El rendimiento de una tarjeta gráfica no se determina por la cantidad de memoria gráfica que trae, sino por la concurrencia de un conjunto de elementos fundamentales que, a grandes rasgos, y para no extendernos de forma innecesaria, podemos resumir de la siguiente forma:
- Arquitectura, cuanto más avanzada sea, mejor. Por ejemplo, RDNA 2 es superior a RDNA.
- GPU, entendida en su conjunto. A mayor cantidad de shaders, TMUs, ROPs, étc más potente será.
- Frecuencia de trabajo, a mayor cantidad de MHz más rendimiento.
- Bus de datos y velocidad de la memoria gráfica, ya que ambos determinan el ancho de banda, es decir, la velocidad de las comunicaciones bidireccionales entre la memoria gráfica y la GPU.
Bien, ¿cómo afecta entonces la memoria gráfica? Este componente puede limitar las capacidades de una tarjeta gráfica, eso no admite discusión. Por ejemplo, en juegos como DOOM Eternal, no podemos activar ciertos ajustes gráficos si no contamos con memoria gráfica suficiente, y lo mismo puede ocurrir en otros juegos, pero lo que no debemos pensar es que un modelo que cuenta con más memoria gráfica ya va a rendir, sí o sí, mucho mejor que otra solo por eso, de hecho en muchos casos puede ocurrir lo contrario. Siguiendo con el ejemplo anterior, una RTX 3070 es entre un 32% y un 40% más potente que la RTX 3060, a pesar de que solo tiene 8 GB de memoria gráfica.
Tener más memoria gráfica no te dará más potencia, pero sí que puede permitirte acceder a ciertos ajustes gráficos que no tendrías disponible si tu tarjeta gráfica contase con una cantidad menor, no hay más, y siempre debes tener en cuenta que, en este sentido, impera el concepto de memoria consumida, no el de memoria utilizada.
3.-Puedo activar sin miedo los ajustes máximos, la memoria gráfica es un cuento
A ver, no es un cuento, lo que pasa es que no todos los juegos gestionan este requisito de la misma manera, y tampoco tienen la misma dependencia de dicho componente. Como he dicho anteriormente, hay títulos que son tan taxativos que directamente nos impiden activar ajustes concretos de calidad gráfica si no llegamos a un mínimo de memoria gráfica disponible. Sin embargo, también hay otros que lo exageran, como las últimas entregas de Resident Evil basadas en el RE Engine, y que nos permiten exceder el requisito de memoria sin problema.
Que puedas configurar un juego al máximo sin llegar al requisito de memoria gráfica no significa que este vaya a funcionar bien. Quizá no notes problemas en la tasa de fotogramas por segundo, y hasta es probable que todo parezca ir como la seda hasta que, de repente, llegas a una zona donde aparece una alta carga gráfica y «pum», empiezas a notar problemas de stuttering, fallos en la carga de texturas y a ver elementos que no terminan de completar el proceso de renderizado a tiempo.
¿No sabes qué ha ocurrido? Pues te lo explico, que el juego quería ocupar más memoria gráfica de la que tiene tu tarjeta, y al encontrarse con que su capacidad real era inferior a la que esperaba, ha tenido que iniciar ciclos de vaciado y de llenado que han generado un trabajo redundante muy marcado, lo que ha frenado en seco el funcionamiento normal del juego.
Este punto es uno de los más complicados porque, como digo, varía mucho en función de cada juego. En Resident Evil 2 Remake, por ejemplo, tuve un problema puntual por exceder el consumo de memoria gráfica, pero ocurrió únicamente en una zona, en la del primer enfrentamiento con Birkin, cuando se acumula una alta densidad de humo. En todas las horas que le eché después, no volví a tener ningún problema. Si queréis apurar en este tipo de juegos vuestra única opción es el método de prueba y error, configurar un ajuste que en teoría no podríais mover y probar.