¡Entra y conoce más sobre tu tarjeta gráfica!
- HawkBox Importaciones
- 25 mar 2019
- 5 Min. de lectura
¡Hola! Bienvenido a HawkBox Blog, hoy te traemos una nueva entrada que puede llegar a ser de tu interés.
Nuestro tema de esta semana será sobre tarjetas gráficas, también conocidas como GPU o aceleradoras de video. Para lo cual hablaremos un poco sobre este tipo de componentes, qué marcas existen y modelos de referencia. También para aquellos que les interese saber más a profundidad sobre cómo estas funcionan, intentaremos explicar detalladamente el funcionamiento de estas unidades.
Para muchos que cuentan con GPU dedicada, su tarjeta gráfica es un bloque inmenso dentro de su chasis, pero a la vez es vital para su build, puesto que gracias a este componente pueden jugar sus videojuegos a más de 60 fps (frames per second) a una resolución de 1920x1080 con gráficos bastante detallados, configuración que la mayoría gamers a nivel mundial han buscado durante los últimos cinco años aproximadamente.
Pero en realidad de todo ese bloque, apenas un 15% del tamaño aproximadamente es precisamente la GPU que realiza la magia para poder correr tus juegos en ultra sin problema alguno, puesto que el resto del tamaño es el disipador para poder mantener refrigerada esta unidad, como podrás ver en la siguiente imagen, el PCB (Printed Circuit Board o circuito impreso) es muy pequeño cuando la GPU ya no tiene el disipador instalado.
Ya habiendo hablado un poco de sus características visuales y referenciando la anterior imagen, por el centro del PCB se puede ver el chipset de la tarjeta gráfica el cual como todo procesador cuenta con su propia arquitectura, siendo esta basada en tecnología de 16nm (nanómetros) de Nvidia llamada Pascal para toda la línea GeForce GTX 10XX (más adelante hablaremos de esto), su principal tarea es realizar las tareas que le asigne el CPU para mostrar en la pantalla. Siguiendo con la descripción del PCB, alrededor del chipset de la tarjeta se encuentra ubicada la VRAM (Video RAM y son los ocho rectángulos alrededor del chipset), la cual permite a la tarjeta almacenar texturas, polígonos y demás recursos gráficos que se necesiten de manera temporal ya sea para jugar o trabajar, brindándole así un fácil acceso al chipset a estos assets para reducir tiempos de carga y espera. Al lado de los tres de más a la derecha se encuentra la VRM (Voltage Regulator Module) de la GPU, modulo que se encarga de regular o estabilizar los voltajes que reciben tanto la VRAM como el chipset para que estos no se quemen por una sobrecarga o entren en corto por un pico de voltaje de la fuente.
Finalizando los aspectos técnicos del PCB y un poco del funcionamiento de cada uno de estos, nos gustaría hablarles sobre las dos grandes empresas que producen estos chipsets, las cuales son NVIDIA y AMD Radeon (antes conocido como ATI), vale la pena mencionar que Intel Graphics todavía se encuentra en un estado muy temprano de desarrollo de sus GPU, pero le han brindado la posibilidad a muchas personas de jugar con GPU integradas a lo largo de los últimos años, llegando casi que al nivel de los modelos de más bajo precio de Nvidia y AMD, a pesar de esto no los mencionaremos en la siguiente comparativa.
Estos son los dos titanes de la industria de tarjetas gráficas, donde en los últimos 10 años, más o menos, Nvidia ha logrado dominar el mercado con sus modelos de tope de gama, mientras que AMD le ha brindado precios accesibles y buen rendimiento a la gama media/baja y consolas.
Para el año 2000 Nvidia ya había lanzado su primer modelo de GPU, la GeForce 256 (fue lanzada a finales de 1999) y su competidor en ese entonces ATI lanzó a finales del primer tercio del 2000 la siguiente línea de GPU, la Radeon 100 o mejor conocida como R100 que reemplazaría a su predecesor Rage y le hizo competencia directa a la GeForce 256. Estos chipsets soportaron DirectX 7 y fueron los primeros en ser denominados como GPU.
Para finales de 2000 Nvidia se había posicionado como el líder de este mercado emergente, gracias a su serie GeForce 2, la cual arrasó en el mercado con cualquier modelo de ATI, así cada año Nvidia entregó una nueva serie, cada vez muchísimo mejor que la anterior y sacando una ventaja aun mayor a ATI. Aunque hay que recalcar el éxito que tuvo el R300 de ATI el cual logró derrocar en 2002 a Nvidia, así fuera unicamente por ese año con la primera versión de DirectX 9. Ya después entre 2003 y 2009 ATI no tuvo mucho con que combatir contra Nvidia.
Para 2009 y debido a su gran caída del mercado ATI fue comprada por AMD y se convirtió en filial de esta, gracias a esto su siguiente línea la Radeon Serie HD pudo competir contra Nvidia, las series HD 4000 y 5000 fueron competencia directa con las series GeForce 100 y 200, para este año la competencia entre estas dos empresas fue muy dura porque los modelos tenían un rendimiento muy reñido, lo único que hizo perder clientes a AMD fue que sus tarjetas se calentaban más que las de su competencia y requerían de fuentes de poder de mayor capacidad.
Así de 2009 a 2011 Nvidia y AMD ATI estaban a la par en cuanto a rendimiento con sus GPU, las dos marcas tenían modelos en todas las gamas, pero Nvidia lideraba en ventas. Para 2013 con el lanzamiento de la serie Rx 200 de AMD y GeForce 700 de Nvidia se esperaba que Nvidia superara a AMD, pero no fue así gracias al boom del Bitcoin, pues las tarjetas de AMD demostraron ser muy efectivas para minar el algoritmo y en un abrir y cerrar de ojos sus precios se inflaron de manera increíble puesto que todos querían minar en ese entonces pero AMD no contaba con suficiente stock de sus tarjetas, no era el mercado que esperaban pero quedaron más que satisfechos con sus ventas, para el año siguiente 2014, sucedió algo parecido con su serie Rx 300 pero no fue tan efectivo debido a la creciente dificultad de minar Bitcoins sin tecnología Asic.
Ya con esto podemos llegar a los últimos años donde Nvidia cuenta con soporte de las series GeForce 900, 1000 y 2000, AMD con las series RX 400, 500, Vega y Navi, pero también con series anteriores como la Rx 300 y 200, conocido como AMD fivewine entre los usuarios, "Entre más añejo, mejor" dicen usuarios en redes como Reddit, quienes todavía cuentan con modelos como la R9 290.
Por lo cual podemos dar paso a la tabla comparativa de gama entre modelos de Nvidia y AMD:

Esta tabla se creó a partir de los conocimientos sobre el tema de HawkBox y ayuda de la herramienta UserBenchmark para estimar el porcentaje de diferencia de rendimiento entre cada uno de los modelos de GPU, puesto que la tabla está organizada para mostrar de arriba hacia abajo (Descendente) los mejores modelos, por esto mismo el de más arriba se considera según nuestro criterio el mejor modelo de esa gama.
Para una futura ocasión hablaremos de los modelos After-Market de GPU los cuales pueden hacer variar el rendimiento de la misma y damos por finalizado el tema de esta semana, pues la idea principal era empaparlos un poco a ustedes nuestros lectores con conocimiento que puede ser valioso si se encuentran interesados en el mundo de la tecnología y componentes de PC, ¡esperamos que les gustara y nos veremos en una próxima ocasión!
Comments