TARJETA DE VIDEO


Una Tarjeta de Vídeo, también llamada Tarjeta Gráfica (entre otros nombres) tiene a su cargo el procesamiento de los datos que provienen del procesador principal (CPU o UCP) y convertirlos en información que se pueda representar en dispositivos tales como los monitores y los televisores. Cabe mencionar que este componente puede presentar una gran variedad de arquitecturas, aunque comúnmente se denominan de igual forma, incluso si se habla de un chip de vídeo integrado en una placa madre (Motherboard); en este último caso, es más correcto decir GPU (Unidad de Procesamiento Gráfico). 

Desde su concepción, las tarjetas gráficas han incluido diversas prestaciones y funciones, tales como la posibilidad de sintonizar la televisión o de capturar secuencias de vídeo de un aparato externo. Es importante notar que no se trata de un componente hallado exclusivamente en los ordenadores actuales, sino que han existido desde hace ya más de cuatro décadas y hoy en día también son parte indispensable de las consolas de videojuegos, tanto de las portátiles como de las caseras. En el mercado actual existen varios modelos de tarjetas de vídeo, sin embargo las 2 compañías que compiten por este nicho son Nvidia AMD. A continuación intentaremos mostrarte en que se diferencian las tarjetas de vídeo y cual te conviene comprar para desarrollar tus actividades.

¿Para qué sirve la Tarjeta de Vídeo?

La Tarjeta de Vídeo es la que se encarga de ir traduciendo la información que el computador va procesando a partir de cada una de las instrucciones que se le dan, para así mostrarla de un modo que pueda ser comprendido de inmediato por el usuario común. Es por ello que se suele afirmar que la placa de vídeo es la que descifra y decodifica el lenguaje que se da por parte del procesador del equipo, para generar una conversión en imágenes, símbolos y representaciones para el usuario final.

Tipos de Tarjeta Gráfica o de Vídeo

Tarjeta Gráfica MDA.


Es la primera tarjeta gráfica que se monta en un PC, las tarjetas MDA (Monocrome Data Adapter) eran monocromas, y tan sólo ofrecían modo texto. Esto es algo que hoy puede resultar raro, pero en aquella época los ordenadores se utilizaban para eso, para procesar textos y números, por lo que tampoco había una gran necesidad de que mostraran modos gráficos y tenía una VRAM de 4KB

Tarjeta Gráfica CGA.


La Color Graphics Adapter (Adaptador de Gráficos en Color) o CGA se empezó a vender en 1981, y fue la primera tarjeta gráfica en color de IBM y el primer estándar gráfico en color para el IBM PC (y en aquella época, hablar de ordenadores personales era hablar de IBM). Solía tener 16KB de memoria (VRAM), y trabajaba a una resolución de 640x200 (tanto en modo texto como gráfico), soportando una paleta de 16 colores, de los que podía mostrar simultáneamente 4 colores a una resolución de 320x200.

Tarjeta Gráfica HGC.















"Hercules Graphics Card" o más popularmente conocida como Hércules aún hoy en día sigue siendo popular esta tarjeta gráfica, se trata de una gráfica monocromática con capacidad para texto en 80x25. Tenía también posibilidades de mostrar gráficos de gran calidad (para aquella época) a una resolución de 720x348 pixeles y además contaba con una particularidad sumamente interesante: Soportaba dos páginas gráficas, una en la dirección B0000h y una en la dirección B8000h. La segunda página se podía habilitar o deshabilitar por software, y cuando estaba deshabilitada permitía trabajar con dos tarjetas gráficas simultáneamente (una Hercules y una CGA, por ejemplo), ofreciendo salida a dos monitores a la vez, cada uno con una imagen diferente. Todo esto hizo que fuera muy apreciada en aplicaciones de diseño, donde era posible mostrar los resultados en una pantalla y mantener las herramientas en otra.

Tarjeta Gráfica EGA.


Las gráficas EGA (Enhanced Graphics Adapter) ven la luz en el año 1984, y podemos considerarla como la primera tarjeta realmente gráfica. Dependiendo del fabricante, incorporaban entre 64KB y 256KB de memoria y podían trabajar en 16 colores a una resolución de 640x200 pixels. Algunos fabricantes, como ATI Technologies ofrecían la posibilidad de trabajar con varias resoluciones, como 640x400, 640x480 y 720x540. Las tarjetas gráficas que hemos visto hasta ahora se conectaban a un puerto ISA, y tenían una salida al monitor del tipo CGA de 9 pines, en cuanto a los monitores monocromos los más utilizados eran los de fósforo verde, los de fósforo ámbar y los de pantalla gris, no ofreciéndose un color realmente blanco hasta la aparición de los monitores en color. Pero el panorama cambia bastante en el año 1987, con la aparición de lo que va a ser durante muchos años el estándar en adaptadores gráficos, nos referimos al estándar VGA y sus evoluciones, XGA y SuperVGA.

Tarjeta Gráfica VGA.

En el año 1987 salen al mercado las primeras tarjetas gráficas VGA (Video Graphics Array) y con ellas el color en los ordenadores como lo conocemos hasta ahora, la aparición de este estándar supone una serie bastante grande de cambios, comenzando por los monitores, tipo de conector (aparece el Sub15-D, que es el que se sigue utilizando en la actualidad, aunque está siendo reemplazado por el DVI, ya digital). En sus primeras versiones incorporaban 256KB de memoria, con una gama de 16 colores o 256 colores. Se trata del último estándar impuesto por IBM, y a partir de él se empezaron a desarrollar modelos que cada vez ofrecían más calidad y prestaciones, movidos en gran medida por el auge de los juegos de ordenador.

Tarjeta Gráfica VESA.


Con el fin de desarrollar pantallas y tarjetas con una resolución superior a la ofrecida por VGA, en el año 1989 nace VESA ( Video Electronics Standards Association o Asociación para estándares electrónicos y de video) a finales de los años 80. Este tipo de tarjetas permite una mayor velocidad que el puerto ISA, siendo utilizado como puerto de alta velocidad para gráficas hasta la aparición de los puertos PCI. Con un bus de 32 bits, una frecuencia de 33 Mhz y un ancho de banda de 160 Mb/s permite resoluciones de 800x600, ampliando notablemente la cantidad de colores a mostrar (se abandona el sistema de paleta y se empieza a definir el sistema de profundidad de color, que permite millones de colores). 

Uno de los mayores inconvenientes de este sistema era el tamaño de las tarjetas, que superaban los 30cm de longitud. También en 1989 hace su aparición el estándar Super VGA, que ofrece unas resoluciones 1024x768 y hasta 2MB de memoria. En 1990 aparece el estándar XGA (Extended Graphics Array), en sus comienzos con 1MB de memoria y una resolución máxima de 1024x768 con una paleta de 256 colores y una profundidad de color de 16bits por pixel (65,536 colores) para una resolución de 640x480. A partir de este momento es más difícil encuadrar las gráficas, ya que en la actualidad se siguen utilizando los estándares Super VGA y XGA, pero la lucha se ha centrado en el desarrollo de chips cada vez más potentes, memorias que llegan hasta los GB y funciones dedicadas sobre todo al mundo de los juegos.

Tarjetas  PCI.


En el año 1993 aparecen los puertos PCI, y aunque en un principio no suponen ninguna mejora apreciable con relación a los puertos VESA, si que ofrecen la posibilidad de reducir drásticamente el tamaño de las tarjetas gráficas, ya que si bien existía la tecnología para esta reducción de tamaño, éste estaba supeditado al tamaño del bus VESA. A partir de ese momento empieza una edad de oro para las tarjetas gráficas que llega hasta nuestros días, en la que cada vez encontramos tarjetas con posibilidades hasta ese momento casi impensables.

Pero es en el año 1997 cuando 3dfx presenta sus tarjetas Voodoo y posteriormente Voodoo 2, así como Nvidia sus TNT y TNT2, tarjetas de alto rendimiento, verdaderas precursoras de las gráficas actuales de gama alta, incorporándose a partir de ese momento tecnologías como OpenGL, DirectX y demás, que han hecho posible los resultados y rendimientos gráficos que hoy en día encontramos tan familiares. Pero estos incrementos en el rendimiento plantean un grave problema, y es que se llega al máximo que el puerto PCI puede ofrecer, creándose un auténtico cuello de botella en la comunicación entre la gráfica y la placa base. 

Tarjetas AGP.


El puerto AGP (Advanced Graphics Port, o Puerto de Gráficos Avanzado) es un puerto exclusivamente para gráficas. Desarrollado en el año 1997 por Intel, se trata de un puerto de 32bits (igual que el puerto PCI), pero con importantes diferencias, entre las que podemos destacar el contar con 8 canales más adicionales para comunicación con la RAM. Cuenta con un bus de 66Mhz, frente a los 33Mhz del bus PCI, y un ancho de banda de 256Mbs, frente a los 132Mbs del puerto PCI.

Tarjetas PCIe.


En el año 2004 Intel desarrolla el bus PCIe y con él la variante PCIe 16x, que se ha convertido en el nuevo estándar de conexión de las tarjetas gráficas. En su versión 16x (la utilizada para gráficas) proporciona un ancho de banda de 4 GB/s (250 MB/s x 16) en cada dirección. Hay que tener en cuenta que PCIe 8x tiene un ancho de banda comparable al más rápido de los puertos AGP. Este ancho de banda ha permitido, entre otras cosas, el poder utilizar una parte de la memoria RAM del ordenador como memoria gráfica (no dedicada). Este tecnología tiene por nombre TurboCaché o HyperMemory, dependiendo del fabricante.

Gráficas integrada.

La evolución en ciertos tipos de ordenadores, encaminados a reducir el tamaño lo más posible, y el gran avance que han tenido los ordenadores portátiles han hecho que también se haya desarrollado el mercado de las tarjetas gráficas integradas en placa base (IGP). Estas gráficas no llegan (al menos de momento) más que al rendimiento de una gráfica media, pero cada vez están avanzando más, y si bien tradicionalmente se ha tratado de gráficas con memoria dedicada (toda la memoria la servía la RAM del equipo, no pudiéndose utilizar ésta para el sistema), son cada vez más las que tienen su propia memoria, utilizando memoria de la RAM tan sólo en modo dinámico (al igual que las gráficas TurboCaché o HyperMemory).

Comentarios

Entradas populares