|
Somos el museo virtual más grande y mejor en español.
|
Las primeras computadoras no tenían una interfaz gráfica propiamente, ya que la información se desplegaba, en el mejor de los casos, en papel, y en el peor a través de luces binarias que encendían y apagaban dependiendo del contenido de la memoria o de algunos registros del procesador, y que había que interpretar. Este es el origen del Misticismo en el que generalmente se ubica a todos los ingenieros de T.I. La primera computadora que se vendió con una interfaz gráfica fue la PDP-10 de Digital Equipment Corporation en 1969, sin embargo, como esta tecnología era costosa, algunas empresas evolucionaron para ofrecer conectividad a una televisión convencional, ofreciendo como bono, el sonido. Macintosh fue la primera en ofrecer un monitor a color, además de la conectividad a un televisor. La tarjeta controladora de vídeo es la que se encarga de convertir la información binaria en una representación visual que es enviada a la pantalla, lo cual logra Interpretando los datos que le llegan del procesador, ordenándolos y calculando su posición para poder presentarlos en la pantalla en forma de puntos luminosos de colores (pixeles). Los datos digitales resultantes de este proceso los transforma, dependiendo del tipo de controlador que se trate, en una señal digital o analógica que pueda presentar la pantalla del monitor. Estos son los 4 pasos que los datos deben de pasar al salir de la UCP, antes de alcanzar el monitor
Estos son los pasos requeridos para un monitor analógico, como los xGA (VGA, SVGA, UVGA, XGA...); para los monitores monocromáticos, también conocidos como TTL, la señal únicamente sigue los primeros 2 pasos. MDALa primera tarjeta controladora de vídeo, como tal, fue el Adaptador de Pantalla Monocromo (Monochrome Display Adapter, MDA), presentada por IBM como parte de la IBM PC original, la cual enviaba señales digitales al monitor para ubicar texto en una rejilla predeterminada. El color, invariablemente en fondo negro, podía ser verde, ámbar o blanco. Este dispositivo únicamente podía presentar texto en una matriz de 80 columnas por 25 renglones, u 80x25 caracteres y cada uno de ellos estaba formado por una matriz de 9x14 puntos, lo cual ofrece una resolución gráfica (teórica) de 720x350 puntos. Por tratarse de un modo solo texto, los puntos que conforman la letra no pueden ser direccionados individualmente, y los gráficos, si es que se les puede llamar de esta forma, estaban basados en caracteres de texto conocidos como Caracteres Extendidos que no eran más que secciones de dibujos simples, que al unirse como rompecabezas permitían presentar textos en cajas y rellenos. Como dato curioso, la versión 1.0 de Microsoft Windows utilizaba ventanas creadas con estos caracteres extendidos.
HérculesEl tipo de adaptador gráfico que siguió en la historia es el Hércules, creado por una empresa del mismo nombre. Este adaptador era compatible con el MDA, y soportaba gráficos monócromos además de los modos de texto estándar. Esta tarjeta ya tenía la capacidad de direccionar individualmente cada punto del carácter, alcanzando la resolución teórica máxima del MDA de 720x350 puntos, y fue muy popular a mediados de los 80s, lo que le permitió ser aceptado y soportado por diversas empresas, como Lotus, que permitía el despliegue de gráficos y tablas en pantalla. En este entonces cada aplicación o "paquete" como se les llamaba entonces, daba soporte a los dispositivos, es decir, cuando se adquiría una aplicación, había que revisar que la aplicación tuviera los controladores específicos para la tarjeta de vídeo, impresora, etc.
CGACon la llegada de los primeros PS/2 de IBM, arribó la primera tarjeta de vídeo con capacidad gráfica, la CGA (Color Graphics Array, Arreglo de Gráficos a Color), cuyo nombre se deriva del hecho que maneja la pantalla como un arreglo de puntos, o pixeles y cada uno de ellos puede tener un color específico hasta con 4 bits de profundidad. A partir de estas capacidades gráficas se crearon juegos y aplicaciones que explotaban al máximo la capacidad gráfica de esta tarjeta controladora. EGAContinuando con la evolución y el entonces liderazgo de IBM, el siguiente estándar que llegó al mercado al final de los 80s fue el EGA (Enhanced Graphics Adapter, Adaptador de Gráficos Mejorado, Adaptador de Gráficos Mejorados), la traducción correcta al español del nombre de esta tarjeta resulta un tanto confusa, ya que si bien se mejora el adaptador, también los gráficos, ya que esta tarjeta soportaba hasta 16 colores visibles que podían ser seleccionados de una paleta de 64, con una resolución de 640x350, y daba soporte hacia atrás con todas las existentes. Estas características hicieron posible que los entornos gráficos se extendieran al mundo PC (los Macintosh llevaban años con ello), y aparecieron el GEM, el Windows y otros muchos. Sobre las posibilidades de las pantallas EGA, una curiosidad: los controladores EGA de Windows 3.1 funcionan en Windows 95, y resulta curioso (y sumamente incómodo) ver esta combinación... VGA y variantesLa primera tarjeta controladora de vídeo que fue ampliamente aceptada, y de hecho generó toda una revolución en la industria, es la sucesora del EGA y también vástago de IBM, el Arreglo de Gráficos de Vídeo (Vídeo Graphics Array, VGA), cuyas características fundamentales durarían hasta finales del siglo 20 y serían heredadas, algunas de ellas, a la nueva generación de controladoras de vídeo. El VGA, que fuera incorporado por primera vez en el IBM PS/2, fue eventualmente clonada y copiada por otros fabricantes, siguiendo su fabricación aún después de que su creador, IBM, perdiera el dominio del mercado. Esta situación dio origen a la primer batalla mercantil de productos relacionados con la computación, ya que los fabricantes comenzaron a crear versiones mejoradas del VGA original, llamándose "compatible con VGA", lo que contrariamente a lo tradicional, no significa que "pueda" funcionar como VGA, sino que es un super conjunto de instrucciones ó una extensión de VGA que supera al VGA Original. El VGA original soporta 16 colores a una resolución de 640x480 puntos, o 256 colores a una resolución de 320x200 puntos, además de los formatos de los adaptadores que le precedieron. Los colores del VGA son seleccionados de una paleta de 262,144 colores, ya que utiliza 6 bits para especificar los colores. Igualmente, una de las cuestiones técnicas que revolucionó el VGA, fue que es el primer formato de vídeo computacional analógico, a diferencia de todos sus ancestros que eran digitales utilizando lógica transistor-transistor (transistor-transistor logic, TTL), cambio que fue necesario para permitir una mayor precisión en el color de la pantalla. Algunos monitores fabricados a finales de los 80s, inclusive cuentan con un interruptor para seleccionar la entrada de datos analógicos o digitales. La evolución del VGA, originada por la competencia en el mercado, dio origen a variantes "compatible con VGA", que superaban las características del VGA y cuyas especificaciones variaban según el fabricante de las pastillas (chipset) y el fabricante de la tarjeta, ya que para este momento, además de los fabricantes de circuitos, ya también existían empresas que se dedicaban a integrar soluciones a partir de circuitos de terceros. Es en este momento, principios de los 90s, comienza la carrera por la superioridad en el vídeo, apareciendo "nuevos estándares" como el SVGA (Super VGA), el UVGA (Ultra VGA) y el XGA (eXtended GA), cuya única diferencia estriba en la velocidad de refresco y la integración de algunos pseudo-estándares, ya que la resolución y profundidad del color depende primordialmente de la memoria con que cuente la tarjeta. Algunas personas se refieren a las tecnologías por la resolución que soportan, de tal suerte que el VGA tendría 640x480; SVGA, 800x600 y UVGA, 1024x768, solución que resulta simplista y no es confiable del todo, ya que lo único certero es que, por ser evolución del VGA original, soportan el VGA plenamente, sin embargo en orden de buscar una verdadera solución gráfica era necesario contar con los controladores lógicos correspondientes a la tarjeta específica.
IBM intentó recuperar el control del mercado liberando nuevos "estándares" mejorados del VGA, que llamó 8514/A, XGA y XGA-2, los cuales se comentan posteriormente ya que tenían algunas limitaciones con respecto a los estándares comerciales a los que, irónicamente, había dado vida.
Dentro de las funciones que se fueron integrando a la controladora de vídeo a través de su evolución existen: el sintonizador de televisión, captura de vídeo, edición de vídeo, salida para televisión y decodificadores para imágenes en movimiento (películas) en formato digital. Con la evolución de las tarjetas de vídeo, y en vísperas de una posible anarquía tecnológica surgió una asociación con el único objetivo de poner orden y regular las propuestas para, ahora sí, convertir en estándares aquellas que realmente aporten algo relevante y tecnológicamente viable. La Asociación de Estándares Electrónicos de Vídeo (Vídeo Electronics, Standards Association, VESA)., El estándar VESA VGA es conocido como VESA BIOS Extension (VBE), y lo interesante de este estándar es que puede ser implementado como controlador lógico o incorporarlo en la circuitería de la tarjeta. Actualmente existen 2 versiones del estándar, la 1.2 y la 2.0 Continuando con la evolución de las tarjetas de vídeo, estando en 1992, un nuevo microprocesador, el Intel 80486, es introducido al mercado con coprocesador matemático integrado, bus de 32 bits y una velocidad de 25 MHz. La tecnología de las tarjetas de vídeo todavía utilizaba el lento bus de 16 bits y se requería de algo nuevo, creándose el Bus Local VESA (VESA Local Bus, VLB), distinguible por su longitud, ya que utilizaba las mismas ranuras ISA, más una ranura extra, lo que le confería una longitud descomunal, comparada con sus antecesores, se hizo muy popular en los años 1993 y 1994 y ofrecía un desempeño mucho mejor que el ISA al contar con una ruta de datos a 32 bits conectada directamente al procesador para alcanzar un desempeño nunca antes visto en vídeo, proporcionando pie para crear nuevos aplicativos que explotaban al máximo estas características. En realidad el VLB no mejoro mucho en calidad de imagen o en características de resolución y colores, simplemente fue notoriamente mas rápido que sus antecesores. Desgraciadamente su integración con el procesador fue lo que las obligó a quedarse junto con él en la historia, ya que con la llegada de los nuevos procesadores también arribó el bus PCI, situación que obligó a la tecnología VLB quedarse en su época. Con el arribo del PCI no hubo gran evolución en lo que concierne a gráficos. Las tarjetas fueron adaptándose a la nueva tecnología, aprovecharon sus ventajas y crecieron en velocidad y capacidad, lo que a su vez dio pie para la creación de juegos cada vez más complejos, incorporando mundos virtuales, que igualmente fueron creciendo en tamaño y complejidad hasta que fue necesario crear la tecnología que soportara mundos virtuales, lo cual implicaba agregar una dimensión a lo que hasta ese entonces era un mundo bidimensional. La tercera dimensión fue necesaria para crear juegos de acción, simuladores de vuelo y aplicaciones CAD, entre otras que requerían de información en 3 dimensiones, situación que generó un gran problema, ya que el procesador principal no daba suficiente poder para analizar toda la información necesaria para crear y mantener vectores en un espacio numérico, más cuando estos sufren cambios repentinos, naciendo con esto la necesidad de crear un microprocesador especializado en gráficos que liberara a la UCP de las labores propias del cálculo y generación de vectores, así como su propio almacenamiento y controladores, una microcomputadora especializada en gráficos, naciendo los aceleradores 3D. Los aceleradores 3D son "microcomputadoras" que se encargan totalmente de crear y mantener los espacios tridimensionales de silicona. AGPCon la llegada de las tarjetas de video con capacidad para el manejo de 3 dimensiones y la creación de espacios virtuales nació también una nueva necesidad: El ancho de banda. Hasta ahora todas las tarjetas de video se insertaban en una ranura y se conectaban al sistema por medio del transporte o bus, mismo que había mejorado notoriamente tanto en velocidad como en desempeño, sin embargo, es un transporte común a varias tarjetas, por lo cual los dispositivos se tenían que turnar el uso de la ruta de datos para transmitir y recibir información, lo cual resultaba en una baja de calidad cuando se tenían que utilizar de manera simultánea la red, el sonido y el video. Este problema fue resuelto con la creación, por parte de Intel nuevamente, de un puerto gráfico que fue comercializado con el nombre de Puerto Acelerado de Gráficos, o AGP por las siglas en inglés de Accelerated Graphics Port, que mantiene las características de un bus local, con la limitación de que por tratarse de un puerto sólo admite un dispositivo, con lo cual se garantizó que no tuviera un destino similar al VESA o al PCI, en donde las características avanzadas fueron aprovechadas para otros dispositivos, promoviendo la colonización de estos transportes y reduciendo el ancho de banda disponible para la tarjeta gráfica. Esta es la razón por la cual las computadoras únicamente cuentan con ranura para solo una tarjeta gráfica AGP: es un puerto. Este controlador gráfico se detalla más como una interfase que como una tarjeta gráfica debido a que, por tratarse de un puerto, sus características y capacidades están más relacionadas con la interfaz que con la tecnología de la tarjeta. En algunos sistemas operativos se provee de soporte a múltiples monitores. En
el caso de AGP, dado que es un puerto, la única manera de añadir tarjetas
gráficas es a través de la utilización de adaptadores PCI. En este caso depende
de la calidad de la tarjeta madre el soporte primario a cada una de las
tecnologías; esto es, algunas tarjetas madre permitirán que el AGP sea primario,
mientras que en otras deberá de ser el PCI. Para el caso de sistemas operativos
avanzados, esta opción puede ser configurada por el software. |
Un miembro de
|