¿Qué es un procesador de pantalla?

Como decía el póster anterior, un procesador de pantalla era un término, más utilizado en los años setenta y ochenta, para describir un dispositivo que podía conectarse entre la CPU y una pantalla. De alguna manera hace lo que hace una GPU hoy. El término “GPU” no entró en uso común hasta la década de 1990.

De acuerdo con este sitio:

http://96.0.245.61/mca_course/ku…

El procesador de visualización convierte la información digital de la CPU en valores analógicos que necesita el dispositivo de visualización. El ejemplo allí utilizó un CRT como pantalla, y el procesador de visualización emitiría señales analógicas para mostrar rectángulos y caracteres.

En este trabajo de investigación, escrito en 1974:

http://repository.cmu.edu/cgi/vi…

Un procesador de visualización de gráficos (GDP) se describe como capaz de interpretar una lista de visualización (es decir, un programa rudimentario) almacenada en la memoria para producir imágenes y caracteres en la pantalla.

Estamos hablando de pantallas mucho menos simples, no gráficos renderizados en 3D, pero al menos pantallas con caracteres, líneas, posiblemente formas, curvas y formas rellenas, y un programa rudimentario para liberar a la CPU de generar todos los aspectos de lo necesario para se mostrará.

En esta investigación realizada en la década de 1960:

http://cva.stanford.edu/classes/…

El autor considera que debido a que la mayoría de las pantallas, incluso si muestran una imagen o texto estático, deben actualizarse periódicamente (hoy en día es común actualizar a 60 Hz, o 60 veces por segundo), para seguir “mostrando”, es un desperdicio para dedicar la costosa CPU de la computadora a esta tarea, pero en su lugar para diseñar una CPU especial que sea mucho más simple pero construida específicamente para la tarea de controlar la pantalla. Luego pensaron en qué aspectos serían necesarios para que este “Procesador de pantalla” liberara la mayor parte de la carga de controlar la pantalla desde la CPU. A este respecto, lo interesante es que los procesadores de pantalla eran mini CPU, programables, aunque con un conjunto de instrucciones muy simple.

Además, curiosamente, si bien los “Procesadores de pantalla” eran soluciones comunes para pantallas, en la era en que la informática estaba dominada por mainframes y mini computadoras, las primeras computadoras personales (PC) no se diseñaron en chips similares orientados a la pantalla o “Procesadores de pantalla” “.

Eso es porque todavía era inherentemente costoso construir CPU (o procesadores), incluso uno dedicado a una pantalla. En cambio, las PC usaban chips más simples asignados más como “controladores de video”, que tenían dos modos principales: texto y gráficos. [Algunas PC muy básicas ni siquiera tenían modos gráficos, pero como los gráficos eran una atracción, incluso las PC más básicas tenían al menos una opción para gráficos rudimentarios, incluso si la resolución era muy pobre, como alrededor de 200 × 200 píxeles]

En el modo de texto, tomaron el texto ASCII y los mostraron en una cuadrícula fija (digamos 40 × 25 u 80 × 25) en la pantalla. En el modo gráfico, actualizaron la pantalla desde el búfer de cuadros (un área de memoria accesible tanto para la CPU como para el controlador de video, reservada para la pantalla), convirtiendo los datos digitales en señales. No utilizaron un esquema más complejo de manejo de gráficos como los “Procesadores de pantalla” manejados, como ser capaces de dibujar líneas o formas rellenas. Lo mantuve simple.

La CPU se encargó únicamente de escribir en el búfer de texto o en el búfer de marco de mapa de bits, sin ninguna otra ayuda. El “controlador de video” se encargó de mantener actualizada la pantalla. La única “inteligencia” que tenía era que tenía un “conjunto de caracteres” de las formas de cada alfabeto (A, B, C), por lo que la CPU solo tenía que ordenar al personaje y dejar que el controlador de video lo dibujara de su conjunto. Pero para los gráficos, la CPU manejó cada bit. Sin características para simplemente dibujar líneas de una coordenada a otra, por ejemplo.

Esta arquitectura se realizó en la mayoría, si no en todas, de la primera ronda de PC de 8 y 16 bits, como la PC Apple II e IBM con los adaptadores de gráficos CGA, EGA e incluso VGA (VGA realmente significaba Video Graphics Formación). Sin embargo, algunos de estos sistemas admitían una aceleración gráfica rudimentaria en forma de “sprites”, pequeñas áreas de mapa de bits que podrían manipularse como un bloque, es decir, la CPU podría ordenarle al controlador de gráficos que dibuje este bloque en esa coordenada, luego borre rápidamente y volver a dibujar, animar o mover el bloque. El caso de uso más común para tales “sprites”, fue para juegos, es decir, mover los personajes del juego (piense en Pac Man) por la pantalla rápidamente sin obligar a la CPU a tener que dibujar cada bit.

Esta arquitectura en realidad progresó mucho hasta la etapa en que la CPU, que ejecuta el software, se volvió capaz de generar o generar cada bit, si fuera necesario. De hecho, aún puede ejecutar sistemas operativos modernos como Windows, Linux o Mac OS, en un modo “no acelerado”, donde procesan cada bit y solo escriben bits en un buffer de cuadro que luego se actualizan en la pantalla a 60 Hz.

Como en, en lugar de un tipo de procesador de pantalla “intermedio” que solo maneja cosas rudimentarias, tenemos “todo” o “nada”, donde “Todo” es una GPU altamente sofisticada, de nuevo, como una CPU que es especialmente diseñado para operaciones gráficas, o simplemente un búfer de marco simple para el software que se ejecuta en la CPU principal para escribir. Resulta que la CPU principal es tan rápida que podemos admitir razonablemente una pantalla gráfica (obviamente no para juegos renderizados en 3D, sino razonable para interfaces gráficas de usuario) sin la necesidad de un procesador de pantalla rudimentario.

Y, por supuesto, hoy en día, nadie utiliza de manera realista mainframes o mini computadoras para simplemente ejecutar una interfaz gráfica de usuario, interactúa con ellos a través de PC si es necesario, que ya tienen GPU, así que creo que es por eso que “Display Processors” El concepto desapareció después de la generación de informática para PC.

No he escuchado el término procesador de pantalla desde hace algunos años.

El procesador de pantalla es lo que se usaba antes de que se desarrollaran las GPU. El primer ejemplo que conozco fue en los años 70, pero datan de antes. En lo que respecta a los gráficos, existe esta tesis del MIT http: //publications.csail.mit.ed

Esencialmente, el procesador de pantalla era una CPU especialmente programada que convertía un archivo a un formato ráster que podía mostrarse en una pantalla.