Categorías
tecnologia

GPU (unidad de procesamiento de gráficos), qué es, definición, uso

GPU (unidad de procesamiento de gráficos), qué es, definición, uso. Una unidad de procesamiento de gráficos (GPU) es un chip de computadora que realiza cálculos matemáticos rápidos, principalmente con el propósito de representar imágenes.

En los primeros días de la computación, la unidad central de procesamiento (CPU) realizó estos cálculos. A medida que se desarrollaron más aplicaciones gráficas como AutoCAD; sin embargo, sus demandas ponen presión en la CPU y el rendimiento degradado. Las GPU surgieron como una forma de descargar esas tareas de las CPU, liberando su poder de procesamiento.

Una GPU se puede encontrar integrada con una CPU en el mismo circuito, en una tarjeta gráfica o en la placa base de una computadora personal o servidor.

NVIDIA, AMD, Intel y ARM son algunos de los principales actores en el mercado de GPU.

GPU vs. CPU

Una unidad de procesamiento de gráficos es capaz de representar imágenes más rápidamente que una unidad de procesamiento central debido a su arquitectura de procesamiento en paralelo, lo que le permite realizar múltiples cálculos al mismo tiempo.

Una sola CPU no tiene esta capacidad, aunque los procesadores multinúcleo pueden realizar cálculos en paralelo al combinar más de una CPU en el mismo chip. Una CPU también tiene una velocidad de reloj más alta , lo que significa que puede realizar un cálculo individual más rápido que una GPU. Por lo tanto, una CPU suele estar mejor equipada para manejar tareas básicas de computación.

Historia de las GPUs

La GPU (unidad de procesamiento de gráficos) o VPU (unidad de procesamiento visual) maneja la visualización y la aceleración de los gráficos (especialmente en 3D). Se compone de uno o más procesadores y también tiene su propia memoria RAM. Las GPU modernas también manejan cálculos más complejos (Física) y pueden usarse para tareas pesadas de procesamiento paralelo. En otras palabras, vale la pena hablar sobre la historia de la GPU.
Los chips especializados para el procesamiento de gráficos han existido desde los albores de los videojuegos en la década de 1970. Las unidades de procesamiento de gráficos llegaron a computadoras empresariales de alto rendimiento a fines de la década de 1990, y NVIDIA presentó la primera GPU para computadoras personales, la GeForce 256, en 1999.

ΙΒΜ Adaptador de gráficos profesional

En 1984, IBM presentó su primera GPU llamada Professional Graphics Controller (PGC) o Professional Graphics Adapter (PGA). En esencia, era una tarjeta de expansión que podía acelerar los gráficos en 3D y los gráficos en 2D. Consistía en tres placas separadas que estaban conectadas entre sí, y tenía su propia CPU junto con la RAM dedicada (una CPU Intel 8088 y una RAM de 320KB).

El PGC admitió resoluciones de hasta 640 x 480 píxeles, con 256 colores mostrados simultáneamente en la pantalla y una frecuencia de actualización de 60 cuadros por segundo. Su precio fue de $ 4,290 cuando se introdujo por primera vez. Esta GPU específica no logró alcanzar un éxito comercial notable, no solo por su alto precio, sino principalmente por la falta de soporte de software adecuado. Sin embargo, el PGC todavía se considera un hito importante en la historia de las GPU.

Otras GPUs Significativas

En 1985, Amiga revolucionó el mercado de los gráficos con su avanzado diseño y circuitos. Las placas especialmente diseñadas que manejaron completamente la creación y aceleración de gráficos en Amiga no solo liberaron a la CPU de esta tarea, sino que también ofrecieron a la computadora del hogar capacidades gráficas muy altas. Es seguro decir que la Amiga fue una de las primeras computadoras comerciales equipadas con lo que ahora llamamos una GPU.

Seis años más tarde, en 1991, S3 presentó el S386C911, que fue el primer acelerador de gráficos 2D de un solo chip. Durante un tiempo, los aceleradores de gráficos solo manejaron gráficos en 2D, hasta el lanzamiento de los primeros aceleradores de gráficos en 3D (S3 VIRGE, ATI RAGE y Matrox Mystique). Mientras tanto, las consolas de juegos de quinta generación, PlayStation y Nintendo 64, estaban equipadas con GPU 3D bastante fuertes.

Los usuarios de PC que ansiaban desesperadamente los gráficos 3D rápidos tenían que esperar hasta que 3dfx Interactive presentara sus legendarios aceleradores Voodoo. Los primeros modelos solo admitían gráficos en 3D, por lo que requerían otra tarjeta de visualización que manejara gráficos en 2D. Más tarde, los chips de aceleración de gráficos 2D y 3D se fusionaron en uno, y la primera tarjeta que admitió la aceleración 2D y 3D fue la V1000 de Vérité.

GeForce 256 por Nvidia

En 1999, Nvidia presentó al sucesor de RIVA TNT2. La GeForce 256 era compatible con el motor de Transformación e Iluminación (T&L) y quitó la carga de la CPU principal para la creación de efectos gráficos complejos. La GeForce 256 fue significativamente más rápida que la generación anterior, con una diferencia de rendimiento que alcanzó el 50 por ciento en la mayoría de los juegos. Además, la GPU fue la primera en soportar por completo Direct3D . También debemos mencionar que la integración del motor T&L en las GPU permitió que Nvidia ingresara también en el mercado profesional de CAD con la línea profesional Quadro GPU.

Con el tiempo, el poder de procesamiento de las GPU hizo de los chips una opción popular para otras tareas que requieren un uso intensivo de recursos no relacionados con los gráficos. Las primeras aplicaciones incluían cálculos científicos y modelos; a mediados de la década de 2010, la computación de la GPU también impulsaba el aprendizaje automático y el software de inteligencia artificial .

En 2012, NVIDIA lanzó una GPU virtualizada, que descarga la capacidad de procesamiento de gráficos de la CPU del servidor en una infraestructura de escritorio virtual . El rendimiento de los gráficos ha sido tradicionalmente una de las quejas más comunes entre los usuarios de aplicaciones y escritorios virtuales, y las GPU virtualizadas intentan solucionar ese problema.

Las GPU son más que simples aceleradores

Las unidades de procesadores gráficos han ayudado a acelerar un programa de simulación de yacimientos, lo que demuestra que la tecnología podría aplicarse a códigos complejos.
En 2017, IBM y Stone Ridge Technology redujeron la cantidad de procesadores necesarios para ejecutar simulaciones de yacimientos para las industrias de petróleo, gas y agua de 700 a solo 60, junto con 120 unidades de procesadores gráficos (GPU).

Trabajando con Nvidia, las compañías dijeron que habían logrado ejecutar la simulación utilizando una décima parte de la potencia y una centésima parte del espacio.

Nvidia dijo que la demostración mostró cómo se podrían usar las GPU para simular mil millones de modelos de células en una fracción del tiempo publicado, al tiempo que ofrece 10 veces el rendimiento y la eficiencia de las computadoras heredadas de alto rendimiento basadas en CPU.

El avance utilizó 60 procesadores de potencia y 120 aceleradores de GPU, lo que rompió el récord de supercomputadora anterior, según IBM.

Según Nvidia, la demostración demuestra que las GPU pueden utilizarse para acelerar códigos de aplicación complejos , como los simuladores de yacimientos. Anteriormente, las GPU se han aplicado para aplicaciones más simples que se prestan a la paralelización, como las imágenes sísmicas.

Las GPU también están siendo utilizadas por los investigadores y desarrolladores de AI para capacitar e implementar máquinas que puedan clasificar imágenes, analizar videos, reconocer el habla y procesar el lenguaje natural.

Leer también: Que es cache en informática, para qué sirve ; Unidad aritmética lógica ; GPU Nvidia Tesla P-100

Language: Español