Nvidia ofrece más detalles sobre sus GPU Fermi de 512 núcleos

CloudProveedor de ServiciosProyectosServidores

El fabricante de chips gráficos ha dado a conocer más datos sobre nueva –y retrasada– arquitectura de gráficos que implementa un interfaz de memoria de 384 bits.

El fabricante de procesadores gráficos (GPU) Nvidia, acaba de ofrecer nuevos datos sobre su ambicioso y retrasado proyecto Fermi 100 (GF100), una nueva arquitectura que incorporará, entre otras novedades, un interfaz de memoria de 384 bits.

La próxima generación de GPU incorporará más de 3.000 millones de transistores y 512 núcleos CUDA, lo que, según la propia compañía, acelerará las posibilidades de computación en paralelo y rendimiento para aplicaciones que requieren grandes dosis de proceso, como es el caso del cálculo de ray tracing (trazado de rayos de luz), física, análisis de elementos finitos, computación científica de alta precisión, álgebra lineal dispersa o algoritmos de búsqueda, entre muchas otras.

Nvidia indica que la primera GPU basada den Fermi llegará hasta los 512 núcleos CUDA (Compute Unified Device Architecture), cada uno de ellos ejecutando una instrucción en coma flotante por ciclo de reloj e hilo.

Los 512 núcleos CUDA están organizados en 16 procesadores en streaming (SM) de 32 núcleos cada uno. LA GPU dispone de 6 particiones de 64 bits, lo que da un total de 384 bits para el interfaz de memoria.

fermi2.jpg

Además, será capaz de soportar un total de 6 GBytes de memoria GDDR5 y un interfaz conectará la GPU con la CPU mediante PCI-Express.

Cada núcleo de proceso tendrá su propia UAL (Unidad Aritmético-Lógica) y su propia UPF (Unidad en Punto Flotante). Hasta ahora, las anteriores GPU estaban basadas en el estándar de aritimética en coma flotante denominado IEEE 754-1985, pero la arquitectura Fermin implementará el nuevo IEEE 754-2008.

Nvidia asegura que la arquitectura Fermi se ha diseñado específicamente para ofrecer “un rendimiento sin precedentes”, con aritmética de doble precisión. Otro detalle interesante es que está diseñada para soportar la ejecución de distintos kernel de forma concurrente, lo que permitirá maximizar el rendimiento de las GPU.

Eso sí, la compañía aún no ha querido desvelar datos como la velocidad de reloj de los primeros modelos, tecnología de fabricación o precios.

Leer la biografía del autor  Ocultar la biografía del autor