Download docx - Ultimos Sockets Intel

Transcript
Page 1: Ultimos Sockets Intel

ULTIMOS SOCKETS INTEL:

Socket 1156

LGA 1156

Especificaciones

Tipo LGA

Factor de forma del

chip

Flip-chip land grid array

Contactos 1156

Protocolo del FSB PCIe 16x (video) + 4x (DMI), 2

DDR3 channels,

Dimensiones del

procesador

37.5 × 37.5 mm1

Procesadores

Intel Pentium

Intel Core i3

Intel Core i5

Intel Core i7

Intel Xeon

Page 2: Ultimos Sockets Intel

LGA 1156, también conocido como Socket H, es un socket de CPU Intel de sobremesa. LGA significa Land Grid Array . El LGA 1156, junto con el LGA 1366 , fueron diseñado para sustituir a LGA 775 . LGA 1156 es muy diferente de LGA 775. Los Procesadores LGA 775 estaban conectados a un puente norte con el bus frontal . Con LGA 1156, las funciones que tradicionalmente eran de un puente norte se han integrado en el procesador. El socket LGA 1156 permite las siguientes conexiones que se realizará mediante el procesador con el resto del sistema:

PCI-Express 2.0 x16 para la comunicación con una tarjeta gráfica. Algunos procesadores permiten que esta conexión esté dividida en dos carriles x8 para conectar dos tarjetas gráficas. Algunos fabricantes de placas base usan Nvidia NF200, un chip para permitir utilizar aún más tarjetas gráficas.

DMI para la comunicación con el concentrador controlador de la plataforma . Este consiste en una tarjeta PCI-Express 2.0 x4 conexión.

Dos canales para la comunicación con la memoria SDRAM DDR3. La velocidad de reloj de la memoria que con el apoyo dependerá del procesador.

Procesadores soportadosNombre

claveNombre de

marcaModelo (lista)

Frecuencia Núcleos/HilosVelocidad máxima

de memoria

Lynnfield

Core i5 i5-7xx 2.66 GHz 4/4

DDR3-1333Core i7 i7-8xx

2.8-2.93 GHz

4/8

XeonL34xx 1.86 GHz

4/4 or 4/8X34xx

2.4-2.93 GHz

Clarkdale

Celeron G1xxx 2.26 GHz 2/2DDR3-1066

Pentium G6xxx 2.80 GHz 2/2

Core i3 i3-5xx2.93-3.06 GHz

2/4DDR3-1333

Core i5 i5-6xx3.2-3.46 GHz

2/4

Chipsets compatibles

los chipsets de escritorio que soporta LGA 1156 son los H55, H57, P55 y Q57 de Intel. Los chipsets de servidores que soportan este tipo de socket son el 3400, 3420 y 3450 de Intel

Page 3: Ultimos Sockets Intel

Socket 1366

Socket B

Especificaciones

Tipo LGA

Factor de forma del chip Flip-chip land grid array

Contactos 1366

Protocolo del FSB Intel QuickPath Interconnect

Frecuencia del FSB 1× to 2× QuickPath

Dimensiones del procesador 1,77 × 1,67 pulgadas1

Procesadores

Intel Core i7 (2,66 - 3,33 GHz), Intel Xeon (5500 series)

Page 4: Ultimos Sockets Intel

El Socket LGA 1366 es una implementación de zócalo para procesadores Intel Core i7, que se caracteriza por presentar una arquitectura muy distinta a las anteriores líneas de procesadores para socket 775 y anteriores.

Entre las novedades están, el puerto de comunicación directa entre el procesador y la memoria RAM y la eliminación del FSB a favor del Quickpath.

Page 5: Ultimos Sockets Intel

Lga 2011

Socket R

Especificaciones

Tipo LGA

Factor de forma del

chip

Flip-chip land grid array

Contactos 2011

Protocolo del FSB Intel QuickPath InterConnect

DMI 2.0

Frecuencia del FSB 1× to 2× QuickPath, DMI 2.0

Procesadores

Core i7 (3xxx series)

Intel Xeon (E5 series)

Ivy Bridge-E

LGA 2011, también llamado Socket R, es un zócalo de CPU creado por Intel, que remplaza la anterior generación Intel LGA 1366(Socket B) y LGA 1567 en la gama de alto rendimiento en equipos de sobremesa y servidores de la marca.1 El zócalo tiene 2011 pines que tocan los puntos de contacto en la parte inferior del procesador. Socket

Page 6: Ultimos Sockets Intel

R utiliza QPI para conectar la CPU a CPUs adicionales y el Southbridge en un sistema de dos sockets. DMI 2.0 conecta los procesadores Sandy Bridge de la serie E con el chipset Intel X79. La CPU realiza las funciones de Northbridge, como el control de la memoria, PCIe de control, DMI, FDI, y otras funciones integradas en el chip.

Este zócalo fue lanzado el 14 de noviembre de 2011, y soporta procesadores Sandy Bridge de la serie E con cuatro canales de memoria DDR3-1600,2 así como, 40× PCIe 2.0 o 3.0 carriles;.3 Los Procesadores Intel Core i7 Extreme Edition son compatibles con seis núcleos con 15 MB de caché L3 compartida en un bus en anillo y un controlador de cuatro canales de memoria DDR3. Las placas base con el zócalo LGA 2011 tienen 4 u 8 ranuras DIMM que permite un soporte máximo de 32GB, 64GB o 128GB de memoria RAM.4 LGA 2011 también será compatible con los próximos procesadores Ivy Bridge-E.

ChipsetsNombre X793

CPU Sandy Bridge-E, Ivy Bridge-E5

Máximo de Ranuras DDR3 8Overclocking CPU + MemGPU integrado  NoRAID 0/1/5/10  SíMáximo de puertos USB (USB 3.0) 14 (0)6

Máximo de puertos SATA(SATA 3.0) 4 (2)6

Configuración principal PCIe 40 × PCIe lanes7

Secundaria PCIe 8 × PCIe 2.0 (5GT/s)PCI  NoIntel Rapid Storage Technology  SíSmart Response Technology  NoFecha de Lanzamiento 14 Noviembre de 2011

Procesadores de sobremesa

Procesador

Núcleos

Sub-procesos

Vel. del Reloj

Turbo Boost

Multiplier*

caché L2

Caché L3

TDP

Lanzamiento8

Precio(US)9

Core 6 12 3.40- 4.00- desbloq TB TB TB Q4 2011 TBA

Page 7: Ultimos Sockets Intel

i7 Extreme 3980X10

3.50Ghz

4.10Ghz

ueado A A A

Core i7 Extreme 3960X

6 12 3.30GHz

3.90GHz

desbloqueado

6 x 256KB

15MB

130W

14 de noviembre 2011

$9907

Core i7 3930K

6 12 3.20GHz

3.80GHz

desbloqueado

6 x 256KB

12MB

130W

14 de noviembre 2011

$5557

Core i7 3820

4 8 3.60GHz

3.90GHz

Parcialmente desbloqueado

4 x 256KB

10MB

130W

Q1 2012 TBA7

Todos los modelos soportan: MMX, SSE, SSE2, SSE3, SSSE3, SSE4.1, SSE4.2, AVX, Enhanced Intel SpeedStep Technology (EIST), Intel 64, XD bit (an NX bit implementation), TXT, Intel VT-x, Intel VT-d, Turbo Boost, AES-NI, Smart Cache, Hyper-threading.

Los procesadores Sandy Bridge-E no incluyen la refrigeración estándar incluida en los procesadores de intel anteriores, en su lugar la marca planea ofrecer su propio sistema de refrigeración liquida, que se venderá por separado

ULTIMOS SOCKETS AMD:

Socket AM2+

Page 8: Ultimos Sockets Intel

Socket AM2+

Especificaciones

Tipo PGA-ZIF

Factor de forma del

chip

Ceramic Pin Grid Array (CPGA)

Organic Pin Grid Array (OPGA)

Contactos 940

Frecuencia del FSB 200 MHz

más de 2,6 GHz HyperTransport

3.0

Procesadores

Athlon 64

Athlon 64 X2

Opteron

Phenom series :

Phenom II X4

Phenom X4

Phenom X3

Phenom X2

El Socket AM2+, es un zócalo de CPU diseñado para microprocesadores AMD en equipos de escritorio. Su lanzamiento, el tercer trimestre del 2007, sucedió en la misma fecha en que estaba programado el lanzamiento del Socket AM3, sustituto del Socket AM2. En cambio se optó por vender una transición entre este último y el Socket AM3. Los procesadores diseñados para trabajar con el AM2 podrán hacerlo con placas madres de Socket AM2+ y vice versa. Sin embargo, cabe aclarar que los procesadores con

Page 9: Ultimos Sockets Intel

socket AM2, y AM2+ no son compatibles con una placa base con socket AM3 (fuente: AMD Support Socket AM2+ (en inglés)).

Diferencias con el AM2

El Socket AM2+ trae algunas diferencias que no trae el AM2:

HyperTransport: o El AM2 solo soporta HyperTransport 2.0, es compatible con memorias

DDR2.o El AM2+ soporta HyperTransport 3.0, es compatible con memorias

DDR2.o El AM3 soporta HyperTransport 3.0 es compatible tanto con memorias

DDR2 y DDR3. Split power planes: uno para los núcleos del CPU, el otro para la Integrated

Memory controller (IMC). Esto mejorará el ahorro de energía, especialmente con los gráficos integrados si los núcleos se encuentran en modo sleep pero el IMC sigue activo.

Socket AM3

Socket AM3

Page 10: Ultimos Sockets Intel

Especificaciones

Tipo PGA-ZIF

Factor de forma del chip PGA

Contactos 941 (Socket)1 2

938 (CPU)

Protocolo del FSB HyperTransport 3.x

Frecuencia del FSB 200 MHz System clock

HyperTransport más de 3,4 GHz

Procesadores

Phenom II

Athlon II

Sempron

El Socket AM3 es el zócalo de CPU sucesor del Socket AM2+, el cual cuenta con 941 pines para el zócalo y 938 pines para la CPU. Tiene soporte HT (Hyper Transport) 4.0 y muchos más beneficios. Está hecho para la nueva gama de procesadores de AMD, los K11, lanzados en marzo de 2009.

El socket AM3 será compatible con los dos tipos de memoria doble canal PC2-8500 (DDR2 1.066 MHz) y PC3-1066 (DDR3 1.333 MHz); le será añadido una interfaz térmica (TSI) y una interfaz vid serie reguladora de voltaje (SVI). El sensor térmico será muy exacto presumiendo que pueda ser digital, un diodo térmico que podría permitir al monitor de temperaturas ser más preciso, el cual actualmente significa mejor control

Page 11: Ultimos Sockets Intel

para la estabilidad y durabilidad al hacer overclocking. La interfaz serial VID permitirá ajustar de forma más precisa los voltajes de la CPU.

Asimismo los procesadores con socket AM3 son compatibles con placas base que posean el socket anterior de AMD, AM2+ (fuente: AMD Support Socket AM2+ (en inglés)). De esta forma un procesador como el AMD Athlon II X2 250 que posee socket AM3 puede funcionar en una placa base que posea socket AM2+. No así a la inversa, es decir, un procesador con socket AM2+ no puede ser colocado en una placa base con socket AM3.

Los procesadores compatibles con AM3 son los AMD Phenom II X4 , de la familia Deneb y Propus, que salieron en marzo de 2009. Seguido a esto han sido lanzados otros procesadores de más bajo rendimiento, basados en el chipset California, los cuales tienen los nombres en clave de: Heka (Triple núcleo), Rana (Triple núcleo) y Regor (Doble núcleo) diseñados con arquitectura de 45 nm.

Algunas de las empresas productoras de placas madre ya tienen sus nuevas placas listas para ser lanzadas, entre ellas Asus, Gigabyte y MSI[1]; las cuales están basadas en los chipsets AMD 790GX y 790FX. Estas tienen soporte Crossfire hasta para cuatro tarjetas de video en sus modelos de gama alta.

Este zócalo cuenta con tecnologías de procesadores de 45 nm. Rivaliza contra los 45 nm de Intel. AMD junto a IBM investigaron y diseñando la nueva tecnología 32 nm. También AMD tiene HT 4.0 que se espera que sea 4 veces más veloz que HT 3.0 (AM2+). Si bien este HT se especula una velocidad aproximada a los 8.200 MT/s, y acaerra una mejor apertura de aplicaciones. También se espera la nueva paralelización avanzada para procesadores de más de 4 núcleos, ésta sacara mayor provecho de los 4 núcleos.

El zócalo AM3 cuenta con soporte para procesadores de 45nm en los cuales se encuentran:

Athlon II X2-240 Athlon II X2-245 Athlon II X2-250 Athlon II x3-445 Athlon II X4-630 Phenom II X2-545 Phenom II X2-550 BE Phenom II X3-710 Phenom II X3-720 BE Phenom II X4-805 Phenom II X4-810 Phenom II X4-910 Phenom II X4-945 Phenom II X4-955 BE Phenom II X4-965 BE Phenom II X6-1055T Phenom II X6-1065T Phenom II X6-1075T

Page 12: Ultimos Sockets Intel

Phenom II X6-1090T BE Phenom II X6-1100T BE Sempron 140 Sempron 145 Sempron 180

Este nuevo zócalo cuenta con tecnología HT 4.0 (Hyper Trasport) y soporte 64bits . Tiene soporte para DDR3 1333MHz. Los nuevos chipsets para AM3 son:

890FX 890GX 880G 870 790GX 790FX 790X

Todos con soporte AM3 y DDR3 nativo.

Socket FM1

Socket FM1

Especificaciones

Page 13: Ultimos Sockets Intel

Tipo PGA-ZIF

Factor de forma del chip Flip-chip land grid array

Contactos 905

Protocolo del FSB HyperTransport 3.x

Frecuencia del FSB 200 MHz System clock

Hyper Transport up to 3.2 GHz

Procesadores

A-series APUs1

Socket FM1 es un socket para CPU usado por AMD, serie A de procesadores Fusión lanzado en julio de 2011.

Tarjetas gráficas

Antes de elegir una tarjeta gráfica tendremos que evaluar nuestras necesidades. Si, por ejemplo, somos usuarios a nivel de paquetes de gestión, o programadores, la elección irá dirigida a las tarjetas aceleradoras de Windows, en 2D por supuesto. Si, por el contrario, lo nuestro son los videojuegos o el diseño en 3D (programas de modelado, render o CAD) hay que buscar una aceleradora 3D.

Page 14: Ultimos Sockets Intel

Chip o controlador gráfico

Actualmente existen chips para tarjetas gráficas muy potentes, la mayoría de las veces con potencia de cálculo superior a la del procesador principal, pero también muy diferentes entre sí. Hace algunos años, no se le prestaba en absoluto atención a la calidad de la tarjeta VGA. Después, tras la aparición de la SVGA, fue el punto de partida a la hora de mejorar estas tarjetas, ya que, junto con la evolución de la tecnología en los monitores, cada vez soportaban mayores resoluciones al incorporar memorias entre 1 y 3 Mb.

Pero la auténtica revolución gráfica fue en el sector tridimensional, el 3D, donde se necesitan potencias de cálculo muy superiores que el microprocesador central no puede soportar. Fundamentalmente, lo que hace un chip 3D es quitar la labor del procesador de generar los triángulos y el relleno de texturas, haciendo que la tarjeta gráfica lo haga sola liberando al procesador de otras tareas. Con esto, se obtiene una mejora muy grande en lo que se refiere a la velocidad, y además se han incorporado multitud de efectos gráficos fáciles de usar por los programadores que mejoran sustancialmente la calidad de los gráficos. Las primeras tarjetas con 3D para el mercado de consumo fueron aquellas Diamond Edge 3D, 3D Blaster, o la S3 Virge, todas sin ser demasiado rápidas y con un soporte de juegos muy limitado.

La decisión de elegir un chip u otro es bastante compleja. Dentro del campo 2D, gracias al estándar VESA, todas las tarjetas son compatibles entre sí. Sin embargo, en los chips 3D (o la parte 3D de los chips 2D/3D), existen más problemas puesto que no todos contienen las mismas instrucciones (¿quién no ha oído hablar de los famosos parches para una u otra tarjeta?). Esto pasaba sobre todo en los primeros juegos acelerados 3D para MS-DOS. Por ello, se han creado unos APIs, que consiguen solucionar estos problemas, y funcionan bajo Windows 95/98. Éstos son el DirectX de Microsoft (el componente Direct 3D en concreto) y el OpenGL de Silicon Graphics. Más abajo tienes información sobre estos APIs. Y también, hay que recordar que no todas las tarjetas 3D son iguales: unas sirven digamos para "trabajar" (las compatibles con programas como 3D Studio, TrueSpace...) y las que sirven para "jugar". Muy pocas tarjetas se desenvuelven bien en estos dos campos.

Y ya para terminar este apartado, dejemos fijadas ciertas bases de conocimiento:

Actualmente, en el mercado de consumo, existen 2 tipos de aceleradoras gráficas: o Las propias aceleradoras 3D, tarjetas independientes que sólo entran en

funcionamiento cuando se ejecuta algún juego que necesite su funcionamiento. Estas tarjetas requieren una tarjeta 2D que se encargue de las tareas normales, con un único requisito de tener un mínimo 2 Mb. de memoria. Además, ambas suelen estar unidas con un cable externo.

o Y luego están las tarjetas "híbridas" 2D/3D, que consisten en un único chip que se encarga tanto de las funciones 2D como de las funciones 3D de una aceleradora. Los últimos modelos que están apareciendo estos meses son realmente buenos y no tienen nada que envidiar a las aceleradoras 3D puras.

Y ya por último, ten en cuenta que las tarjetas aceleradoras pueden servir para "trabajar" o para jugar. Una aceleradora profesional de 300.000 ptas. será incapaz de acelerar cualquier juego normal, y una aceleradora 3D pura de 30.000 no podrá renderizar ningún tipo de gráfico en programas como 3D Studio o TrueSpace. Hay muchas tarjetas híbridas 2D/3D que pueden acelerar juegos muy bien, y también renderizar gráficos profesionales de una manera bastante aceptable.

 

Librerías y APIs

Cada chip gráfico tiene una forma de procesar las rutinas implementadas en ellos, por lo que hay una incompatibilidad (sobre todo en el 3D, ya que en el 2D existe el estándar VESA que libera de estos problemas).

Page 15: Ultimos Sockets Intel

Para ello, han surgido las librerías de programación, para unificar en un API las diferentes funciones, y destacan 2:

OpenGL, de Silicon Graphics, que está adoptada por sistemas como Unix, Iris, Windows NT, para profesionales.

DirectX, de Microsoft, limitada a Windows 95/98 y dedicada a los juegos.

Depende de nuestro uso del ordenador, nos decantaremos por el soporte de uno u otro (aunque hay varias tarjetas gráficas que soportan los dos).

 

Buses

Las placas de video se fabrican hoy día para buses PCI y AGP (estos buses permiten características como Plug and Play y Bus Mastering, ésta última para optimizar las operaciones de transferencia de la tarjeta). Estas tarjetas se suelen usar en ordenadores Pentium o Pentium II y equivalentes (como el K6 o el K6-2 de AMD). Se puede aún encontrar de segunda mano alguna ISA para ordenadores 386 y 486, y las VESA están ya abandonadas. Para saber más cosas sobre estos buses, accede a la sección de Placas base.

Lo único, decir que las tarjetas AGP, usadas en ordenadores Pentium II/III son capaces de usar la memoria RAM como memoria de texturas, es decir, no sólo la memoria que viene incluida en la tarjeta gráfica. Por ello, los pocos juegos que hay actualmente para AGP, son capaces de tener texturas animadas o de alta resolución moviéndose a una velocidad asombrosa. Esta memoria de texturas no está disponible para placas Socket 7 ni para placas Slot A con el Athlon de AMD. Además, el AGP ofrece un ancho de banda superior al PCI: si el PCI va a 66 MHz, el AGP va a 133 MHz, con unas variantes: el AGP 2x a 266 MHz y el AGP 4x a 533 MHz. Lástima que los programas actuales no exploten sus posibilidades, pero esto terminará con el AGP 4x que llegará en 1.999. Y por último, hay que decir que no todas las tarjetas AGP son "AGP verdaderas", es decir, que utilizan la memoria RAM como mmoria de texturas. Las AGP no verdaderas son todas aquellas que tienen tanto versión PCI como AGP, o bien que la versión AGP ha evolucionado de la PCI (puede haber que tenga versión PCI y luego una versión AGP verdadera). Y las AGP verdaderas son aquellas que han sido diseñadas para tal fin, y que sólo existen en versión AGP. Todas las tarjetas AGP verdaderas hoy día son 2x, mientras que las AGP que no utilizan la memoria RAM como memoria de texturas son 1x (un modo sencillo de diferenciarlas). También se pueden diferenciar las AGP 4x y las AGP 2x, las primeras llevan 2 hendiduras en los contactos de la zona de conexión y las segundas llevan sólo una.

 

La memoria

La controladora de vídeo en un ordenador es la responsable de transmitir la información al monitor para que la podamos ver en la pantalla. Hay una gran variedad de tarjetas de vídeo, cada una con sus características especiales. Cuantos más píxeles sean capaces de dibujar en pantalla por la unidad de tiempo, mejor rendimiento obtendremos en las aplicaciones que usen intensivamente los gráficos, como por ejemplo Windows. Vamos a poneros un ejemplo para comprenderlo con un par de imágenes:

Page 16: Ultimos Sockets Intel

640x480 a 256 colores 1280x1024 a 256 colores

1. Puedes ver cómo en primer caso, los iconos se ven más grandes y, por tanto, caben menos. Por consiguiente, el logotipo de Duiops se verá con menos definición y más "cuadriculado". Las ventanas se colocarán unas encimas de otras y el trabajo se hará muy engorroso.

2. En el segundo caso, los iconos se ven más pequeños y, por tanto, caben más. Por consiguiente, el logotipo de Duiops se verá con más definición y más perfilado. Los píxels son muy difíciles de apreciar. Las ventanas podrán abrirse una al lado de la otra, de forma que se vea el contenido de ambas, y el trabajo será más amigable.

Pero todos estos puntos necesitan almacenarse en RAM. Para ello, las tarjetas gráficas tienen chips de memoria, y hoy día el mínimo que se puede encontrar son 4 Mb, aunque se recomienda un mínimo de 8. Para poder conseguir mayores resoluciones a más cantidades de colores, hay que ampliar la memoria. Para saber la que necesitamos, hay que multiplicar la resolución horizontal por la resolución vertical; esto nos da la cantidad de RAM necesaria para trabajar a 8 bits de color. Es preciso multiplicar el resultado por dos para obtener la cantidad necesaria para 16 bits de color, y por tres para los 24 bits. Hoy día las tarjeras gráficas domésticas llevan hasta 32 Mb de memoria, los cuales permiten alcanzar resoluciones tan asombrosas como 2048x1536 a 32 bits (más de 4.000 millones de colores)

Recordemos que más memoria en la tarjeta gráfica no implica mayor velocidad, a no ser que la utilice como memoria caché.

También hay que tener en cuenta el tipo de memoria incorporada; frente a la DRAM clásica es mejor utilizar otros tipos, como la EDO o la VRAM; al disponer ésta de dos puestos permite aumentar el ancho de banda en las transferencias de información.

Otra opciones, como la WRAM (que optimiza las operaciones de manejo de bloques de memoria), la MDRAM (memoria multibanda que no retarda los procesos de conmutación de bancos) o la SDRAM (RAM síncrona capaz de trabajar a la misma velocidad de reloj que el chip de la tarjeta) deben ser considerada.

Las últimas tarjetas utilizan SGRAM, de dos tipos. Podemos encontrar memoria DDR en algunas tarjetas (Double Data Rate), la cual aprovechando ciertas fases del ciclo de reloj hasta ahora no utilizados, es capaz de proporcionar un notable incremento en el ancho de banda disponible, con respecto a la memoria convencional SDR (Single Data Rate). Cuando más aumentas la resolución más "atasco" se produce debido a las limitaciones propias de la memoria. Con el sistema DDR esta limitación ya no existe y es posible utilizar resoluciones de 1280x1024 e incluso de 1600x1280 sin ninguna pérdida de velocidad.

Page 17: Ultimos Sockets Intel

 

Otras características

Las tarjetas gráficas permiten casi siempre la reproducción de vídeos MPEG por software, y las más modernas y potentes de MPEG-2 (para DVD-Vídeo); aunque se recomienda que ambas reproducciones sean por hardware.

Una vez adquirida la tarjeta, es necesario disponer de los drivers más actualizados, para asegurarnos de la compatibilidad con todos los programas. Esto va sobre todo por aquellos que tienen Windows 95 y que aún conservan los drivers de Windows 3.1.

Y, ya para terminar, el monitor. Lo ideal son 17 pulgadas para una calidad media-alta, aunque si queremos un ordenador muy económico, nos servirá uno de 15 (aunque con varias limitaciones). Considera también los monitores de 19 pulgadas, con prestaciones similares a los de 20 pulgadas pero con el precio de los de 17.

 

Algunos aspectos básicos de la 3D

API (Interfaz de Programación de Aplicaciones): Un conjunto de rutinas usadas por un programa de aplicaciones para solicitar y transportar servicios de nivel más bajo ejecutados por el sistema operativo de una computadora. O en un lenguaje más comprensible: un conjunto de rutinas situado entre el hardware (por ejemplo, la CPU y el procesador de video) y la aplicación de software (por ejemplo, un juego). Los desarrolladores pueden escribir sus códigos una sola vez para el API y habilitarlo para que funcione en cualquier otro hardware.

DirectX: Un API de Microsoft Windows concentrado en el desarrollo de contenido de multimeda. En palabras de Microsoft : "Proporciona el primer conjunto completo de herramientas para que los desarrolladores tengan acceso a la flexibilidad de plataforma cruzada de la Internet y a la poderosa capacidad de multimedia de la computación personal". El DirectX 6.0 está optimizado para 3DNow! y en julio de 1998 estará disponible para impulsar el desempeño de las PCs basadas en el AMD-K6-2.

Direct3D: Un API DirectX usado específicamente para los gráficos 3D. Microsoft está promoviendo intensamente a Direct3D como un importante API que permite juegos y otras aplicaciones 3D. Al ser parte de DirectX 6.0, el Direct3D está optimizado para la Tecnología 3DNow!

OpenGL: Un API usado durante mucho tiempo en el espacio de estaciones de trabajo 3D de alta calidad. Muchos desarrolladores de juegos también están usando este API. El OpenGL se optimizará para la Tecnología 3DNow!

AGP (Puerto Avanzado para Gráficos): El AGP sirve como conexión de alta velocidad de punto a punto entre el conjunto de chips del sistema (puente norte) y el chip AGP de gráficos. El AGP intenta mejorar la calidad, la velocidad de los marcos y la interactividad de las aplicaciones 3D a un costo accesible. La característica clave del AGP es su interfaz de alta velocidad a la memoria principal. Esto significa que el buffer de marco (y más importante aun, las funciones de atrapar del buffer de marco) pueden existir en la memoria principal en lugar de en la tarjeta (reduce los costos). Por tanto, las funciones 3D como los mapas de texturas pueden ser mayores y llevadas a la memoria principal en lugar de almacenarlas en el buffer de marco, lo cual hace que éste sea más pequeño.

Color de 16, 24 y 32 bits: Cada pixel es representado por un color. El modo de 16 bits puede producir 65.536 colores, mientras que el modo de 24 bits puede producir 16,7 millones de colores. El modo de 32 bits tiene la misma cantidad de colores que el de 24 bits; sin embargo,

Page 18: Ultimos Sockets Intel

los gráficos de 32 bits pueden manipularse mucho más rápidamente que los de 24 bits. Los gráficos de 32 bits también requieren alrededor de 25% más de memoria. Como los humanos no pueden distinguir más de 10 millones de colores, se considera que los gráficos de 24 y 32 bits proporcionan calidad fotográfica.

Velocidad blit: Se le llama "blitting" al proceso de copiar un conjunto ordenado de datos de la memoria principal de una PC a la de la tarjeta de video. A la velocidad de esa operación se le dice "velocidad blit".

Velocidad de relleno: Una medida de los pixeles que puede dibujar una tarjeta 3D en un segundo.

Objetos móviles (sprite): Un objeto gráfico (con frecuencia un símbolo o cursor) que se puede mover alrededor de una imagen de trasfondo.

Motor: La porción de un programa de software que administra y actualiza los gráficos de tiempo real.

Polígono: Una forma cerrada con "interior" y "exterior" de al menos tres líneas: por ejemplo, un triángulo. El triángulo (un polígono simple de 3 lados) es la base de los objetos creados en un ambiente 3D.

Un aspecto fundamental de la 3D: En la mayoría de las aplicaciones 3D los objetos están hechos de polígonos organizados de diversas formas para crear una imagen real. Casi siempre se necesitan cientos o miles de polígonos para un solo objeto 3D, lo que crea una masiva cantidad de datos a generar o manipular. La Tecnología 3DNow! es ideal para este tipo de ambiente.

Pixel [PI(X)tructure Element]: La unidad más pequeña de los gráficos generados por un adaptador de video y que usualmente tiene casi el tamaño de la punta de un alfiler. Los pixeles pueden ser casi de cualquier color, dependiendo de la capacidad del adaptador.

Texel [TE(X)tructure Element]: Un pixel de un mapa de texturas que ha sido aplicado a un polígono.

Malla: Término para un objeto o escena 3D, nombrado de esa forma porque se asemeja a una escultura de malla alámbrica.

Marco de alambre: Una visualización burda de un objeto mediante el uso de líneas que representan los lados de un polígono, lo que lo asemeja a una escultura de malla alámbrica.

Sombreado plano: Muestra las superficies y los colores de forma burda. Frecuentemente, los objetos aparecen faceteados (poca o ninguna "suavidad" entre los polígonos).

Sombreado suave: Muestra las superficies coloreadas y "suavizadas". Actualmente es un modo de visualización muy popular porque el hardware puede apoyarlo.

Textura suave: Comienza a verse como una interpretación terminada. Requiere una enorme fuerza y memoria de la CPU.

Nota acerca de las imágenes visualizadas: Mientras más preciso o detallado es el modo de visualización, más tiempo demora en trazar de nuevo una escena y sus objetos.

Iluminación: Se necesita luz para iluminar los objetos que rotan, de forma que aparezcan lo más reales posibles en la representación final. En el software 3D se usan cuatro tipos principales de luces:

Page 19: Ultimos Sockets Intel

Luces omni - Semejante a una bombilla que ilumina en todas direcciones Luces de reflector (spot) - Resaltan una parte del objeto. Luces distantes - Se usan para simular fuentes distantes de luz como la luna, que

produce sombras paralelas. Luz ambiental - Presente en todo el espacio 3D. Se usa para simular la luz querebota

de otros objetos.

Reflejos especulares: Los reflejos de los objetos brillosos.

Interpretación (rendering) (algunas veces se le dice "rastreo") (rasterization): Un proceso mediante el cual la computadora interpreta todos los datos de los objetos y las luces y después crea una imagen terminada que se visualiza desde la perspectiva seleccionada.

Simulación plana: Crea superficies de polígonos muy definidas, cada una de un sólo color. Es una forma muy rápida, pero burda, de interpretar una escena.

Sombreado Gouraud: Mezcla suavemente las superficies de los objetos. Produce superficies más reales que las de la interpretación plana. Muchos de los nuevos juegos 3D de tiempo real y simuladores de vuelo usan el sombreado Gouraud (algunas veces llamado "sombreado suave").

Sombreado Phong: Una forma más real y compleja de sombreado que la de Gouraud, y que requiere aun más potencia de computación.

Trazado de rayo: El más alto nivel de calidad de interpretación para la mayoría de las aplicaciones de desarrollo 3D de las computadoras de escritorio. Permite que un rayo rebote en las superficies y se quiebre, al igual que la luz real. Los resultados son muy reales y extremadamente precisos, con sombras, reflejos e incluso refracción.

Transformaciones: Operaciones que alteran la posición, el tamaño o la orientación de un objeto. Las transformaciones más comunes son Transferencia, Escala y Rotación.

Deformaciones: Similar a las transformaciones, pero los objetos se alteran: se tuercen, doblan, desnivelan, etc.

Recorte: Eliminación de cualquier polígono que esté fuera del campo visual del observador.

Mapeo (mapeo de texturas): Proceso de desarrollar y asignar atributos materiales a un objeto para permitir una apariencia real. Antes de aplicar texturas, todos los objetos en un paquete 3D tienen una apariencia plástica original, ya sea gris o alguna variedad de colores. El mapeo de texturas le aporta a los objetos color, terminación y textura específicos.La clave para lograr efectivas escenas 3D es la práctica: ¡práctica para ser imperfecto! En realidad, los objetos tienen bordes ásperos e imperfecciones. El mapeo de texturas permite ese tipo de realidad. Piense en una roca: una pared de rectángulos ligeramente desiguales y con superficies del mismo color gris sin brillo se ve tan poco convincente como una pared de bloques perfectos. Pero cuando una textura imperfecta de "roca" se añade a los objetos, esos mismos simples bloques grises en realidad lucen como rocas.

Textura: Una imagen mapeada en bits, ya sea escaneada o pintada, que aporta cualidades materiales reales.

Mapa de bits (BMP): Un formato común de imágenes de 24 bits. Creado originalmente por Microsoft como el formato nativo para icónos e imágenes en el ambiente Windows.

JPG: Usado más frecuentemente para almacenar imágenes fotográficas (muy popular en el Web).

Page 20: Ultimos Sockets Intel

GIF: Muy usado por productos comerciales o de programas compartidos -- se usa con frecuencia como el formato estándar para las imágenes en el Web -- también cuenta con el formato animado, que se usa en muchas animaciones sencillas de gráficos en el Web.Las más importantes características del mapeo de textura son corrección de perspectiva, topografía MIP y filtrado bilineal.

Corrección de la perspectiva: Corrige las texturas para ajustarlas a la perspectiva del observador.Los juegos actuales tienden a usar triángulos relativamente grandes y emplean mapas de texturas para ofrecer muchos más detalles que no podrían obtenerse de otra forma. Mientras que mantener la perspectiva correcta en el proceso de mapeo de texturas es una operación de computación intensiva, las soluciones alternativas producen una visible distorsión y texturas que dan vueltas -- que distraen en pequeñas dosis y marean cuando son muchas.

Mapeo MIP: Esta técnica mejora la calidad de la imagen de los objetos 3D distantes. Los mapas MIP son múltiples texturas de resoluciones variables que representan la textura cuando se observan desde diferentes distancias, y que son transferidas a la textura mientras el punto de vista se aproxima al objeto. Esto hace posible que pueda prevenirse un desorden caótico en los objetos distantes.

Filtración bilineal: (La forma avanzada es la filtración trilineal)La filtración bilineal es una de las formas más simples de evitar un efecto pixelado (bloqueo) dentro de las texturas, que puede ser especialmente obvio cuando el que observa se acerca a un objeto de textura mapeada, como una pared. Esta característica suaviza las texturas al colorear cada texel con un promedio compensado de los valores del color de los cuatro texeles circundantes. La diferencia en la calidad obtenida es extraordinaria, particularmente en los casos en que se amplían los mapas de texturas.

Anti-Aliasing: Como las imágenes digitales están hechas básicamente de una matriz de puntos, las líneas que no son perfectamente horizontales o verticales pueden crear objetos con líneas irregulares (un efecto llamado "escalonado"). A esas imágenes de bordes ásperos se les llama frecuentemente "jaggies".

El anti-aliasing reduce las irregularidades al llenar los pixeles de los puntos irregulares con colores intermedios entre el color de la línea y el color del trasfondo, lo que suaviza los bordes y hace más fluida la línea.

Niebla: Es uno de los efectos atmosféricos más comunes que permite ver claramente los objetos cercanos mientras puede hacer borrosos los objetos lejanos. Por ejemplo, puede parecer que los objetos desaparecen entre una niebla distante. Este efecto no sólo es atmosférico: a los desarrolladores les gusta usarlo porque al mismo tiempo pueden reducir la cantidad de detalles de una escena y, por tanto, reducen la carga de procesamiento en la CPU y el acelerador de gráficos.

Z-Buffering: Una popular característica relativamente nueva para manejar con precisión los objetos superpuestos en el espacio 3D. Con frecuencia se usa para crear un efecto de niebla. En lugar de almacenar sólo la posición espacial (x,y) de un pixel, la característica z-buffering también almacena profundidad. Al buffer que contiene esos valores de profundidad se le llama z-buffer.

Mezclas alpha: Método de mezclar texturas para permitir numerosos efectos visuales como la reflexión o transparencia parcial. Los objetos pueden parecer "de cristal" como el agua transparente, o explosiones "vistas a través".

Direct3D

Page 21: Ultimos Sockets Intel

Direct3D es parte de DirectX (conjunto de bibliotecas para multimedia), propiedad de Microsoft. Consiste en una API para la programación de gráficos 3D. Está disponible tanto en los sistemas Windows de 32 y 64 bits, como para sus consolas Xbox y Xbox 360.

El objetivo de esta API es facilitar el manejo y trazado de entidades gráficas elementales, como líneas, polígonos y texturas, en cualquier aplicación que despliegue gráficos en 3D, así como efectuar de forma transparente transformaciones geométricas sobre dichas entidades. Direct3D provee también una interfaz transparente con el hardware de aceleración gráfica.

Se usa principalmente en aplicaciones donde el rendimiento es fundamental, como los videojuegos, aprovechando el hardware de aceleración gráfica disponible en la tarjeta gráfica.

El principal competidor de Direct3D es OpenGL, desarrollado por Silicon Graphics Inc.

Arquitectura

Capa de Abstracción.

Direct3D es uno de los múltiples componentes que contiene la API DirectX de Windows. Se le podría situar al nivel del GDI de Windows, presentando un nivel de abstracción entre una aplicación de gráficos 3D y los drivers de la tarjeta gráfica (véase gráfico adjunto). Con arquitectura basada en el COM de Microsoft, la mayor ventaja que presenta Direct3D frente al GDI es que Direct3D se comunica directamente con los drivers de pantalla, consiguiendo mejores resultados en la representación de los gráficos por pantalla que aquel.

Direct3D está compuesto por dos grandes APIs. El modo retenido y el modo inmediato. El modo inmediato da soporte a todas las primitivas de procesamiento 3D que permiten las tarjetas gráficas (luces, materiales, transformaciones, control de profundidad, etc). El modo retenido, construido sobre el anterior, presenta una abstracción de nivel superior ofreciendo funcionalidades preconstruidas de gráficos como jerarquías o animaciones. El modo retenido ofrece muy poca libertad a los desarrolladores, siendo el modo inmediato el que más se usa.

El modo inmediato de Direct3D trabaja fundamentalmente con los llamados dispositivos (devices). Son los encargados de realizar la renderización de la escena. El dispositivo ofrece una interfaz que permite diferentes opciones de renderización. Por ejemplo un dispositivo mono permite la renderización en blanco y negro mientras que

Page 22: Ultimos Sockets Intel

un dispositivo RGB permite el uso de colores. Podemos clasificar los dispositivos en tres clases principales:

Dispositivo HAL (hardware abstract layer): permite aceleración hardware. Se trata del dispositivo más rápido.

Dispositivo.

Dispositivo de referencia: es necesaria la instalación previa del SDK de Direct3D para poder usar este tipo de dispositivo. Permite la simulación software de un tipo de renderización y resulta muy útil cuando el hardware todavía no tiene incorporadas nuevas características de renderización. Un caso muy concreto del dispositivo de referencia es el Null reference device cuya función es presentar la pantalla en negro. Se usa por defecto cuando se intenta usar un dispositivo de referencia y no se encuentra el SDK.

Dispositivos de conexión software (pluggable software device): permite opciones de rasterización software. Previamente se ha tenido que obtener el dispositivo mediante el método RegisterSoftwareDevice. Este tipo de dispositivos no fueron usados hasta DirectX 9.0.1

Cada dispositivo tiene asociada una o más cadenas de intercambio (swap chains). Dichas cadenas están compuestas por varios buffers de superficies, considerando a una superficie como un conjunto de píxeles más todos los atributos asociados a cada uno de ellos como la profundidad, el color, la transparencia (canal alfa), etc.

Además, los dispositivos tienen asociados también una colección de recursos (resources) o datos concretos necesarios para realizar la renderización. Cada uno de estos recursos tiene los siguientes atributos:

Tipo (type): define el tipo de recurso del que se trata: superficie, volumen, textura, textura de cubo, textura de volumen, textura de superficie, buffer de vértices o buffer de índices.

Almacén (pool):2 describe dónde se almacena el recurso durante la ejecución. Default indica que se almacena junto con el dispositivo; managed que se guarda en la memoria del sistema y se copia en el dispositivo cuando éste lo necesita; system memory que se encuentra exclusivamente en la memoria del sistema, al igual que scratch, ignorando este último las restricciones de la tarjeta gráfica.

Formato (format): describe el formato en que se almacena el recurso en memoria. La información más importante es respecto al almacenamiento de los píxeles en memoria. Un ejemplo de valor de format es D3DFMT_R8G8B8 que indica que una profundidad de color de 24 bits (los 8 de más peso para el rojo, los 8 de en medio para el verde y los 8 de menos peso para el azul).

Page 23: Ultimos Sockets Intel

Uso (usage): mediante una lista de flags, indica cómo se va a usar el recurso. También permite distinguir los recursos estáticos, aquellos que una vez cargados solo interesa su valor, de los recursos dinámicos, cuyo valor se modifica repetidamente.

Pipeline

Proceso en la pipeline de gráficos.

En la figura adjunta se presenta una versión simplificada3 de la pipeline de Direct3D.

Las diferentes etapas del proceso de renderización son:4

1. Input Assembler: aporta los datos de entrada (líneas, puntos y triángulos).2. Vertex Shader: se encarga de las operaciones de vértices (iluminación, texturas,

transformaciones). Trata los vértices individualmente.3. Geometry Shader: realiza operaciones con entidades primitivas (líneas,

triángulos o vértices). A partir de una primitiva, el geometry shader puede descartarla, o devolver una o más primitivas nuevas.

4. Stream Output: almacena la salida de la etapa anterior en memoria. Resulta útil para realimentar la pipeline con datos ya calculados.

5. Rasterizer: convierte la imagen 3D en píxeles.6. Pixel Shader: operaciones con los píxeles.7. Output Merger: se encarga de combinar la salida del pixel shader con otros

tipos de datos, como los patrones de profundidad, para construir el resultado final.

Direct3D permite la reconfiguración de todas las etapas, aumentando considerablemente la flexibilidad de esta pipeline.

Ejemplo

Page 24: Ultimos Sockets Intel

Ejemplo de cómo dibujar un triángulo en Direct3D:

/* Definición de un polígono de 3 vértices */D3DLVERTEX v[3];/* Establecer un vértice */v[0]=D3DLVERTEX( D3DVECTOR(0.f, 5.f, 10.f), 0x00FF0000, 0, 0, 0 );/* Establecer un vértice */v[1]=D3DLVERTEX( D3DVECTOR(0.f, 5.f, 10.f), 0x0000FF00, 0, 0, 0 );/* Establecer un vértice */v[2]=D3DLVERTEX( D3DVECTOR(0.f, 5.f, 10.f), 0x000000FF, 0, 0, 0 );/* Llamada a función para dibujar el triángulo */pDevice->DrawPrimitive( D3DPT_TRIANGLELIST, D3DFVF_LVERTEX, v, 3, 0 );

Modos de presentación

Direct3D permite dos modos de presentación en pantalla:

Pantalla completa o exclusive mode: gracias a que Direct3D tiene conexión directa con el driver de la pantalla, el dispositivo Direct3D hace uso exclusivo de la pantalla. Ninguna otra aplicación podrá hacer uso de la pantalla mientras se encuentre en este modo.

En ventana o windowed mode: el resultado se muestra dentro de una ventana de Windows. Direct3D tiene que colaborar con el GDI para finalizar dicha representación. Aunque este modo resulta más lento que el anterior, al no bloquear la pantalla y permitir el uso de otras aplicaciones, resulta muy cómodo en la depuración de errores.

Historia

En 1992, Servan Keondjian fundó RenderMorphics, una compañía que desarrollaba una API de gráficos 3D llamada Reality Lab. Esta API se usaba en programas de CAD y representación de imágenes médicas. En febrero de 1995, Microsoft compró RenderMorphics, incorporando a Keondjian a la compañía para implementar un motor gráfico para Windows 95. El resultado fue la primera versión de Direct3D, incluida en DirectX 2.0 y DirectX 3.0.

Inicialmente, Direct3D se implementó sobre dos APIs: la API retained mode y la API inmediate mode. El modo retenido era una API de escenarios gráficos basada en el COM (Computer Object Model) de Microsoft, que tuvo escasa acogida. Los desarrolladores de juegos solicitaron un control más directo sobre las actividades del hardware del permitido en el Retained Mode. Solamente el juego Lego Island se basó en dicha API, por lo que Microsoft abandonó la evolución de dicho modo después de DirectX 3.0, quedando intacto desde entonces.

La primera versión del modo inmediato de Direct3D consistía en un modelo de programación basado en un buffer de ejecución. Microsoft confiaba en que dicho buffer fuera soportado directamente por los vendedores de hardware pretendiendo que se almacenaran en memoria y fueran parseados por hardware, con el objetivo de realizar renderización 3D. Dichos buffers resultaron ser muy difíciles de programar, frenando la adopción de la nueva API y generando una corriente de opinión que solicitaba la adopción de OpenGL como la oficial para renderización 3D en Microsoft. Microsoft

Page 25: Ultimos Sockets Intel

decidió seguir mejorando Direct3D, no solo para ser competitivos con OpenGL, sino también para competir de forma más efectiva contra otras APIs propietarias como Glide de 3dfx. Se encargó a un equipo de Redmond hacerse cargo del desarrollo del modo inmediato de Direct3D, mientras el equipo de RenderMorphics continuaba el trabajo sobre el modo retenido, abandonado no mucho después como ya se ha dicho.

A continuación se muestra una relación de las diferentes versiones de Direct3D con las mejoras más importantes que aportaron:

Direct3D 5.0 introdujo el conjunto de primitivas DrawPrimitive que eliminaba la necesidad de construir buffers de ejecución por parte de las aplicaciones.

Direct3D 6.0 introdujo numerosas características para la abstracción del hardware (como multitexturas5 y buffers de patrones), optimizó el uso de las pipelines de geometría para x87, SSE y 3DNow!, y la gestión opcional de texturas para simplificar la programación.

Direct3D 7.0 introdujo el formato de texturas .dds6 y soporte para la aceleración hardware de transformaciones y luces. También añadió la posibilidad de almacenar buffers de vértices en memoria hardware. Los buffers hardware de vértices supusieron la primera mejora sustancial con respecto a OpenGL en la historia de DirectX. También se aumentó el soporte para multitexturas. Aunque Direct3D 7.0 era muy potente, era tan complicado de programar que necesitaba un nuevo modelo de programación para mostrar las capacidades de shading que proporcionaba el hardware.

Direct3D 8.0 introdujo programabilidad en forma de vertex y pixel shaders, permitiendo a los desarrolladores escribir código sin preocuparse del hardware. Programar shaders sencillos equivalían a tareas sencillas, y shaders más complejos se usaban para tareas más complejas. El driver de pantalla compilaba estos shaders en instrucciones comprensibles por el hardware. Direct3D 8.0 también eliminó la API DirectDraw,7 absorbiéndola. Se resolvieron muchos problemas de usabilidad. Además, se incluyeron características muy potentes como niebla (fog), bump mapping y texture mapping.

Direct3D 9.0 añadió una nueva versión del High Level Shader Language (HLSL, lenguaje de programación de shaders),8 soporte para HDR, renderización de múltiples objetos e indexación del buffer de vértices.

Direct3D 109 consigue un aumento considerable en el rendimiento eliminando el llamado object overhead, que consiste en realizar llamadas entre la API y el driver usando la CPU. Dichas llamadas empezaban a producir un cuello de botella debido al incremento en la complejidad de las escenas y se han incluido medidas como los stateblocks de los shaders para poder referenciar grupos de variables del shader a través de un único ID en vez de enviar una a una entre otras cosas. Direct3D 10 incorpora además soporte del shader model 4, lo que significa que se puede hacer uso de los shaders de geometría (geometry shaders). Asimismo incorpora una nueva función de Stream Out; esta nueva función permite guardar en un buffer información de salida de los geometry shaders permitiendo operaciones de varias pasadas en el shader de geometría, lo que podría traducirse de cara al usuario en simulaciones física completas en la GPU ya es posible realimentar el shader pipeline desde el vertex shader. Se ha incluido virtualización de la memoria gráfica y el programador tiene un mayor control sobre en que clase de memoria quiere alojar sus recursos. A través de los geometry shaders es posible generar geometría en la propia GPU por ejemplo

Page 26: Ultimos Sockets Intel

para convertir una sucesión de puntos en polígonos orientados a cámara para un efecto de partículas, anteriormente se realizaba en el procesador y ahora también calcula la GPU. Otro punto importante es la supresión del fixed pipeline de DirectX 10, lo cual supone un serio problema para los programadores novatos, y un aumento considerable de la complejidad de la API, poniendo como ejemplo la necesidad de crear un objeto especializado llamado input layout por cada combinación de vertex format y vertex shader que vayamos a usar (cosa que en Direct3D 9.0 era automatica), lo cual supone un pequeño aumento de rendimiento a costa de requerirse un uso mas dificultoso de la API. El principal problema de DirectX 10 es que sólo funciona con el sistema operativo Windows Vista, mientras que DirectX 9.0 trabaja con toda la familia de Windows a partir de Windows 98, debido a esto se rumorea que microsoft planea o bien soportarlo en XP o bien sacar una versión especial de DirectX 9 que implemente algunas características. El SDK de DirectX 10 está disponible desde Febrero de 2007.10

GeForce

Tarjeta gráfica GeForce sin su sistema de enfriamiento.

GeForce es la denominación que tienen las tarjetas gráficas que cuentan con unidades de procesamiento gráfico (GPU) desarrolladas por la empresa estadounidense NVIDIA. Su introducción en el mercado posicionó a la entonces casi desconocida firma, a ser la compañía líder del sector. Actualmente, la serie GeForce ha conocido trece generaciones a lo largo de su existencia. Además existen versiones profesionales de estas unidades, conocidas con el nombre de Quadro.

Varios fabricantes utilizan estos procesadores para crear tarjetas gráficas, entre las cuales cabe destacar GIGABYTE, ASUS, EVGA, BFG, MSI, XFX o PNY entre otros. La competencia directa de GeForce es ATI Technologies, con sus series Radeon.

Generaciones GeForce

Page 27: Ultimos Sockets Intel

GeForce 256

VisionTek GeForce 256.

GeForce 256 (32/64 MB SDR) GeForce 256 (32/64 MB DDR)

La GeForce 256 tuvo un relativo éxito, eran consideradas tarjetas gráficas caras, pensadas para un usuario exigente o como tarjeta de desarrollo profesional barata. Su máximo competidor fue el primer procesador Radeon de ATI.

Año de lanzamiento 1999

Versión DirectX 7.0

Número de transistores 23 millones

Características destacadas:

Procesador de 256 bits Aparece el GPU Soporte hardware de Transform & Lighting Soporte de Cube Environment Mapping (cube mapping) Implementación de memoria DDR

GeForce 2

Page 28: Ultimos Sockets Intel

Tarjeta con el chip NVIDIA GeForce 2 MX 400.

GeForce2 MX 100 (32 MB SDR) GeForce2 MX 200 (32/64 MB SDR/DDR) GeForce2 MX (32 MB SDR) GeForce2 MX 400 (32/64 MB SDR/DDR) GeForce2 GTS (32/64 MB DDR) GeForce2 PRO (32/64 MB DDR) GeForce2 Ti VX (64 MB DDR) GeForce2 Ti (64 MB DDR) GeForce2 Ultra (64 MB DDR)

La segunda generación del procesador NVIDIA vino marcada por un enorme éxito comercial y tecnológico. El GeForce 2 fue el procesador doméstico de gráficos más potente de su tiempo desbancando efectivamente a la competencia. La serie MX, de bajo coste, está entre las tarjetas gráficas más vendidas de la historia. Una versión prematura de GPU para ordenadores portátiles, el GeForce 2 Go, señaló la introducción de NVIDIA en este sector.

Año de lanzamiento 2000

Versión DirectX 8.0

Número de transistores 60 millones

Características destacadas:

Motores independientes de hardware Transform & Lighting de segunda generación Rasterizador shading integrado (Considerado una versión "antigua" de los shaders

actuales) Procesador de vídeo de alta definición integrado (HDTV) Controlador de memoria DDR (excepto MX)

GeForce 3

GeForce 3 Ti 500.

GeForce3 (64/128 MB DDR)

Page 29: Ultimos Sockets Intel

GeForce3 Ti 200 (64/128 MB DDR) GeForce3 Ti 500 (64/128 MB DDR)

El procesador GeForce 3 fue lanzado prácticamente sin competencia real, ya que por parte de las compañías rivales no había un producto con características similares, siendo siempre un producto de gama alta del que nunca se desarrolló una versión económica. Asimismo, se trata del primer GPU programable con implementación nativa a la primera versión de DirectX 8. La consola Xbox presentó una implementación de este procesador para su soporte gráfico llamado NV2A, idéntico al GeForce 3 Ti500 pero con 2 unidades de proceso vertex paralelas en lugar de una.

Año de lanzamiento 2001

Versión DirectX 8.0

Número de transistores 57 millones

Características destacadas:

Vertex Shader y Pixel Shader programables Optimización del bus de memoria (LightSpeed Memory Architecture) Incorporación de multisampling antialiasing

GeForce 4

MSI GeForce 4 Ti 4800.

GeForce4 MX 420 (64 MB SDR) GeForce4 MX 440SE (64 MB SDR/DDR) GeForce4 MX 440 8x (64/128 MB DDR) GeForce4 MX 460 (64 MB DDR) GeForce4 MX 4000 (64/128 MB DDR) GeForce PCX 4300 (128 MB DDR) GeForce4 Ti 4200 (64/128 MB DDR) GeForce4 Ti 4200 8x (128 MB DDR) GeForce4 Ti 4400 (128 MB DDR) GeForce4 Ti 4800 SE (128 MB DDR) GeForce4 Ti 4600 (128 MB DDR)

Page 30: Ultimos Sockets Intel

GeForce4 Ti 4800 (128 MB DDR)

En la cuarta generación del procesador GeForce cabe distinguir entre la "auténtica" iteración, la familia GeForce 4 Ti de gama alta (alto rendimiento y desempeño) y la serie de bajo coste GeForce 4 MX (Lo único de GeForce 4 que tenía esta serie de placas era el nombre: eran nada más y nada menos que una GeForce 2 con algunos agregados como soporte AGP 8x, un controlador de memoria mejorado proveniente de la GeForce 4 real y un rudimentario procesador de vídeo, entre otros). La GeForce 4 Ti encontró rápidamente un hueco entre los usuarios de gráficos de alto rendimiento y fue extremadamente popular mientras que la serie MX, a pesar de su alargado éxito comercial, fue duramente criticada por la carencia de soporte PS/VS (al ser una GeForce 2 revitalizada) y por el uso abusivo del nombre comercial GeForce 4 que indujo a confusión a muchos usuarios. Se produjeron versiones para portátiles de la serie MX llamada GeForce 4 Go y una única adaptación que viera producción de la serie GeForce 4 Ti para portátiles, el GeForce 4200 Go.

Año de lanzamiento 2002

Versión DirectX 8.1

Número de transistores 63 millones

Características destacadas:

2 unidades Vertex Shader programables (estructura de pipeline 4x2) Pixel shader 1.3 (Por no soportar PS 1.4 no se considera una GPU compatible con

DirectX 8.1) Nativa en slot AGP 4x de 1,5 V (versiones muy limitadas se manufacturaron en tipo

PCI) Soporte de visualización dual (NView) Controlador mejorado de memoria hasta 650 MHz DDR (LightSpeed Memory

Architecture 2) Primera generación en soportar el bus AGP 8x (últimas versiones)

GeForce FX (5)

Page 31: Ultimos Sockets Intel

NVidia GeForceFX 5500.

GeForce FX 5200(128/256 MB DDR) GeForce FX 5200 Ultra(256 MB DDR) GeForce PCX 5300(256 MB DDR) GeForce FX 5500(128/256 MB DDR) GeForce FX 5600 XT(128/256 MB DDR) GeForce FX 5600(64/128 MB DDR) GeForce FX 5600 Ultra(256 MB DDR) GeForce FX 5600 Ultra Rev.2(256 MB DDR) GeForce FX 5700 VE(128,256 MB DDR) GeForce FX 5700 LE(128,256 MB DDR) GeForce FX 5700(256 MB DDR) GeForce FX 5700 Ultra(256 MB DDR2) GeForce FX 5700 Ultra GDDR3(256 MB GDDR3) GeForce PCX 5750(256 MB GDDR3) GeForce FX 5800(256 MB DDR2) GeForce FX 5800 Ultra(256 MB DDR2) GeForce FX 5900 XT(256 MB DDR) GeForce FX 5900(128/256 MB DDR) GeForce FX 5900 Ultra(256 MB DDR) GeForce PCX 5900(256 MB DDR) GeForce FX 5950 Ultra(256 MB DDR) GeForce PCX 5950(256 MB DDR)

NVIDIA abandonó la tradicional nomenclatura de sus procesadores en favor del llamado motor FX, que decían iba a permitir a los usuarios de GeForce FX disfrutar de un avanzado motor de efectos y shaders programables. No obstante, desde las primeras muestras se comprobó que la gama alta de la serie FX rendía generalmente por debajo de su competidor la serie Radeon 9 de ATI en parte debido a fallos en los drivers y en parte a deficiencias en el diseño; y todo ello a pesar de haber salido al mercado seis meses más tarde.

En la gama baja, las GeForce FX5200 / FX5600 rendían generalmente por alto de sus competidoras Radeon y, lo mejor, el rendimiento por píxel de la GeForce FX5200 resultaba inferior al de la tarjeta que supuestamente iba a sustituir, la serie GeForce4 MX basada en DirectX 7 y sin soporte de Pixel Shaders.

Posteriormente, la introducción de las FX5700 y su equivalente Ultra trataron de enfrentarse a la potente serie Radeon 9600 de ATI, obteniendo resultados dispares. Mientras el rendimiento por pipeline de las FX5700 era técnicamente superior a su contrapartida Radeon, arrastraban todos los defectos de la deficiente implementación del lenguaje de shaders 2.0 de Microsoft que presentaba la serie FX.

NVIDIA se adelantó al mercado desarrollando versiones de sus procesadores FX5200, FX5700 y FX5900 en el bus PCI-Express; para el que no existía entonces una gama de productos. Fueron respectivamente los modelos PCX5300, PCX5750 y PCX5900.

Los importantes problemas de temperatura junto al enorme tamaño del microprocesador en sí impidieron a NVIDIA desarrollar una GPU para equipos portátiles basada en los procesadores más potentes de la serie FX, por lo que sólo existieron dos productos

Page 32: Ultimos Sockets Intel

portátiles: GeForce FX5100 Go y FX5200 Go, ambos basados en el FX5200 de sobremesa.

Año de lanzamiento 2003

Versión DirectX 9.0 ó 9.0b

Número de transistores aprox. 125 millones

Características destacadas:

Primer procesador en usar memoria DDR 2 (posteriormente hasta GDDR 3) Soporte Vertex Shader 2.0+ y Pixel Shader 2.0+ Codificador de TV integrado Implementación mejorada de compresión de texturas y técnicas-Z Hasta 16 texturas por píxel

GeForce 6

GeForce 6600 GT.

GeForce 6200(128/256 MB GDDR2) GeForce 6200TC(16/32/64/128/256 MB GDDR2) GeForce 6200LE(128/256 MB GDDR2) GeForce 6200AGP(128/256/512 MB GDDR2) GeForce 6500(128/256 MB GDDR2) GeForce 6600LE(128/256 MB GDDR2) GeForce 6600(128/256/512 MB GDDR2) GeForce 6600DDR2(256/512 MB GDDR2) GeForce 6600GT(128/256 MB GDDR3) GeForce 6700XL(128 MB GDDR3) GeForce 6800LE(256 MB GDDR3) GeForce 6800XT(256 MB GDDR3) GeForce 6800(256 MB GDDR3) GeForce 6800GTO(256 MB GDDR3) GeForce 6800GS(256 MB GDDR3) GeForce 6800GT(256 MB GDDR3) GeForce 6800 Ultra(512 MB GDDR3) GeForce 6800 Ultra Extreme(256 MB GDDR3)

Page 33: Ultimos Sockets Intel

Recuperándose espectacularmente de los fallos técnicos de la gama FX, la sexta generación de procesadores GeForce mostraba un incremento efectivo del rendimiento de hasta el 65% en aplicaciones DirectX (comparando el 6800 Ultra con el FX 5950 Ultra). El GeForce 6 y el Radeon X inicia, para muchos, otra "edad dorada" para el proceso de gráficos. A fecha de 2005, apenas un puñado de aplicaciones soportaban Pixel Shader o Vertex Shader de tercera generación.

Se produjeron tres familias de la sexta generación, la 6202, 666 y la 69. La sexta generación, coincidiendo con el auge de la industria de los equipos portátiles, es la que más modelos presenta para este sector. Existen el GeForce Go 6100, 6150, 6200, 6400, 6600 y el 6800. Este último representa el procesador gráfico para ordenadores portátiles más potente creado hasta 2005 se calcula que desempeña sobre el 70% que su homónimo de escritorio.

Posteriormente, NVIDIA integró una GPU (la NV44, también conocida como GeForce 6200 TurboCache) en uno de sus chipsets. Estas GPU integradas se conocen como GeForce 6100 y 6150 las cuales tienen un rendimiento de 1.200-1.300 3DMarks03, indicador suficiente para darse una idea de su rendimiento.

Geforce 6 es la última generación que es soportada por los controladores de Nvidia para Windows 98/ME.

Año de lanzamiento 2004

Versión DirectX 9.0c

Número de transistores 222 millones

Características destacadas:

Primer procesador en soportar Vertex Shader 3.0 y Pixel Shader 3.0 Arquitectura de 16 pipelines paralelos (en modelos 6800 Ultra y GT) Introducción del soporte multiprocesador mediante SLI Mejoras sustanciales en los shaders programables Decodificación de vídeo por hardware (PureVideo (NVIDIA)). Mejoras en filtrado anisótropo (hasta 16x) y técnicas antialias (8x) Tratamiento de datos de 128 bits en pipeline Desentrelazado de vídeo adaptativo Implementación en hardware de buffers FP16 capaces de hacer varias operaciones

como combinación y filtrado. Estos buffers permitieron a NVIDIA implementar un nuevo tipo de iluminación denominado HDRL (High Dynamic Range lightning).

Page 34: Ultimos Sockets Intel

GeForce 7

Tarjeta con el chip NVIDIA GeForce 7800 GT.

GeForce 7100 GS(128/512 MB DDR2) GeForce 7200 GS(64/128/256/512 MB DDR2) GeForce 7300 SE(128/256/512 MB DDR) GeForce 7300 LE(128/256/512 MB DDR2) GeForce 7300 GS(128/256/512 MB DDR2) GeForce 7300 GT(256/512 MB DDR2/GDDR3) GeForce 7500 LE(256/512 MB DDR2) GeForce 7600 GS(256/512 MB DDR2/GDDR3) GeForce 7600 GT(256/512 MB DDR2/GDDR3) GeForce 7600 GT 80 nm(256/512 MB DDR2/GDDR3) GeForce 7650 GS(256 MB DDR2) GeForce 7800 GS(256 MB GDDR3) GeForce 7800 GT(256 MB GDDR3) GeForce 7800 GTX(256 MB GDDR3) GeForce 7800 GTX 512(512 MB GDDR3) GeForce 7900 GS(256 MB GDDR3) GeForce 7900 GT(256/512 MB GDDR3) GeForce 7900 GTO(512 MB GDDR3) GeForce 7900 GTX(512 MB GDDR3) GeForce 7950 GT(256/512 MB GDDR3) GeForce 7950 GX2(512 X 2 MB GDDR3)

Siguiendo un patrón parecido al observado en los momentos iniciales de la gama GeForce 4 Ti, NVIDIA decidió lanzar la séptima generación de su GPU GeForce aun cuando la anterior seguía considerándose de gama alta. La serie anterior de placas de alta gama basada en G70 (GeForce 7800 GTX) fue fabricada con un proceso de 110 nm. La serie que las reemplazó, basada en G71 (GeForce 7900 GTX) es fabricada con un proceso de 90 nm y a la vez reduciendo el número de transistores a aproximadamente 280 millones.

Se ha considerado en comunidades de alto rango tecnológico que NVIDIA desarrollo esta nueva familia de GPUs como una GeForce 6 mejorada y optimizada para mejor rendimiento frente a los inminentes cambios de sistemas operativos y lenguajes de programación para juegos.

En esta serie también se agrega otra tarjeta: la 7950 GT para bus de AGP. Esto da un gran avance en tecnología para el puerto que ya se creía obsoleto. Al igual que en la

Page 35: Ultimos Sockets Intel

versión PCI-E, la 7950 GT cuenta con la GPU G71 de última generación para el puerto AGP con un núcleo base a 550 MHz y memoria a 1.300 MHz, lo que la convierte en la tarjeta más avanzada para AGP por parte de NVIDIA.

El poder de NVIDIA en cuestiones de mercado, quedó patente cuando Sony le pidió que desarrollara el chip gráfico para su consola PlayStation 3. El RSX, nombre de este chip para Sony, se basa en la arquitectura del G71(GeForce 7900 GTX) , aumentado de MHz, y desarrollando su potencial real, al ser un circuito cerrado.

Año de lanzamiento 2005

Versión DirectX 9.0c

Número de transistores 302 millones (G70), 281 millones (G71)

Características destacadas:

Nombre código del GPU : G70 (Se ve un cambio en el nombre código de la GPU -de NVxx a Gxx-)

Arquitectura de 24 pixel pipelines paralelos Arquitectura de 7 vertex pipelines paralelos Bus de Transferencia: PCI-Express y AGP 8x/4x Tecnologías CineFX e IntelliSample de cuarta generación Decodificación de vídeo H.264, MPEG-2 y WMV por hardware (PureVideo) Soporte de técnicas TSAA/TMAA (Transparency Supersampling/Multisampling

Antialiasing) El rendimiento de una 7800 GTX supondría un incremento en torno al 25-35% frente al

modelo 6800 Ultra o incluso algo más en la medida en que escalamos resoluciones.

GeForce 8

Tarjeta con el chip NVIDIA GeForce 8800 Ultra.

GeForce 8300 GS(512 MB DDR2) GeForce 8400 GS(128/256/512 MB DDR2) GeForce 8400 GS Rev.2(128/256/512 MB DDR2) GeForce 8500 GT(256/512/1024 MB DDR2) GeForce 8600 GS(256/512 MB DDR2) GeForce 8600 GT(256/512/1024 MB DDR2/GDDR3)

Page 36: Ultimos Sockets Intel

GeForce 8600 GTS(256/512 MB GDDR3) GeForce 8800 GS(384/768 MB GDDR3) GeForce 8800 GTS (G80)( 320/640 MB GDDR3) GeForce 8800 GTS 112 (G80)(640 MB GDDR3) GeForce 8800 GT(256/512/1024 MB GDDR3) GeForce 8800 GTS (G92)(512 MB GDDR3) GeForce 8800 GTX(768 MB GDDR3) GeForce 8800 Ultra(768 MB GDDR3)

Con su lanzamiento el 8 de noviembre de 2006, la generación de GeForce 8 (nombre en clave G80) fue la primera serie de GPUs en soportar plenamente Direct3D 10. Consiste en una arquitectura nueva, fabricada en 80nm. Una característica principal es la de tener su arquitectura shader totalmente unificada. Originalmente sólo la 8800GTX fue lanzada al mercado, tardando algo más el modelo 8800GTS y hasta casi los 6 meses para los modelos de rango medio/bajo (8300GS, 8400GS, 8500GT, 8600GS, 8600GT y 8600GTS).

A finales de ese mismo año 2007, se realizó una revisión del chip G80, que se denominó chip G92. Éste paso a fabricarse de los 80nm a los 65nm en los modelos 8800GS, 8800GT y 8800GTS.

Año de lanzamiento 2006

Versión DirectX 10.0

Número de transistores 681 millones

Tecnología de fabricación 80 nm

Características destacadas:

Arquitectura unificada, completamente diferente a los diseños anteriores. Sustancial mejora en los algoritmos de AF y de AA, mejorando considerablemente la

calidad de imagen comparada a los pobres resultados de las serie 6 y 7, poniéndose a la par de ATi y su familia Radeon X1000.

Bus de 384 bits (con 768 MiB de RAM) nunca usado hasta la fecha. El GPU trae un IHS para ser protegido de las instalaciones de HSFs, por ejemplo. La

última vez que NVIDIA usó esto fue con el NV30. El tope de gama (8800 GTX y 8800 Ultra) requieren 2 conectores PCI-E de poder con 2

tomas de poder cada uno (4 tomas en total) PCB de 24 cm, el más largo jamás visto en una placa para consumo masivo (después de

la 3dfx Voodoo 5 6000, que nunca se comercializó), causando problemas en varios equipos por su longitud.

Page 37: Ultimos Sockets Intel

GeForce 9

GeForce 9500 GT.

GeForce 9300 GS(256 MB DDR2) GeForce 9400 GT(256/512/1024 MB GDDR3) GeForce 9500 GT(256/512/1024 MB DDR2 y GDDR3) GeForce 9600 GSO(384/768/1536 MB GDDR3) GeForce 9600 GSO 512(512 MB GDDR3) GeForce 9600 GT Green Edition(512/1024 MB GDDR3) GeForce 9600 GT(512/1024 MB GDDR3) GeForce 9800 GT Green Edition(512/1024 MB GDDR3) GeForce 9800 GT(512/1024 MB GDDR3) GeForce 9800 GTX(512 MB GDDR3) GeForce 9800 GTX+(512/1024 MB GDDR3) GeForce 9800 GX2(512 x 2 MB GDDR3)

La generación GeForce 9 se lanzó al mercado en febrero de 2008 con el modelo 9600GT, apenas 4 meses después de que se lanzasen los nuevos modelos de la seria GeForce 8 con el chip G92. Esto es así porque la serie GeForce 9 esta basada en ese mismo chip G92, de hecho, algunos modelos son un simple rebautizado de modelos GeForce 8 con algunas de sus características ligeramente cambiadas.

La serie se compone de prácticamente la misma gama de modelos que en su anterior generación, entre los que destacan la 9600GT o la 9800GTX. También habría que destacar el modelo 9800GX2 ya que utiliza una doble GPU y un doble bus de memoria de 256Bits (uno por cada GPU).

Año de lanzamiento 2007

Versión DirectX 10.0

Número de transistores 754 millones

Tecnología de fabricación 65 nm

Características destacadas:

Page 38: Ultimos Sockets Intel

Resoluciones de hasta 2.560 · 1.600 Tecnología PureVideo® HD Tecnología HybridPower™ Tecnología SLI® (SLI y 3-Way SLI) Compatibilidad con PCI-E 2.0 Shader Model 4.0, y OpenGL 2.1 Soporte para el lenguaje de programación CUDA

Tabla de especificaciones serie 9 de NVIDIA (Fuente NVIDIA Website)

Reloj central (MHz)

Reloj de las unidades de sombreado (MHz)

Reloj de la memoria (MHz)

Cantidad de memoria

Interfaz de memoria

Ancho de banda de memoria (GiB/s)

Tasa de relleno de texturas (miles de millones/s)

9800 GX2 600 1.500 1.000 1 GiB 512 bits 128 76,8

9800 GTX 675 1.688 1.100 512 MiB 256 bits 70,4 43,2

9600 GT 650 1.625 900 512 MiB / 1 GiB

256 bits 57,6 20,8

9600 GSO 550 1.375 800 384 MiB 192 bits 38,4 26,4

GeForce 100

GeForce G100(512 MB DDR2) GeForce GT 120(512 MB DDR2) GeForce GT 130(1536 MB DDR2) GeForce GT 140(1024 MB GDDR3) GeForce GTS 150(1024 MB GDDR3)

La serie GeForce 100 se trata de una revisión (PCB y velocidades de reloj) de las tarjetas de gama media/baja de la serie GeForce 9 y destinada al mercado OEM. Por ejemplo, la GT 120 está basada en una 9500GT con una mejora del diseño térmico, mientras que la GT 130 está basada en la 9600GSO (que a su vez era un rebautizado de la 8800GS). A efectos reales, dicha revisión mejora poco el rendimiento de las tarjetas de ésta serie, con respecto a las homólogas de la serie GeForce 9.

Año de lanzamiento 2009

Versión DirectX 10.0

Número de transistores De 210 a 754 millones

Tecnología de fabricación 55 nm

Características destacadas:

Page 39: Ultimos Sockets Intel

Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico) Tecnología PureVideo® HD Tecnología HybridPower™ Tecnología PhysX™ en modelos seleccionados Tecnología SLI® (SLI y 3-Way SLI) Compatibilidad con PCI-E 2.0 Soporta Shader Model 4.0 y OpenGL 2.1 Soporte para el lenguaje de programación CUDA

GeForce GTX 200

Tarjeta NVIDIA GeForce GTX260.

GeForce GTX 260 192 SP(896 MB GDDR3) GeForce GTX 260 216 SP(896 MB GDDR3) GeForce GTX 280(1024 MB GDDR3)

Se trata de un chip basado en la misma arquitectura que las GeForce 8 y 9 pero con mejoras muy significativas. El chip pasa de tener 128 procesadores stream a tener 240 en la GTX 280 y 192 en la GTX 260. Más tarde se lanzó ésta última con 216. Se mantiene el tipo de memoria GDDR 3: 1.792 y 896 MiB. Se trata de tarjetas de gran tamaño y potencia, con las cuales NVIDIA pretendería competir con las HD 4870 y HD 4870 X2 de ATi, mientras que para competir con la HD 4850 emplearía una versión mejorada de la GeForce 9800 GTX, la 9800 GTX+.

Año de lanzamiento 2008

Versión DirectX 10.0

Número de transistores 1.400 millones

Tecnología de fabricación 65 nm

Características destacadas:

Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico)

Page 40: Ultimos Sockets Intel

Tecnología PureVideo® HD Tecnología HybridPower™ Tecnología SLI® (SLI y 3-Way SLI) Tecnología PhysX™ en modelos seleccionados Compatibilidad con PCI-E 2.0 Soporta Shader Model 4.0 y OpenGL 2.1 Soporte para el lenguaje de programación CUDA

Actualización

GeForce 205(512 MB DDR2) GeForce G 210(512 MB DDR2/GDDR3) GeForce GT 220(512/1024 MB DDR2/GDDR3) GeForce GT 230 v.1(512/1024 MB GDDR3) GeForce GT 230 v.2(1536 MB DDR2) GeForce GT 240(512/1024 MB GDDR3/GDDR5) GeForce GTS 240(1024 MB GDDR3) GeForce GTS 250(512/1024 MB GDDR3) GeForce GTX 260 216 Cores (55 nm)(896 MB GDDR3) GeForce GTX 275(896 MB GDDR3) GeForce GTX 285(1024 MB GDDR3) GeForce GTX 295(896 x 2 MB GDDR3) (EVGA NVIDIA GeForce GTX 295)

Se trata de una actualización del chip GT200, fabricado con tecnología de 55 nanómetros. En el modelo GTX 285 se mantienen los 240 procesadores stream del modelo GTX 280 pero aumenta la frecuencia del núcleo, de los procesadores stream y de la memoria, mientras que las características de la GTX 260 216 Cores son las mismas. Aparecen modelos nuevos como la GTX 275 y la GTX 295 que se basa en dos GPU GT200b con características híbridas entre las GTX 260 y 280 / 285. Cuenta con 1.792 MiB (896 MiB x2) GDDR 3 con bus de memoria de 896 bits (448 bits x2) pero aumentando los procesadores stream de 192 / 216 (según versión de GTX 260) a 240 por núcleo (los mismos que la GTX 280), configurando 480 en total. Esta es la respuesta definitiva de Nvidia a la 'HD 4870 X2' con 2 GiB GDDR 5 y 1.600 procesadores stream de ATi, superándola en casi todas las pruebas y obteniendo, por tanto, el 'primer puesto' de nuevo. Destacar también que el modelo GTS 250 no se basa en el chip GT200, si no en el chip G92 de la serie GeForce 9, siendo, más concretamente, un rebautizado del modelo 9800GTX+.

Año de lanzamiento 2009

Versión DirectX 10.0

Número de transistores 1.400 millones

Tecnología de fabricación 55 nm

GeForce 300

GeForce G310(512 MB DDR2) GeForce G315(512 MB GDDR3)

Page 41: Ultimos Sockets Intel

GeForce GT 320(1024 MB GDDR3) GeForce GT 330(1024/1536/2048 MB DDR2/GDDR3) GeForce GT 340(512/1024 MB GDDR5)

La serie GeForce 300 es una serie de tarjetas disponibles sólo en el mercado OEM. La primera tarjeta de esta serie fue la G310 que salió al mercado en noviembre de 2009, y que es un simple renombramiento de la GeForce G210. Más tarde, en febrero de 2010, aparecen nuevos modelos, G315, GT 320, GT 330, GT 340. Esta última vuelve a ser un renombre de la GeForce GT 240 (comparten las mismas características), mientras que el resto son simplemente revisiones de sus tarjetas homólogas de la serie GeForce 200, ya que ninguna está basada en la nueva arquitectura "Fermi".

Año de lanzamiento 2009

Versión DirectX 10.1

Número de transistores De 260 a 754 millones

Tecnología de fabricación 40 nm

Características destacadas:

Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico) Tecnología PureVideo® HD Tecnología HybridPower™ Tecnología PhysX™ en modelos seleccionados Compatibilidad con PCI-E 2.0 Soporta Shader Model 4.1 y OpenGL 3.2 Soporte para el lenguaje de programación CUDA

[editar] GeForce 400

Tarjeta NVIDIA GeForce GTX480.

GeForce GTX 480 (1536 MB GDDR5) GeForce GTX 470 (1280 MB GDDR5) GeForce GTX 465 (1024 MB GDDR5) GeForce GTX 460 (1024 y 768 MB GDDR5) GeForce GTS 460 SE (1024 MB GDDR5)

Page 42: Ultimos Sockets Intel

GeForce GTS 450 (1024 MB GDDR5) GeForce GTS 440 (1024 MB GDDR3 y 512 MB GDDR5) GeForce GT 430 (2048 y 1024 MB GDDR3, se especula una versión con GDDR5)

Esta serie de tarjetas gráficas, con nombre clave Fermi, fue lanzada al mercado en marzo de 2010 tras varios retrasos, y supone un avance en el mercado de las GPUs. Una característica de esta serie es la de no dedicarse sólo al mercado de gráficos 3D sino también centrarse en la computación GPGPU. También es la primera generación de tarjetas Nvidia en soportar Direct3D 11 y OpenGL 4.0 .

Año de lanzamiento 2010

Versión DirectX 11.0

Número de transistores 3000 millones

Tecnología de fabricación 40 nm

Características destacadas:

Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico) NVIDIA SLI® Ready Tecnología PureVideo® HD Tecnología PhysX™ GeForce 3D Vision Ready GeForce 3D Vision Surround Ready (Necesita dos o más tarjetas gráficas en

configuración NVIDIA SLI, gafas 3D Vision y tres pantallas 3D Vision Ready iguales) Compatibilidad con PCI-E 2.0 x16 Soporta Shader Model 5.0 y OpenGL 4.0 Soporte para el lenguaje de programación CUDA

GeForce 500

GeForce GTX 590 (1536 MB x2 GDDR5) GeForce GTX 580 (1536 MB GDDR5) GeForce GTX 570 (1280 MB GDDR5) GeForce GTX 560 Ti (1024 MB GDDR5) GeForce GTX 560 (1024 MB GDDR5) GeForce GTX 550 Ti (1024 MB GDDR5) GeForce GT 520 (1024 MB GDDR3)

La serie Geforce 500 es una serie de tarjetas gráficas con significativas modificaciones de la serie GeForce 400 en términos de rendimiento y gestión de energía. Al igual que la Nvidia GeForce 400, las Nvidia Geforce 500 son compatibles con DirectX 11, OpenGL 4.1 y OpenCL 1.0. Fueron diseñados para competir con la serie AMD Radeon HD 6000 de tarjetas gráficas diseñadas por AMD (ATI) a mediados de 2010 y lanzado en octubre de 2010.

Page 43: Ultimos Sockets Intel

El renovado chip Fermi es más grande: incluye 512 procesadores stream, agrupados en 16 grupos de multiprocesadores corriente (cada uno con 32 núcleos CUDA), y es fabricado por TSMC en un proceso de 40 nm. El 24 de marzo de 2011 fue presentado el modelo de más alta gama, la tarjeta de doble GPU Geforce GTX 590(512 x2 shaders, 48 x2 ROPs y 2,49 Tflop de poder de cálculo).

Año de lanzamiento 2010

Versión DirectX 11.0

Número de transistores 3000 millones

Tecnología de fabricación 40 nm

Características destacadas:

Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico) NVIDIA SLI® Ready Tecnología PureVideo® HD Tecnología PhysX™ GeForce 3D Vision Ready GeForce 3D Vision Surround Ready (Necesita dos o más tarjetas gráficas en

configuración NVIDIA SLI, gafas 3D Vision y tres pantallas 3D Vision Ready iguales) Compatibilidad con PCI-E 2.0 x16 Soporta Shader Model 5.0, OpenGL 4.1 y OpenCL 1.0 Soporte para el lenguaje de programación CUDA