AMD está redoblando esfuerzos para que sus tarjetas gráficas puedan considerarse una opción más viable para estaciones de trabajo que las Nvidia Quadro. Por ello anunció hace un par de semanas que iba a desarrollar nuevo software para hacer compatible las aplicaciones creadas en CUDA con la arquitectura de las tarjetas gráficas AMD, y ahora presenta una nueva tarjeta gráfica FirePro para estaciones de trabajo.
La principal característica de la FirePro W4300 es que es de perfil bajo, ocupando una única ranura PCIe. Además su potencia aumenta enormemente con respecto a la FirePro W4100, ya que además se basa en la arquitectura Graphics Core Next (GCN) 1.1, con 768 sombreadores a una velocidad de 930 MHz. Incluye 4 GB de VRAM, y tiene un consumo de 50 W, que está a la par en potencia con la W5100, pero ésta consume 75 W.
AMD FirePro W4300 | AMD FirePro W4100 | AMD FirePro W2100 | |||
Núcleos | 768 | 512 | 320 | ||
Uds. renderizado | 16 | 16 | 8 | ||
Velocidad | 930MHz | 630MHz | 630MHz | ||
Memoria | 6Gbps GDDR5 | 5.5Gbps GDDR5 | 1.8Gbps DDR3 | ||
Bus memoria | 128-bit | 128-bit | 128-bit | ||
VRAM | 4GB | 4GB | 2GB | ||
Doble precisión | 1/16 | 1/16 | 1/16 | ||
TDP | 50W | 50W | 26W | ||
Formato | Perfil bajo | Perfil bajo | Perfil bajo | ||
GPU | Bonaire | Cape Verde | Oland | ||
Arquitectura | GCN 1.1 | GCN 1.0 | GCN 1.0 | ||
Monitores externos | 4 | 4 | 2 |
Fuente: AnandTech.
La FirePro W4300 incluye soporte para cuatro monitores, y añade soporte a la tecnología de refresco adaptativo FreeSync. Su precio será de 379 dólares cuando llegue al mercado, y puesto que es una tarjeta para trabajar, su uso no está recomendado para juegos ya que carece de ciertos aspectos en su hardware para ello.
Es muy importante destacar que AMD está haciendo todo lo que puede por reducir el consumo de sus tarjetas gráficas, ya que hay una parte de los jugones que tiende a buscar equipos pequeños, silenciosos pero potentes, y eso por ahora sólo lo da Intel y Nvidia. AMD en 2016 seguro que también viendo lo bien que está evolucionando sus GPU.
Vía: AnandTech.