Pregunta:
GPU para aprendizaje profundo
Franck Dernoncourt
2015-12-21 05:23:15 UTC
view on stackexchange narkive permalink

Tengo un presupuesto de ~ 10 kUSD para comprar GPU para aplicaciones de redes neuronales, principalmente usando Theano, Torch, TensorFlow y Caffe. La mayoría de los programas que planeo ejecutar son para el procesamiento del lenguaje natural. Los cálculos están en float 32 y en CUDA. Vivo en Estados Unidos y no pago las facturas de la luz. Las GPU se montarán en algunas computadoras que ejecutan Ubuntu 14.04.3 LTS x64.

¿Cuáles son las tarjetas gráficas con la relación potencia / precio computacional más alta, dadas las condiciones mencionadas anteriormente?

No los ha utilizado, pero ¿ha comprobado la GPU de [Nvidia] (http://www.nvidia.com/object/machine-learning.html)?
Definitivamente querrá buscar en las tarjetas de estación de trabajo de Nvidia y no en las tarjetas de escritorio para este tipo de cosas, ya que se está enfocando en tareas muy específicas y engorrosas.
No tengo una respuesta completa, pero los Tesla M40 son los mejores para este tipo de trabajo, aunque con tu presupuesto estarás restringido a 2 tarjetas.
Tres respuestas:
Piotr Falkowski
2015-12-22 01:30:41 UTC
view on stackexchange narkive permalink

No he usado CUDA personalmente para esto, aunque tengo la intención de hacerlo. De mi investigación, llegué a la conclusión de que seguramente desea tener una 'capacidad informática' al menos igual a 3.5, ya que algunas bibliotecas ya lo requieren. La lista (difícil de encontrar) de capacidad informática se encuentra en este enlace. De esta lista se puede concluir que tener GTX 980 o Titan (ambos puntajes 5.2) es lo mejor que puede obtener, pero tenga en cuenta que si está comprando una tarjeta gráfica solo para esto, Nvidia tiene una respuesta para uso profesional y académico llamada Tesla: es solo una caja de computación, lejos de la tarjeta gráfica (¡ni siquiera tiene puertos de pantalla!), cuesta desde 3k $ para el modelo K20 a 5k $ para el modelo K80, y es un gigante:

Una comparación rápida (CC significa Compute Capability):

  • Tesla K20: para computadoras de escritorio, peek for float: 3.52 Tflops, 5 GB, 2496 núcleos CUDA, 2.9 k $, CC: 3.5
  • Tesla K40: para computadoras de escritorio, peek for float: 4.29 Tflops, 12 GB, 2880 CUDA núcleos, 3,1k $, CC: 3,5
  • Tesla K80: para servidores, peek for float: 8 Tflops, 24 GB, 4992 CUDA Cores, 5k $, CC: 3.7

y calidad del cliente, las tarjetas gráficas más populares y nuevas:

Consulte también comparación en wccftech.

Para concluir: la GPU de calidad comercial parece ser más rentable, pero solo cuando comparamos las especificaciones. Puede haber otras compensaciones, no estoy al tanto. Por lo tanto, no puedo decir con seguridad "ir con el grado del cliente", pero puedo decirles lo que haría (haré): compraré GTX 960 o 970, porque planeo jugar y tengo un costo bastante limitado, y estas tarjetas funcionará bien para el aprendizaje de CUDA. Si compra para una institución, no planea jugar, los cálculos se realizarán las 24 horas del día, los 7 días de la semana, considere el grado académico Teslas.

Además, si está interesado en aumentar su potencia de procesamiento basada en números enteros 'convencional' en un servidor de computación de alta gama, puede buscar Xeon phi.

[EDITAR] Tenga en cuenta que cambiar de aritmética de punto flotante basada en CPU a GPU mejorada es un cambio en la calidad, casi un orden de magnitud , y será muy pronunciado y notorio, pero cambiando de ex. Tesla K20 a Tesla K40 será solo un cambio en la cantidad (K80 son solo dos K40 juntos), por lo que si opta por la relación velocidad / precio, elija la aceleración de GPU más barata, eso funcionará para usted.

Como nota, Facebook utiliza la [Nvidia Tesla M40] (http://arstechnica.com/information-technology/2015/12/facebooks-open-sourcing-of-ai-hardware-is-the-start-of-the -deep-learning-revolution /) en su hardware de inteligencia artificial de código abierto.
Franck Dernoncourt
2016-05-08 08:45:51 UTC
view on stackexchange narkive permalink

Nvidia acaba de anunciar la Nvidia GTX 1080, que es ~ 25% más rápida que la Titan X y significativamente más barata (600 USD frente a 1000 USD).

De http: // www. anandtech.com/show/10304/nvidia-announces-the-geforce-gtx-1080-1070/2:

enter image description here

De http://wccftech.com/nvidia-geforce-gtx-1080-launch/:

enter image description here

Es difícil encontrar tablas de comparación de especificaciones exhaustivas entre la GTX 1080 y la Titan X (supongo que deberían aparecer pronto). Algunas comparaciones más GTX 1080 vs Titan X:

  • 9 Tflops vs 6.1 Tflops

De alguna presentación oficial de Nvidia:

enter image description here

enter image description here

También se anunció la Nvidia GTX 1070:

enter image description here

De cnn-benchmarks:

GTX 1080> Titan X: en todos los modelos, la GTX 1080 es de 1.10x a 1.15x más rápida que la Titan X.

Franck Dernoncourt
2016-07-23 02:42:57 UTC
view on stackexchange narkive permalink

Nvidia anunció el 21-07-2016 la nueva GTX Titan X:

  • Menos de 1200 USD
  • "Potencialmente un 24% más rápido que GTX 1080; 60% más rápido que el antiguo Titan X ".
  • 11 teraflops de rendimiento FP32
  • 12 GB de memoria GDDR5X funcionando a 10 GHz efectivos y conectados a un bus ancho de 382 bits , lo que da como resultado un ancho de banda de memoria de 480 GB / s

Un primer punto de referencia (desafortunadamente no mantuvieron el mismo CuDNN…):

enter image description here



Esta pregunta y respuesta fue traducida automáticamente del idioma inglés.El contenido original está disponible en stackexchange, a quien agradecemos la licencia cc by-sa 3.0 bajo la que se distribuye.
Loading...