Supermicro amplía la cartera de sistemas de GPU con nuevos e innovadores servidores
-Supermicro amplía la cartera de sistemas de GPU con nuevos e innovadores servidores para acelerar una amplia gama de cargas de trabajo de inteligencia artificial, HPC y la nube
Plataforma NVIDIA HGX A100 4 GPU y sistema de GPU de 2U de 2 nodos que ahorra recursos con procesadores Intel Xeon Scalable de tercera generación
SAN JOSE, Calif., 13 de octubre de 2021 /PRNewswire/ -- Super Micro Computer, Inc. (SMCI), líder mundial en computación empresarial, almacenamiento, soluciones de red y tecnología de computación ecológica, anuncia nuevos sistemas basados en GPU de arquitectura NVIDIA® Ampere y procesadores Intel Xeon Scalable de tercera generación con aceleradores de IA integrados (serie Supermicro X12). Estos servidores están diseñados para aplicaciones de IA exigentes en las que la baja latencia y el alto rendimiento de las aplicaciones son esenciales. El sistema 2U NVIDIA HGX™ A100 4-GPU es adecuado para desplegar modernos clústeres de formación de IA a escala con interconexión de alta velocidad CPU-GPU y GPU-GPU. El sistema Supermicro 2U de 2 nodos reduce el uso y los costes de energía al compartir las fuentes de alimentación y los ventiladores de refrigeración, reduciendo las emisiones de carbono, y admite una gama de aceleradores de GPU discretos, que pueden adaptarse a la carga de trabajo. Ambos sistemas incluyen funciones avanzadas de seguridad de hardware que están habilitadas por las últimas Intel Software Guard Extensions (Intel SGX).
"Los ingenieros de Supermicro han creado otra amplia cartera de sistemas basados en GPU de alto rendimiento que reducen los costes, el espacio y el consumo de energía en comparación con otros diseños del mercado", afirma Charles Liang, presidente y consejero delegado de Supermicro. "Con nuestro innovador diseño, podemos ofrecer a los clientes aceleradores NVIDIA HGX A100 (nombre en clave Redstone) de 4 GPU para cargas de trabajo de IA y HPC en densos factores de forma 2U. Además, nuestro sistema 2U de 2 nodos está diseñado de forma única para compartir componentes de alimentación y refrigeración que reducen el OPEX y el impacto en el medio ambiente".
El servidor 2U NVIDIA HGX A100 está basado en los procesadores Intel Xeon Scalable de tercera generación con tecnología Intel Deep Learning Boost y está optimizado para cargas de trabajo de análisis, formación e inferencia. El sistema puede ofrecer hasta 2,5 petaflops de rendimiento de IA, con cuatro GPU A100 totalmente interconectadas con NVIDIA NVLink®, que proporcionan hasta 320 GB de memoria de GPU para acelerar los avances en la ciencia de los datos empresariales y la IA. El sistema es hasta 4 veces más rápido que la generación anterior de GPUs para modelos complejos de IA conversacional como la inferencia de gran tamaño BERT y ofrece hasta 3 veces más rendimiento para el entrenamiento de gran tamaño de IA BERT.
Además, los avanzados diseños térmicos y de refrigeración hacen que estos sistemas sean ideales para clústeres de alto rendimiento en los que la densidad de nodos y la eficiencia energética son prioridades. La refrigeración líquida también está disponible para estos sistemas, lo que supone un ahorro de OPEX aún mayor. La memoria persistente Intel Optane™ (PMem) también es compatible con esta plataforma, lo que permite mantener modelos significativamente más grandes en la memoria, cerca de la CPU, antes de procesarlos en las GPU. Para las aplicaciones que requieren una interacción multisistema, el sistema también puede equiparse con cuatro tarjetas NVIDIA ConnectX®-6 200Gb/s InfiniBand para soportar GPUDirect RDMA con una relación GPU-DPU de 1:1.
El nuevo 2U 2-Node es una arquitectura de ahorro de recursos y energía eficiente diseñada para que cada nodo admita hasta tres GPU de doble ancho. Cada nodo también cuenta con un único procesador Intel Xeon Scalable de tercera generación con hasta 40 núcleos y aceleración de IA y HPC integrada. Una amplia gama de aplicaciones de IA, renderizado y VDI se beneficiarán de este equilibrio de CPUs y GPUs. Equipado con las ranuras de expansión del Módulo de E/S avanzado (AIOM) de Supermicro para capacidades de red rápidas y flexibles, el sistema también puede procesar un flujo de datos masivo para aplicaciones exigentes de IA/ML, formación de aprendizaje profundo e inferencia, al tiempo que asegura la carga de trabajo y los modelos de aprendizaje. También es ideal para los juegos en la nube de alta gama de varias instancias y muchas otras aplicaciones VDI de cálculo intensivo. Además, las redes virtuales de entrega de contenidos (vCDN) podrán satisfacer la creciente demanda de servicios de streaming. La redundancia de la fuente de alimentación está integrada, ya que cualquiera de los nodos puede utilizar la fuente de alimentación del nodo adyacente en caso de fallo.
Acerca de Super Micro Computer, Inc.
Supermicro (SMCI), el innovador líder en tecnología de servidores de alto rendimiento y alta eficiencia, es el principal proveedor de avanzadas Server Building Block Solutions® para centros de datos empresariales, computación en la nube, inteligencia artificial y sistemas de computación de borde en todo el mundo. Supermicro está comprometida con la protección del medio ambiente a través de su iniciativa "We Keep IT Green®" y proporciona a los clientes las soluciones más eficientes energéticamente y respetuosas con el medio ambiente disponibles en el mercado.
Supermicro, Server Building Block Solutions y We Keep IT Green son marcas comerciales y/o marcas registradas de Super Micro Computer, Inc.
Intel, el logotipo de Intel y otras marcas de Intel son marcas comerciales de Intel Corporation o sus filiales.
Todas las demás marcas, nombres y marcas comerciales son propiedad de sus respectivos propietarios.
Foto - https://mma.prnewswire.com/media/1657653/Supermicro_Expands_GPU_System_Portfolio.jpg
Logo - https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg
Related Links
WANT YOUR COMPANY'S NEWS FEATURED ON PRNEWSWIRE.COM?
Newsrooms &
Influencers
Digital Media
Outlets
Journalists
Opted In
Share this article