제이포커스미디어

[PRNewswire] 슈퍼마이크로, 새로운 세대 시스템과 AI 최적화 제품 포트폴리오 확대

제이포커스미디어 | 기사입력 2024/03/20 [10:40]

[PRNewswire] 슈퍼마이크로, 새로운 세대 시스템과 AI 최적화 제품 포트폴리오 확대

제이포커스미디어 | 입력 : 2024/03/20 [10:40]
[PRNewswire] 슈퍼마이크로, 새로운 세대 시스템과 AI 최적화 제품 포트폴리오 확대

-- 새로운 엔비디아 블랙웰 아키텍처 솔루션이 탑재된 새로운 세대의 시스템과 랙 아키텍처를 통해 AI 최적화된 제품 포트폴리오를 확대
-- 대규모 CSP와 NSP를 위한 강력하고 에너지 효율이 높은 솔루션들이 엔비디아 퀀텀 X800 플랫폼과 엔비디아 AI 엔터프라이즈 5.0이 탑재된 차세대 엔비디아GPU와 CPU의 전체 스택을 통합

산호세, 캘리포니아 2024년 3월 20일 /PRNewswire=연합뉴스/ -- 엔비디아 GTC 2024 -- AI, 클라우드, 스토리지와 5G/엣지를 위한 토탈 IT 솔루션 공급업체 슈퍼마이크로(Supermicro, Inc.(나스닥: SMCI))는 최신 엔비디아 GB200 그레이스(Grace™) 블랙웰 슈퍼칩, 엔비디아 B200 텐서 코어와 B100 텐서 코어 GPU를 포함한 엔비디아의 차세대 데이터 센터 제품이 탑재된 대규모 생성형 AI를 위한 새로운 AI 시스템들을 발표한다. 슈퍼마이크로는 현재의 엔비디아 HGX™ H100/H200 8-GPU 시스템을 개선하여 엔비디아 HGX™ B100 8-GPU에 대한 드롭인 준비를 완료하고 B200을 지원하도록 개선함으로써 배송 시간을 단축하고 있다. 또한 슈퍼마이크로는 엔비디아 블랙웰 GPU 72 개가 탑재된 완벽한 랙 레벨 솔루션인 엔비디아 GB200 NVL72가 포함된 엔비디아GB200을 특징으로 하는 새로운 제품들을 통해 다양한 엔비디아 MGX™ 시스템 라인업을 더욱 강화할 예정이다. 슈퍼마이크로는 또한 4U 엔비디아 HGX B200 8-GPU 액체 냉각 시스템을 포함한 새로운 시스템들을 동사 라인업에 추가하고 있다.

슈퍼마이크로 사장 겸 CEO 찰스 량(Charles Liang)은 "우리는 AI 용 빌딩 블록 아키텍처와 랙 스케일 토탈 IT에 집중함으로써 엔비디아 GB200 NVL72가 탑재된 우리의 완전 통합형 디렉트-투- 칩 액체 냉각 랙 뿐만 아니라 우리의 새로운 4U 액체 냉각 엔비디아 HGX B200 8-GPU 기반 시스템과 같은 엔비디아 블랙웰 아키텍처 기반 GPU의 높아진 요구 사항을 위한 차세대 시스템들을 설계할 수 있게 되었다"면서 "이 신제품들은 슈퍼마이크로와 엔비디아의 검증된 HGX와 MGX 시스템 아키텍처를 기반으로 생산되었으며, 엔비디아 블랙웰 GPU의 새로운 기능에 최적화되었다. 슈퍼마이크로는 1kW GPU를 다양한 공냉 및 액체 냉각 시스템에 통합할 수 있는 전문성 뿐만 아니라 월 5,000개의 랙 스케일 생산 능력을 갖추고 있으며 엔비디아 블랙웰 GPU가 탑재된 전체 랙 클러스터를 시장 내 최초로 설치하기를 기대하고 있다"고 말했다.

슈퍼마이크로의 디렉트-투- 칩 액체 냉각 기술을 통해 최신 GPU의 고온 설계 전력(TDP)이 가능해지고 엔비디아 블랙웰 GPU의 잠재력을 최대한 발휘할 것이다. 엔비디아 블랙웰이 탑재된 슈퍼마이크로의 HGX와 MGX 시스템들은 AI 인프라의 미래를 위한 기본 요소이며, 수 조 규모의 파라미터 AI 훈련과 실시간 AI 추론을 위한 획기적인 성능을 구현할 것이다.

GPU에 최적화되었으며 다양한 슈퍼마이크로 시스템들은 엔비디아 블랙웰 B200과 B100 텐서 코어 GPU를 위해 준비되고 엔비디아 NIM[https://nvidianews.nvidia.com/news/generative-ai-microservices-for-developers ] 추론 마이크로 서비스를 지원하는 최신 엔비디아 AI 엔터프라이즈 소프트웨어에 대해 검증될 것이다. 슈퍼마이크로 시스템들은 다음과 같다.

- 엔비디아 HGX B100 8-GPU와 HGX B200 8-GPU 시스템
- 10개의 GPU까지 탑재되는 5U/4U PCIe GPU 시스템
- 8U 인클로저를 위해 B100 GPU 20 개 그리고 6U 인클로저를 위해 B100 GPU 10개까지 탑재되는 슈퍼블레이드(SuperBlade®)
- B100 GPU 3개까지 탑재되는 2U하이퍼
- B100 GPU 4개까지 탑재되는 슈퍼마이크로 2U x86 MGX 시스템

슈퍼마이크로는 대규모 기초 AI 모델 훈련을 위해 엔비디아 HGX B200 8-GPU와 HGX B100 8-GPU 시스템을 처음 출시할 준비가 되어 있다. 이 시스템들은 고속 5세대 엔비디아® NV링크® 인터커넥트를 통해 1.8TB/s로 연결된 엔비디아 블랙웰 GPU 8 개가 탑재되며, 총 1.5TB의 고대역 메모리로 이전 세대보다 2배 향상된 성능을 구현하며, 엔비디아 호퍼 아키텍처 세대에 비해 GPT-MoE-1.8T 모델과 같은 LLM에 대해 3배 빠른 훈련 결과를 제공할 것이다.

이 시스템들은 클러스터들로 확장할 수 있는 첨단 네트워킹 기능을 갖추고 있으며, GPU 대 NIC 비율 1:1로 엔비디아 퀀텀-2 인피니밴드와 엔비디아 스펙트럼-X 이더넷 옵션 둘 모두 지원한다.

엔비디아 GPU 제품 관리 담당 부사장 카우스텁 상하니(Kaustubh Sanghani)는 "슈퍼마이크로는 현재 시장의 어떠한 요구라도 해결할 수 있는 AI 훈련 및 추론 성능에 맞춰 조정되었으며 가속화된 컴퓨팅 플랫폼 서버를 놀라울 정도로 다양하게 계속 출시하고 있다"면서 "우리는 고객들에게 가장 최적화된 솔루션을 제공하기 위해 슈퍼마이크로와 긴밀히 협력하고 있다"고 말했다.

슈퍼마이크로는 가장 까다로운 LLM 추론 워크로드를 위해 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재하고 생산된 몇몇 새로운 MGX 시스템들을 출시하고 있는데, 이는 하나의 엔비디아 그레이스 CPU에 2개의 엔비디아 블랙웰 GPU를 결합한 것이다. GB200 시스템을 탑재한 슈퍼마이크로의 엔비디아 MGX는
엔비디아 HGX H100에 비해 최대 30배 빠른 속도를 통해 크게 향상된 AI 추론 성능을 구현할 것이다. 슈퍼마이크로와 엔비디아는 엔비디아 GB200 NVL72를 통해 하나의 랙에 36개의 그레이스 CPU와 72개의 블랙웰 GPU를 연결하는 랙 스케일 솔루션을 개발했다. 72개의 모든 GPU는 1.8TB/s의 GPU-투-GPU 통신을 위해 5세대 엔비디아 NV링크와 상호 연결된다. 그 외에도 슈퍼마이크로는 추론 워크로드를 위해 GH200 제품군을 기반으로 하는 2U 서버인 ARS-221GL-NHIR을 발표하는데, 여기에는 900Gb/s의 고속 상호 연결을 통해 2개의 GH200 서버가 연결된다. 상세 정보가 필요할 경우 GTC의 슈퍼마이크로 부스[https://www.supermicro.com/en/event/gtc ]를 방문하기 바란다.

또한 슈퍼마이크로 시스템들은 엔비디아 퀀텀-X800 QM3400 스위치와 슈퍼NIC800으로 구성되며 곧 출시될 엔비디아 퀀텀-X800 인피니밴드 플랫폼과 엔비디아 스펙트럼-X800 SN5600 스위치와 슈퍼NIC800으로 구성된 엔비디아 스펙트럼-X800 이더넷 플랫폼을 지원한다. 엔비디아 블랙웰 아키텍처에 최적화된 엔비디아 퀀텀-X800과 스펙트럼-X800은 AI 인프라를 위한 최고 수준의 네트워킹 성능을 구현한다.

슈퍼마이크로 엔비디아 솔루션들에 대해 상세 정보가 필요할 경우 https://www.supermicro.com/en/accelerators/nvidia를 방문하기 바란다.

슈퍼마이크로가 곧 출시할 예정이며 엔비디아 B200과 GB200이 탑재된 시스템 라인업은 다음과 같다.

- 슈퍼마이크로의 엔비디아 HGX B200 8-GPU 공냉식과 액체 냉각식 시스템들은 최고의 생성형 AI 훈련 성능을 위한 것이다. 이 시스템은 5세대 NV링크를 통해 연결된 8개의 엔비디아 블랙웰 GPU와 1.5TB 고대역 메모리(최대 60TB/s) 풀을 탑재하여 AI 교육 워크로드 속도를 높인다.
- 엔비디아 HGX H100/H200 8-GPU를 탑재한 4U/8U 시스템인 슈퍼마이크로 베스트셀러 AI 훈련 시스템은 엔비디아가 곧 출시할 HGX B100 8-GPU를 지원한다.
- 서버 노드 당 2개의 그레이스 CPU와 4개의 엔비디아 블랙웰 GPU가 탑재된 GB200 슈퍼칩 시스템이 들어 있는 슈퍼마이크로 랙 레벨 솔루션. 슈퍼마이크로의 디렉트-투- 칩 액체 냉각은 그 모두가 하나의 44U ORV3 랙에 들어 있는GB200 192GB GPU 72 개(GPU당 1200W TDP)로 집적도를 극대화한다.

GTC 2024 에 참가한 슈퍼마이크로

슈퍼마이크로는 3월 18일부터 21일까지 산호세 컨벤션센터에서 열리는 엔비디아의 GTC 2024 행사에서 AI를 위한 GPU 시스템의 완전한 포트폴리오를 시연할 예정이다. 슈퍼마이크로 부스 #1016을 방문하여 생성형 AI 모델 훈련, AI 추론 및 엣지 AI 등의 다양한 AI 애플리케이션을 위해 구축된 솔루션들을 확인할 수 있다. 슈퍼마이크로는 또한 5세대 NV링크와 72개의 액체 냉각 GPU를 탑재하여 출시될 엔비디아 GB200가 들어 있는 시스템 컨셉 랙 하나가 포함된 두 개의 랙 레벨 솔루션을 쇼케이스할 예정이다.

GTC 2024에서 전시될 슈퍼마이크로의 솔루션들은 다음과 같다.

- 엔비디아 HGX H200 GPU 8개가 탑재된 8 4U 8-GPU 시스템이 들어 있는 슈퍼마이크로의 액체 냉각 AI 훈련 랙
- 5 세대 NV링크로 연결되며 총 72개의 엔비디아 GB200 슈퍼칩이 탑재된 액체 냉각 MGX 시스템 노드로 구성된 슈퍼마이크로 컨셉 ORV3 랙
- 1U 액체 냉각 엔비디아GH200 그레이스 호퍼 슈퍼칩 시스템이 포함된 슈퍼마이크로 MGX 시스템
- 엣지에서 GPU 컴퓨팅을 구현하기 위한 슈퍼마이크로 숏-뎁스 하이퍼-E 시스템
- AI 데이터 파이프라인을 위한 슈퍼마이크로 페타스케일 올-플래시 스토리지 시스템

슈퍼마이크로컴퓨터

슈퍼마이크로(나스닥: SMCI)는 애플리케이션에 최적화된 토탈 IT 솔루션 분야 글로벌 리더이다. 캘리포니아 산호세에서 설립되어 운영되고 있는 슈퍼마이크로는 엔터프라이즈, 클라우드, AI 및 5G 통신사/엣지 IT 인프라를 위한 혁신 제품을 최초로 출시하고자 하는 의지를 갖고 있다. 당사는 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어 및 지원 서비스를 갖춘 토탈 IT 솔루션 제조업체이다. 슈퍼마이크의 마더보드, 전원 및 섀시 설계 전문 지식은 또한 당사의 개발 및 생산을 가능하게 하며 전세계 고객들을 위해 클라우드에서 엣지에 이르는 차세대 혁신을 실현한다. 당사 제품들은 사내(미국, 아시아 및 네덜란드)에서 설계 및 제조되며 규모와 효율성을 위해 글로벌 운영을 활용하고 TCO를 개선하고 환경 영향을 줄이도록 최적화되었다(그린 컴퓨팅). 고객들은 수상 경력이 있는 서버 빌딩 블록 솔루션즈(Server Building Block Solutions®)포트폴리오를 통해 폼 팩터, 프로세서, 메모리, GPU, 스토리지, 네트워킹, 전력 및 냉각 솔루션(에어컨, 프리 공냉 또는 액체 냉각)의 종합 세트를 지원하는 당사의 유연하고 재사용 가능한 빌딩 블록으로 구축된 다양한 시스템 제품군 중에서 선택함으로써 자신들의 정확한 워크로드와 애플리케이션을 최적화할 수 있다.

Supermicro, Server Building Block Solutions와 We keep IT Green은 슈퍼마이크로컴퓨터의 상표 및/혹은 등록상표이다.

기타 모든 브랜드, 명칭과 상표는 그들 각 소유자들의 재산이다.

SMCI-F

사진 - //mma.prnewswire.com/media/2365522/4118657.jpg
로고 - //mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg

출처: Super Micro Computer, Inc.

Supermicro Grows AI Optimized Product Portfolio with a New Generation of Systems and Rack Architectures Featuring New NVIDIA Blackwell Architecture Solutions

-- Powerful and Energy Efficient Solutions for Large Scale CSPs and NSPs Incorporate a Full Stack of Next Gen NVIDIA GPUs and CPUs with the NVIDIA Quantum X800 Platform and NVIDIA AI Enterprise 5.0

SAN JOSE, Calif. March 20, 2024 /PRNewswire/ -- NVIDIA GTC 2024, -- Supermicro, Inc. (NASDAQ: SMCI), a Total IT Solution Provider for AI, Cloud, Storage, and 5G/Edge, is announcing new AI systems for large-scale generative AI featuring NVIDIA's next-generation of data center products, including the latest NVIDIA GB200 Grace™ Blackwell Superchip, the NVIDIA B200 Tensor Core and B100 Tensor Core GPUs. Supermicro is enhancing its current NVIDIA HGX™ H100/H200 8-GPU systems to be drop-in ready for the NVIDIA HGX™ B100 8-GPU and enhanced to support the B200, resulting in a reduced time to delivery. Additionally, Supermicro will further strengthen its broad NVIDIA MGX™ systems lineup with new offerings featuring the NVIDIA GB200, including the NVIDIA GB200 NVL72, a complete rack level solution with 72 NVIDIA Blackwell GPUs. Supermicro is also adding new systems to its lineup, including the 4U NVIDIA HGX B200 8-GPU liquid-cooled system.

"Our focus on building block architecture and rack-scale Total IT for AI has enabled us to design next-generation systems for the enhanced requirements of NVIDIA Blackwell architecture-based GPUs, such as our new 4U liquid-cooled NVIDIA HGX B200 8-GPU based system, as well as our fully integrated direct-to-chip liquid cooled racks with NVIDIA GB200 NVL72," said Charles Liang, president and CEO of Supermicro. "These new products are built upon Supermicro and NVIDIA's proven HGX and MGX system architecture, optimizing for the new capabilities of NVIDIA Blackwell GPUs. Supermicro has the expertise to incorporate 1kW GPUs into a wide range of air-cooled and liquid-cooled systems, as well as the rack scale production capacity of 5,000 racks/month and anticipates being first-to-market in deploying full rack clusters featuring NVIDIA Blackwell GPUs."

Supermicro's direct-to-chip liquid cooling technology will allow for the increased thermal design power (TDP) of the latest GPUs and deliver the full potential of the NVIDIA Blackwell GPUs. Supermicro's HGX and MGX Systems with NVIDIA Blackwell are the building blocks for the future of AI infrastructure and will deliver groundbreaking performance for multi-trillion parameter AI training and real-time AI inference.

A wide range of GPU-optimized Supermicro systems will be ready for the NVIDIA Blackwell B200 and B100 Tensor Core GPU and validated for the latest NVIDIA AI Enterprise software, which adds support for NVIDIA NIM [https://nvidianews.nvidia.com/news/generative-ai-microservices-for-developers ] inference microservices. The Supermicro systems include:

- NVIDIA HGX B100 8-GPU and HGX B200 8-GPU systems
- 5U/4U PCIe GPU system with up to 10 GPUs
- SuperBlade® with up to 20 B100 GPUs for 8U enclosures and up to 10 B100 GPUs in 6U enclosures
- 2U Hyper with up to 3 B100 GPUs
- Supermicro 2U x86 MGX systems with up to 4 B100 GPUs

For training massive foundational AI models, Supermicro is prepared to be the first-to-market to release NVIDIA HGX B200 8-GPU and HGX B100 8-GPU systems. These systems feature 8 NVIDIA Blackwell GPUs connected via a high-speed fifth-generation NVIDIA® NVLink® interconnect at 1.8TB/s, doubling the previous generation performance, with 1.5TB total high-bandwidth memory and will deliver 3X faster training results for LLMs, such as the GPT-MoE-1.8T model, compared to the NVIDIA Hopper architecture generation. These systems feature advanced networking to scale to clusters, supporting both NVIDIA Quantum-2 InfiniBand and NVIDIA Spectrum-X Ethernet options with a 1:1 GPU-to-NIC ratio.

"Supermicro continues to bring to market an amazing range of accelerated computing platform servers that are tuned for AI training and inference that can address any need in the market today, said Kaustubh Sanghani, vice president of GPU product management at NVIDIA. "We work closely with Supermicro to bring the most optimized solutions to customers."

For the most demanding LLM inference workloads, Supermicro is releasing several new MGX systems built with the NVIDIA GB200 Grace Blackwell Superchip, which combines an NVIDIA Grace CPU with two NVIDIA Blackwell GPUs. Supermicro's NVIDIA MGX with GB200 systems will deliver a vast leap in performance for AI inference with up to 30x speed-ups compared to the NVIDIA HGX H100. Supermicro and NVIDIA have developed a rack-scale solution with the NVIDIA GB200 NVL72, connecting 36 Grace CPUs and 72 Blackwell GPUs in a single rack. All 72 GPUs are interconnected with fifth-generation NVIDIA NVLink for GPU-to-GPU communication at 1.8TB/s. In addition, for inference workloads, Supermicro is announcing the ARS-221GL-NHIR, a 2U server based on the GH200 line of products, which will have two GH200 servers connected via a 900Gb/s high speed interconnect. Come to the Supermicro Booth at GTC to learn more [https://www.supermicro.com/en/event/gtc ].

Supermicro systems will also support the upcoming NVIDIA Quantum-X800 InfiniBand platform, consisting of the NVIDIA Quantum-X800 QM3400 switch and the SuperNIC800, and the NVIDIA Spectrum-X800 Ethernet platform, consisting of the NVIDIA Spectrum-X800 SN5600 switch and the SuperNIC800. Optimized for the NVIDIA Blackwell architecture, the NVIDIA Quantum-X800, and Spectrum-X800 will deliver the highest level of networking performance for AI infrastructures.

For more information on Supermicro NVIDIA solutions, visit https://www.supermicro.com/en/accelerators/nvidia

Supermicro's upcoming systems lineup featuring NVIDIA B200 and GB200 consists of:

- The Supermicro's NVIDIA HGX B200 8-GPU air-cooled and liquid-cooled systems are for the highest generative AI training performance. This system features 8 NVIDIA Blackwell GPUs connected via fifth generation NVLink with a pool of 1.5TB high-bandwidth memory (up to 60TB/s) to speed up AI training workloads.
- Supermicro's best-selling AI Training System, the 4U/8U system with NVIDIA HGX H100/H200 8-GPU, will support NVIDIA's upcoming HGX B100 8-GPU.
- A Supermicro Rack-Level Solution featuring GB200 Superchip systems as server nodes with 2 Grace CPUs and 4 NVIDIA Blackwell GPUs per node. Supermicro's direct-to-chip liquid-cooling maximizes density with 72 GB200 192GB GPUs (1200W TDP per GPU), all in a single 44U ORV3 rack.

Supermicro at GTC 2024

Supermicro will demonstrate a complete portfolio of GPU systems for AI at NVIDIA's GTC 2024 event from March 18-21 at the San Jose Convention Center. Visit Supermicro at booth #1016 to see solutions built for a wide range of AI applications, including training generative AI models, AI inference, and edge AI. Supermicro will also showcase two rack-level solutions, including a concept rack with systems featuring the upcoming NVIDIA GB200 with 72 liquid-cooled GPUs interconnected with fifth-generation NVLink.

Supermicro solutions that will be on display at GTC 2024 include:

- Supermicro liquid-cooled AI training rack featuring 8 4U 8-GPU systems with NVIDIA HGX H200 8-GPUs
- Supermicro concept ORV3 rack with liquid-cooled MGX system nodes, hosting a total of 72 NVIDIA GB200 Superchips connected via fifth-generation NVLink
- Supermicro MGX systems, including the 1U Liquid-Cooled NVIDIA GH200 Grace Hopper Superchip system
- Supermicro short-depth Hyper-E system for delivering GPU computing at the edge
- Supermicro Petascale all-flash storage system for high-performance AI data pipelines

About Super Micro Computer, Inc.

Supermicro (NASDAQ: SMCI) is a global leader in Application-Optimized Total IT Solutions. Founded and operating in San Jose, California, Supermicro is committed to delivering first to market innovation for Enterprise, Cloud, AI, and 5G Telco/Edge IT Infrastructure. We are a Total IT Solutions manufacturer with server, AI, storage, IoT, switch systems, software, and support services. Supermicro's motherboard, power, and chassis design expertise further enable our development and production, enabling next generation innovation from cloud to edge for our global customers. Our products are designed and manufactured in-house (in the US, Asia, and the Netherlands), leveraging global operations for scale and efficiency and optimized to improve TCO and reduce environmental impact (Green Computing). The award-winning portfolio of Server Building Block Solutions® allows customers to optimize for their exact workload and application by selecting from a broad family of systems built from our flexible and reusable building blocks that support a comprehensive set of form factors, processors, memory, GPUs, storage, networking, power, and cooling solutions (air-conditioned, free air cooling or liquid cooling).

Supermicro, Server Building Block Solutions, and We Keep IT Green are trademarks and/or registered trademarks of Super Micro Computer, Inc.

All other brands, names, and trademarks are the property of their respective owners.

SMCI-F

Photo - //mma.prnewswire.com/media/2365522/4118657.jpg
Logo - //mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg

Source: Super Micro Computer, Inc.

[편집자 주] 이 보도자료는 자료 제공사에서 제공한 것으로, 연합뉴스는 내용에 대해 어떠한 편집도 하지 않았으며, 연합뉴스의 편집방향과는 무관함을 밝혀 드립니다.
(끝)

출처 : PRNewswire 보도자료

  • 도배방지 이미지

  • [PRNewswire] Wynn Announces Winners of the Wynn Signature Chinese Wine Awards
  • [PRNewswire] Report Generator, 조직들의 IT 지속가능성 이슈 추적 지원
  • [PRNewswire] 슈퍼마이크로, 새로운 세대 시스템과 AI 최적화 제품 포트폴리오 확대
  • 경제STAT뉴스 많이 본 기사