[PRNewswire] 슈퍼마이크로, 엔비디아 블랙웰용 직접액체냉각 슈퍼클러스터 공개
- 뛰어난 AI 컴퓨팅 집적도로 조 단위 매개변수를 기반으로 하는 생성형 AI 시대에 대응
- 엔비디아 HGX B200 8-GPU, 엔비디아 GB200, NVL4, NVL72 시스템 탑재
캘리포니아주 샌호세, 조지아주 애틀랜타 2024년 11월 22일 /PRNewswire=연합뉴스/ -- AI/ML, 클라우드, 스토리지 및 5G/엣지를 위한 토탈 IT 솔루션의 글로벌 리더 슈퍼마이크로컴퓨터(Super Micro Computer, Inc.(SMCI), 이하 슈퍼마이크로)가 슈퍼클러스터 포트폴리오에 엔비디아 블랙웰 플랫폼을 탑재한 엔드투엔드 AI 데이터센터 솔루션을 추가했다.
새로운 슈퍼클러스터는 수냉식 랙 내 엔비디아 HGX B200 8-GPU 시스템 수를 크게 늘렸다. 이로 인해 기존에 업계 최고 수준을 자랑하던 수냉식 엔비디아 HGX H100 및 H200 기반 슈퍼마이크로 슈퍼클러스터 대비 GPU 컴퓨팅 집적도가 대폭 향상됐다. 또한, 슈퍼마이크로는 엔비디아 호퍼 시스템 포트폴리오를 강화해 급속도로 증가하고 있는 HPC 애플리케이션과 대중적인 엔터프라이즈 AI의 가속 컴퓨팅 도입에 대응하고 있다.
찰스 리앙(Charles Liang) 슈퍼마이크로 사장 겸 CEO는 "슈퍼마이크로는 세계 최대 규모의 수냉식 AI 데이터센터 프로젝트에 기여할 수 있는 전문성, 배포 속도, 그리고 배송 역량을 지니고 있다"라며, "최근, 슈퍼마이크로와 엔비디아가 GPU 10만개 규모의 AI 데이터센터를 성공적으로 구축했다"고 말했다.
그는 이어 "슈퍼마이크로 슈퍼클러스터는 직접액체냉각(Direct Liquid Cooling; DLC)의 효율성을 통해 전력 수요량을 줄인다. 이제 여기에 엔비디아 블랙웰 플랫폼을 사용하는 솔루션이 추가됐다"며, "슈퍼마이크로의 빌딩 블록 방법론을 통해 빠르게 엔비디아 HGX B200 8-GPU 서버를 설계할 수 있으며, 이는 수냉식과 공냉식 냉각 모두 가능하다. 슈퍼클러스터는 전례 없는 집적도, 성능, 그리고 효율성을 제공하고, 더욱 향상된 AI 컴퓨팅 솔루션으로 나아가는 길을 열고 있다. 슈퍼마이크로 클러스터는 직접액체냉각을 통해 데이터센터 전반의 성능은 향상시키고 전력 소비를 줄이며 운영 비용 절감 효과를 제공한다"고 설명했다.
슈퍼마이크로 HPC에 대한 자세한 내용은 홈페이지[https://www.supermicro.com/en/solutions/high-performance-computing ]에서 확인 가능하다.
<비고: 슈퍼마이크로 엔비디아 HGX B200 서버>
업그레이드된 슈퍼클러스터 확장 가능 장치는 혁신적인 수직 냉각 분배 매니폴드(CDM)를 갖춘 랙 스케일 설계를 기반으로, 단일 랙에 더 많은 컴퓨팅 노드를 탑재할 수 있다. 새롭게 개발된 고효율 냉각판과 고급 호스 설계로 수냉식 시스템의 효율성이 한층 더 향상됐으며, 대규모 배포를 위한 새로운 인-라인(in-row) 이중화 냉각 분배 장치(CDU) 옵션도 추가로 제공된다. 기존의 공냉식 데이터센터도 새로운 공냉식 냉각 시스템 섀시를 탑재한 엔비디아 HGX B200 8-GPU 시스템을 통해 성능과 효율을 극대화할 수 있다.
새로운 슈퍼마이크로 엔비디아 HGX B200 8-GPU 서버는 이전 세대보다 다양한 사항이 업그레이드됐다. 열 관리 및 전력 공급이 강화됐으며, 듀얼 500W 인텔 제온6(8800MT/s의 DDR5 MRDIMM 포함) 또는 AMD EPYCTM 9005 시리즈 프로세서를 지원한다. 또한, 새롭게 설계된 공냉식 10U 폼 팩터는 열전도 헤드룸이 확장된 섀시를 탑재해 1000W TDP 블랙웰 GPU 8개를 수용할 수 있다. 이 서버는 GPU와 NIC(엔비디아 블루필드-3 슈퍼닉 또는 엔비디아 커넥트X-7)가 1대1 비율로 설계돼 고성능 컴퓨팅 환경에서 확장성을 제공한다. 또한, 서버당 2개의 엔비디아 블루필드-3 DPU가 포함돼 AI 스토리지와의 데이터 처리를 효율적으로 간소화한다.
<비고: 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재한 슈퍼마이크로 서버>
슈퍼마이크로는 새롭게 발표된 엔비디아 GB200 NVL4 슈퍼칩과 GB200 NVL72 단일 랙 엑사스케일 컴퓨터를 비롯해 모든 엔비디아 GB200 그레이스 블랙웰 슈퍼칩에 최적화된 서버를 제공한다.
슈퍼마이크로의 엔비디아 MGX 설계 라인업은 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩을 지원할 예정이다. 해당 슈퍼칩은 융합형 HPC와 AI의 미래를 여는 핵심 기술로, NVLink-C2C 기술을 통해 2개의 엔비디아 그레이스 CPU와 통합된 4개의 블랙웰 GPU를 연결해 혁신적인 성능을 발휘한다. 또한, 슈퍼마이크로의 수냉식 엔비디아 MGX 모듈형 서버와 호환되며, 과학적 컴퓨팅, 그래프 신경망(GNN) 학습, 추론 애플리케이션에서 이전 세대 대비 최대 2배의 성능을 제공한다.
슈퍼마이크로 엔드투엔드 수냉식 솔루션이 탑재된 엔비디아 GB200 NVL72 슈퍼클러스터는 슈퍼클라우드 컴포저(Super Cloud Composer; SCC) 소프트웨어와 함께 단일 랙에서 엑사스케일 슈퍼컴퓨터를 구현한다. 이때 SCC는 수냉식 데이터센터를 위한 모니터링 및 관리 기능을 제공한다. 5세대 엔비디아 엔비링크 및 엔비링크 스위치로 연결된 72개의 엔비디아 블랙웰 GPU와 36개의 엔비디아 그레이스 CPU는 대규모 HBM3e 메모리 풀을 갖춘 하나의 강력한 GPU처럼 작동하며, 130TB/s의 GPU 통신 대역폭과 빠른 반응 속도를 지원한다.
<비고: 엔비디아H200 NVL을 사용하는 슈퍼마이크로 가속 컴퓨팅 서버>
이제 엔비디아 H200 NVL을 사용하는 슈퍼마이크로의 5U PCIe 가속 컴퓨팅 서버는 유연한 구성이 요구되는 저전력 공냉식 엔터프라이즈 랙 설계에 이상적이며, 규모와 상관없이 많은 AI 및 HPC 워크로드의 가속을 지원한다. 엔비디아 엔비링크로 최대 4개의 GPU가 연결됐으며, HBM3e을 통해 메모리 용량은 1.5배, 대역폭은 1.2배 증가했다. 이를 통해 엔비디아 H200 NVL은 대규모 언어 모델(LLM)을 몇 시간 내로 미세 조정할 수 있으며, 이전 세대 대비 최대 1.7배 빠른 LLM 추론 성능을 지원한다. 또한, H200 NVL에는 AI 개발 및 배포를 위한 클라우드 기반 소프트웨어 플랫폼, 엔비디아 AI 엔터프라이즈에 대한 5년 구독권이 포함돼 있다.
슈퍼마이크로의 X14 및 H14 5U PCIe 가속 컴퓨팅 서버는 엔비링크 기술을 활용해 최대 두 개의 4웨이 엔비디아 H200 NVL 시스템, 즉 총 8개의 GPU를 지원한다. 이를 통해 4-GPU 엔비링크 도메인당 최대 564GB의 HBM3e 메모리 풀과 900GB/s의 GPU 간 상호 연결 성능을 제공한다. 새로운 PCIe 가속 컴퓨팅 서버는 최대 10개의 PCIe GPU를 지원하며, 최신 인텔 제온6 또는 AMD EPYC 9005 시리즈 프로세서를 탑재해 HPC 및 AI 애플리케이션에 유연하고 다양한 옵션을 제공한다.
[슈퍼마이크로 소개]
슈퍼마이크로는 애플리케이션에 최적화된 토탈 IT 솔루션을 제공하는 글로벌 리더이다. 캘리포니아 산호세에 본사를 두고 있으며, 엔터프라이즈, 클라우드, AI, 5G 통신 및 엣지 IT 인프라를 위한 혁신을 시장에 가장 먼저 제공하기 위해 노력하고 있다. 슈퍼마이크로는 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어 및 지원 서비스를 제공하는 토탈 IT 솔루션 제조사다. 슈퍼마이크로의 마더보드, 전원 및 섀시 설계 전문성은 개발 및 생산을 강화해 전 세계 고객을 위해 클라우드부터 엣지까지 차세대 혁신을 지원한다.
미국과 아시아, 네덜란드에 위치한 글로벌 제조시설의 규모와 효율성을 기반으로 자체 설계 및 제조되는 슈퍼마이크로 제품은 그린 컴퓨팅 제품으로, 총소유비용(TCO)를 개선하고 환경에 미치는 영향을 줄이도록 최적화됐다. 또한, 수상 경력에 빛나는 서버 빌딩 블록 솔루션즈(Server Building Block Solutions) 포트폴리오를 통해 고객은 폼 팩터, 프로세서, 메모리, GPU, 스토리지, 네트워크, 전력 및 냉각 솔루션을 포괄적으로 지원하는 유연하고 재사용 가능한 빌딩 블록을 기반으로 구축된 광범위한 시스템 제품군에서 자신의 특정 워크로드와 애플리케이션에 맞게 제품을 선택하여 최적화할 수 있다.
슈퍼마이크로(Supermicro), 서버빌딩블록솔루션즈(Server Building Block Solutions), 친환경 IT추구(We Keep IT Green)는 슈퍼마이크로의 상표 또는 등록상표이다.
인텔, 인텔 로고, 그 외 인텔 상표는 인텔 코퍼레이션 및 산하 조직의 트레이드마크이다.
기타 모든 브랜드, 명칭 및 상표는 각 해당 소유주의 자산이다.
사진 - https://mma.prnewswire.com/media/2565150/Supermicro_NVIDIA_Blackwell.jpg
슈퍼마이크로, 엔비디아 블랙웰용 직접액체냉각 슈퍼클러스터 공개 (PRNewsfoto/Super Micro Computer, Inc.)
로고 - https://mma.prnewswire.com/media/1443241/5043297/Supermicro_Logo.jpg
(PRNewsfoto/Super Micro Computer, Inc.)
출처: Super Micro Computer, Inc.
Supermicro Delivers Direct-Liquid-Optimized NVIDIA Blackwell Solutions
-- Supermicro's SuperClusters with NVIDIA HGXTM B200 8-GPU, NVIDIA GB200, NVL4, and NVL72 Systems Deliver Unprecedented AI Compute Density
SAN JOSE, Calif and ATLANTA Nov. 22, 2024 /PRNewswire/ -- Supercomputing Conference - Supermicro, Inc. (NASDAQ: SMCI), a Total IT Solution Provider for AI, Cloud, Storage, and 5G/Edge, is announcing the highest-performing SuperCluster, an end-to-end AI data center solution featuring the NVIDIA Blackwell platform for the era of trillion-parameter-scale generative AI. The new SuperCluster will significantly increase the number of NVIDIA HGX B200 8-GPU systems in a liquid-cooled rack, resulting in a large increase in GPU compute density compared to Supermicro's current industry-leading liquid-cooled NVIDIA HGX H100 and H200-based SuperClusters. In addition, Supermicro is enhancing the portfolio of its NVIDIA Hopper systems to address the rapid adoption of accelerated computing for HPC applications and mainstream enterprise AI.
"Supermicro has the expertise, delivery speed, and capacity to deploy the largest liquid-cooled AI data center projects in the world, containing 100,000 GPUs, which Supermicro and NVIDIA contributed to and recently deployed," said Charles Liang, president and CEO of Supermicro. "These Supermicro SuperClusters reduce power needs due to DLC efficiencies. We now have solutions that use the NVIDIA Blackwell platform. Using our Building Block approach allows us to quickly design servers with NVIDIA HGX B200 8-GPU, which can be either liquid-cooled or air-cooled. Our SuperClusters provide unprecedented density, performance, and efficiency, and pave the way toward even more dense AI computing solutions in the future. The Supermicro clusters use direct liquid cooling, resulting in higher performance, lower power consumption for the entire data center, and reduced operational expenses."
For more information, please visit: www.supermicro.com/hpc
Proven AI Performance at Scale: Supermicro NVIDIA HGX B200 Systems
The upgraded SuperCluster scalable unit is based on a rack-scale design with innovative vertical coolant distribution manifolds (CDMs), which allow for an increased amount of compute nodes in a single rack. Newly developed and efficient cold plates and an advanced hose design further improve the efficiency of the liquid cooling system. A new in-row CDU option for large deployments is also available. Traditional air-cooled data centers can also take advantage of the new NVIDIA HGX B200 8-GPU systems with a new air-cooled system chassis.
The new Supermicro NVIDIA HGX B200 8-GPU systems come with a range of upgrades compared to the previous generation. The new system includes improvements to thermals and power delivery, support for dual 500W Intel® Xeon® 6 (with DDR5 MRDIMMs at 8800 MT/s), or AMD EPYCTM 9005 Series processors. A new air-cooled 10U form-factor Supermicro NVIDIA HGX B200 system features a redesigned chassis with expanded thermal headroom to accommodate eight 1000W TDP Blackwell GPUs. These systems are designed with a 1:1 GPU-to-NIC ratio supporting NVIDIA BlueField®-3 SuperNICs [https://www.nvidia.com/en-us/networking/products/data-processing-unit/ ] or NVIDIA ConnectX®-7 NICs [https://www.nvidia.com/en-us/networking/ethernet-adapters/ ] for scaling across a high-performance compute fabric. In addition, two NVIDIA BlueField-3 data processing units (DPUs) per system streamline data handling to and from attached high-performance AI storage.
Supermicro Solutions Featuring NVIDIA GB200 Grace Blackwell Superchips
Supermicro also offers solutions for all NVIDIA GB200 Grace Blackwell Superchips, including the newly announced NVIDIA GB200 NVL4 Superchip and the NVIDIA GB200 NVL72 single-rack exascale computer.
Supermicro's lineup of NVIDIA MGX designs will support the NVIDIA GB200 Grace Blackwell NVL4 Superchip. This superchip unlocks the future of converged HPC and AI, delivering revolutionary performance through four NVIDIA NVLink™-connected Blackwell GPUs unified with two NVIDIA Grace™ CPUs over NVLink-C2C. Compatible with Supermicro's liquid-cooled NVIDIA MGX modular systems, the Superchip provides up to 2x performance for scientific computing, graph neural network (GNN) training, and inference applications over the prior generation.
The NVIDIA GB200 NVL72 SuperCluster with Supermicro end-to-end liquid-cooling solution delivers an exascale supercomputer in a single rack with SuperCloud Composer (SCC) software, providing comprehensive monitoring and management capability for liquid-cooled data centers. 72 NVIDIA Blackwell GPUs and 36 NVIDIA Grace CPUs are all connected via fifth-generation NVIDIA NVLink and NVLink Switch, effectively operating as one powerful GPU with a massive pool of HBM3e memory, facilitating 130TB/s of total GPU communication bandwidth with low latency.
Accelerated Computing Systems with NVIDIA H200 NVL
Supermicro's 5U PCIe accelerated computing systems are now available with NVIDIA H200 NVL, ideal for lower-power, air-cooled enterprise rack designs that require flexible configurations, delivering acceleration for many AI and HPC workloads regardless of size. With up to four GPUs connected by NVIDIA NVLink, a 1.5x memory capacity, and a 1.2x bandwidth increase with HBM3e, NVIDIA H200 NVL can fine-tune LLMs in a few hours, delivering up to 1.7x faster LLM inference performance over the previous generation. NVIDIA H200 NVL also includes a five-year subscription to NVIDIA AI Enterprise [https://www.nvidia.com/en-us/data-center/products/ai-enterprise/?srsltid=AfmBOop07IINaYG6TIxcC6N9Pi9K8xoRD4Tj-QcOys5s_j6ulA7i-R7c ], a cloud-native software platform for developing and deploying production AI.
Supermicro's X14 and H14 5U PCIe accelerated computing systems support up to two 4-way NVIDIA H200 NVL systems through NVLink technology with a total of 8 GPUs in a system, providing up to 900GB/s GPU-to-GPU interconnection with a combined pool of 564GB of HBM3e memory per 4-GPU NVLink domain. The new PCIe accelerated computing system can support up to 10 PCIe GPUs and now also features the latest Intel Xeon 6 or AMD EPYC 9005 Series processors to deliver flexible and versatile options for HPC and AI applications.
Supermicro at Supercomputing Conference 2024
Supermicro will showcase a complete portfolio of AI and HPC infrastructure solutions at the Supercomputing Conference, including our liquid-cooled GPU servers for AI SuperClusters.
Check out the speaking sessions at our in-booth theater where customers, experts from Supermicro, and our technology partners will be presenting on the latest breakthroughs in computing technology.
Visit Supermicro at booth #2531, Hall B at SC24.
About Super Micro Computer, Inc.
Supermicro (NASDAQ: SMCI) is a global leader in Application-Optimized Total IT Solutions. Founded and operating in San Jose, California, Supermicro is committed to delivering first-to-market innovation for Enterprise, Cloud, AI, and 5G Telco/Edge IT Infrastructure. We are a Total IT Solutions provider with server, AI, storage, IoT, switch systems, software, and support services. Supermicro's motherboard, power, and chassis design expertise further enable our development and production, enabling next-generation innovation from cloud to edge for our global customers. Our products are designed and manufactured in-house (in the US, Asia, and the Netherlands), leveraging global operations for scale and efficiency and optimized to improve TCO and reduce environmental impact (Green Computing). The award-winning portfolio of Server Building Block Solutions® allows customers to optimize for their exact workload and application by selecting from a broad family of systems built from our flexible and reusable building blocks that support a comprehensive set of form factors, processors, memory, GPUs, storage, networking, power, and cooling solutions (air-conditioned, free air cooling or liquid cooling).
Supermicro, Server Building Block Solutions, and We Keep IT Green are trademarks and/or registered trademarks of Super Micro Computer, Inc.
All other brands, names, and trademarks are the property of their respective owners.
Photo - https://mma.prnewswire.com/media/2559717/Supermicro_NVIDIA_Blackwell.jpg
Logo - https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg
Source: Super Micro Computer, Inc.
[편집자 주] 이 보도자료는 자료 제공사에서 제공한 것으로, 연합뉴스는 내용에 대해 어떠한 편집도 하지 않았으며, 연합뉴스의 편집방향과는 무관함을 밝혀 드립니다.
(끝)
출처 : PRN 보도자료
- 뛰어난 AI 컴퓨팅 집적도로 조 단위 매개변수를 기반으로 하는 생성형 AI 시대에 대응
- 엔비디아 HGX B200 8-GPU, 엔비디아 GB200, NVL4, NVL72 시스템 탑재
캘리포니아주 샌호세, 조지아주 애틀랜타 2024년 11월 22일 /PRNewswire=연합뉴스/ -- AI/ML, 클라우드, 스토리지 및 5G/엣지를 위한 토탈 IT 솔루션의 글로벌 리더 슈퍼마이크로컴퓨터(Super Micro Computer, Inc.(SMCI), 이하 슈퍼마이크로)가 슈퍼클러스터 포트폴리오에 엔비디아 블랙웰 플랫폼을 탑재한 엔드투엔드 AI 데이터센터 솔루션을 추가했다.
새로운 슈퍼클러스터는 수냉식 랙 내 엔비디아 HGX B200 8-GPU 시스템 수를 크게 늘렸다. 이로 인해 기존에 업계 최고 수준을 자랑하던 수냉식 엔비디아 HGX H100 및 H200 기반 슈퍼마이크로 슈퍼클러스터 대비 GPU 컴퓨팅 집적도가 대폭 향상됐다. 또한, 슈퍼마이크로는 엔비디아 호퍼 시스템 포트폴리오를 강화해 급속도로 증가하고 있는 HPC 애플리케이션과 대중적인 엔터프라이즈 AI의 가속 컴퓨팅 도입에 대응하고 있다.
찰스 리앙(Charles Liang) 슈퍼마이크로 사장 겸 CEO는 "슈퍼마이크로는 세계 최대 규모의 수냉식 AI 데이터센터 프로젝트에 기여할 수 있는 전문성, 배포 속도, 그리고 배송 역량을 지니고 있다"라며, "최근, 슈퍼마이크로와 엔비디아가 GPU 10만개 규모의 AI 데이터센터를 성공적으로 구축했다"고 말했다.
그는 이어 "슈퍼마이크로 슈퍼클러스터는 직접액체냉각(Direct Liquid Cooling; DLC)의 효율성을 통해 전력 수요량을 줄인다. 이제 여기에 엔비디아 블랙웰 플랫폼을 사용하는 솔루션이 추가됐다"며, "슈퍼마이크로의 빌딩 블록 방법론을 통해 빠르게 엔비디아 HGX B200 8-GPU 서버를 설계할 수 있으며, 이는 수냉식과 공냉식 냉각 모두 가능하다. 슈퍼클러스터는 전례 없는 집적도, 성능, 그리고 효율성을 제공하고, 더욱 향상된 AI 컴퓨팅 솔루션으로 나아가는 길을 열고 있다. 슈퍼마이크로 클러스터는 직접액체냉각을 통해 데이터센터 전반의 성능은 향상시키고 전력 소비를 줄이며 운영 비용 절감 효과를 제공한다"고 설명했다.
슈퍼마이크로 HPC에 대한 자세한 내용은 홈페이지[https://www.supermicro.com/en/solutions/high-performance-computing ]에서 확인 가능하다.
<비고: 슈퍼마이크로 엔비디아 HGX B200 서버>
업그레이드된 슈퍼클러스터 확장 가능 장치는 혁신적인 수직 냉각 분배 매니폴드(CDM)를 갖춘 랙 스케일 설계를 기반으로, 단일 랙에 더 많은 컴퓨팅 노드를 탑재할 수 있다. 새롭게 개발된 고효율 냉각판과 고급 호스 설계로 수냉식 시스템의 효율성이 한층 더 향상됐으며, 대규모 배포를 위한 새로운 인-라인(in-row) 이중화 냉각 분배 장치(CDU) 옵션도 추가로 제공된다. 기존의 공냉식 데이터센터도 새로운 공냉식 냉각 시스템 섀시를 탑재한 엔비디아 HGX B200 8-GPU 시스템을 통해 성능과 효율을 극대화할 수 있다.
새로운 슈퍼마이크로 엔비디아 HGX B200 8-GPU 서버는 이전 세대보다 다양한 사항이 업그레이드됐다. 열 관리 및 전력 공급이 강화됐으며, 듀얼 500W 인텔 제온6(8800MT/s의 DDR5 MRDIMM 포함) 또는 AMD EPYCTM 9005 시리즈 프로세서를 지원한다. 또한, 새롭게 설계된 공냉식 10U 폼 팩터는 열전도 헤드룸이 확장된 섀시를 탑재해 1000W TDP 블랙웰 GPU 8개를 수용할 수 있다. 이 서버는 GPU와 NIC(엔비디아 블루필드-3 슈퍼닉 또는 엔비디아 커넥트X-7)가 1대1 비율로 설계돼 고성능 컴퓨팅 환경에서 확장성을 제공한다. 또한, 서버당 2개의 엔비디아 블루필드-3 DPU가 포함돼 AI 스토리지와의 데이터 처리를 효율적으로 간소화한다.
<비고: 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재한 슈퍼마이크로 서버>
슈퍼마이크로는 새롭게 발표된 엔비디아 GB200 NVL4 슈퍼칩과 GB200 NVL72 단일 랙 엑사스케일 컴퓨터를 비롯해 모든 엔비디아 GB200 그레이스 블랙웰 슈퍼칩에 최적화된 서버를 제공한다.
슈퍼마이크로의 엔비디아 MGX 설계 라인업은 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩을 지원할 예정이다. 해당 슈퍼칩은 융합형 HPC와 AI의 미래를 여는 핵심 기술로, NVLink-C2C 기술을 통해 2개의 엔비디아 그레이스 CPU와 통합된 4개의 블랙웰 GPU를 연결해 혁신적인 성능을 발휘한다. 또한, 슈퍼마이크로의 수냉식 엔비디아 MGX 모듈형 서버와 호환되며, 과학적 컴퓨팅, 그래프 신경망(GNN) 학습, 추론 애플리케이션에서 이전 세대 대비 최대 2배의 성능을 제공한다.
슈퍼마이크로 엔드투엔드 수냉식 솔루션이 탑재된 엔비디아 GB200 NVL72 슈퍼클러스터는 슈퍼클라우드 컴포저(Super Cloud Composer; SCC) 소프트웨어와 함께 단일 랙에서 엑사스케일 슈퍼컴퓨터를 구현한다. 이때 SCC는 수냉식 데이터센터를 위한 모니터링 및 관리 기능을 제공한다. 5세대 엔비디아 엔비링크 및 엔비링크 스위치로 연결된 72개의 엔비디아 블랙웰 GPU와 36개의 엔비디아 그레이스 CPU는 대규모 HBM3e 메모리 풀을 갖춘 하나의 강력한 GPU처럼 작동하며, 130TB/s의 GPU 통신 대역폭과 빠른 반응 속도를 지원한다.
<비고: 엔비디아H200 NVL을 사용하는 슈퍼마이크로 가속 컴퓨팅 서버>
이제 엔비디아 H200 NVL을 사용하는 슈퍼마이크로의 5U PCIe 가속 컴퓨팅 서버는 유연한 구성이 요구되는 저전력 공냉식 엔터프라이즈 랙 설계에 이상적이며, 규모와 상관없이 많은 AI 및 HPC 워크로드의 가속을 지원한다. 엔비디아 엔비링크로 최대 4개의 GPU가 연결됐으며, HBM3e을 통해 메모리 용량은 1.5배, 대역폭은 1.2배 증가했다. 이를 통해 엔비디아 H200 NVL은 대규모 언어 모델(LLM)을 몇 시간 내로 미세 조정할 수 있으며, 이전 세대 대비 최대 1.7배 빠른 LLM 추론 성능을 지원한다. 또한, H200 NVL에는 AI 개발 및 배포를 위한 클라우드 기반 소프트웨어 플랫폼, 엔비디아 AI 엔터프라이즈에 대한 5년 구독권이 포함돼 있다.
슈퍼마이크로의 X14 및 H14 5U PCIe 가속 컴퓨팅 서버는 엔비링크 기술을 활용해 최대 두 개의 4웨이 엔비디아 H200 NVL 시스템, 즉 총 8개의 GPU를 지원한다. 이를 통해 4-GPU 엔비링크 도메인당 최대 564GB의 HBM3e 메모리 풀과 900GB/s의 GPU 간 상호 연결 성능을 제공한다. 새로운 PCIe 가속 컴퓨팅 서버는 최대 10개의 PCIe GPU를 지원하며, 최신 인텔 제온6 또는 AMD EPYC 9005 시리즈 프로세서를 탑재해 HPC 및 AI 애플리케이션에 유연하고 다양한 옵션을 제공한다.
[슈퍼마이크로 소개]
슈퍼마이크로는 애플리케이션에 최적화된 토탈 IT 솔루션을 제공하는 글로벌 리더이다. 캘리포니아 산호세에 본사를 두고 있으며, 엔터프라이즈, 클라우드, AI, 5G 통신 및 엣지 IT 인프라를 위한 혁신을 시장에 가장 먼저 제공하기 위해 노력하고 있다. 슈퍼마이크로는 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어 및 지원 서비스를 제공하는 토탈 IT 솔루션 제조사다. 슈퍼마이크로의 마더보드, 전원 및 섀시 설계 전문성은 개발 및 생산을 강화해 전 세계 고객을 위해 클라우드부터 엣지까지 차세대 혁신을 지원한다.
미국과 아시아, 네덜란드에 위치한 글로벌 제조시설의 규모와 효율성을 기반으로 자체 설계 및 제조되는 슈퍼마이크로 제품은 그린 컴퓨팅 제품으로, 총소유비용(TCO)를 개선하고 환경에 미치는 영향을 줄이도록 최적화됐다. 또한, 수상 경력에 빛나는 서버 빌딩 블록 솔루션즈(Server Building Block Solutions) 포트폴리오를 통해 고객은 폼 팩터, 프로세서, 메모리, GPU, 스토리지, 네트워크, 전력 및 냉각 솔루션을 포괄적으로 지원하는 유연하고 재사용 가능한 빌딩 블록을 기반으로 구축된 광범위한 시스템 제품군에서 자신의 특정 워크로드와 애플리케이션에 맞게 제품을 선택하여 최적화할 수 있다.
슈퍼마이크로(Supermicro), 서버빌딩블록솔루션즈(Server Building Block Solutions), 친환경 IT추구(We Keep IT Green)는 슈퍼마이크로의 상표 또는 등록상표이다.
인텔, 인텔 로고, 그 외 인텔 상표는 인텔 코퍼레이션 및 산하 조직의 트레이드마크이다.
기타 모든 브랜드, 명칭 및 상표는 각 해당 소유주의 자산이다.
사진 - https://mma.prnewswire.com/media/2565150/Supermicro_NVIDIA_Blackwell.jpg
슈퍼마이크로, 엔비디아 블랙웰용 직접액체냉각 슈퍼클러스터 공개 (PRNewsfoto/Super Micro Computer, Inc.)
로고 - https://mma.prnewswire.com/media/1443241/5043297/Supermicro_Logo.jpg
(PRNewsfoto/Super Micro Computer, Inc.)
출처: Super Micro Computer, Inc.
Supermicro Delivers Direct-Liquid-Optimized NVIDIA Blackwell Solutions
-- Supermicro's SuperClusters with NVIDIA HGXTM B200 8-GPU, NVIDIA GB200, NVL4, and NVL72 Systems Deliver Unprecedented AI Compute Density
SAN JOSE, Calif and ATLANTA Nov. 22, 2024 /PRNewswire/ -- Supercomputing Conference - Supermicro, Inc. (NASDAQ: SMCI), a Total IT Solution Provider for AI, Cloud, Storage, and 5G/Edge, is announcing the highest-performing SuperCluster, an end-to-end AI data center solution featuring the NVIDIA Blackwell platform for the era of trillion-parameter-scale generative AI. The new SuperCluster will significantly increase the number of NVIDIA HGX B200 8-GPU systems in a liquid-cooled rack, resulting in a large increase in GPU compute density compared to Supermicro's current industry-leading liquid-cooled NVIDIA HGX H100 and H200-based SuperClusters. In addition, Supermicro is enhancing the portfolio of its NVIDIA Hopper systems to address the rapid adoption of accelerated computing for HPC applications and mainstream enterprise AI.
"Supermicro has the expertise, delivery speed, and capacity to deploy the largest liquid-cooled AI data center projects in the world, containing 100,000 GPUs, which Supermicro and NVIDIA contributed to and recently deployed," said Charles Liang, president and CEO of Supermicro. "These Supermicro SuperClusters reduce power needs due to DLC efficiencies. We now have solutions that use the NVIDIA Blackwell platform. Using our Building Block approach allows us to quickly design servers with NVIDIA HGX B200 8-GPU, which can be either liquid-cooled or air-cooled. Our SuperClusters provide unprecedented density, performance, and efficiency, and pave the way toward even more dense AI computing solutions in the future. The Supermicro clusters use direct liquid cooling, resulting in higher performance, lower power consumption for the entire data center, and reduced operational expenses."
For more information, please visit: www.supermicro.com/hpc
Proven AI Performance at Scale: Supermicro NVIDIA HGX B200 Systems
The upgraded SuperCluster scalable unit is based on a rack-scale design with innovative vertical coolant distribution manifolds (CDMs), which allow for an increased amount of compute nodes in a single rack. Newly developed and efficient cold plates and an advanced hose design further improve the efficiency of the liquid cooling system. A new in-row CDU option for large deployments is also available. Traditional air-cooled data centers can also take advantage of the new NVIDIA HGX B200 8-GPU systems with a new air-cooled system chassis.
The new Supermicro NVIDIA HGX B200 8-GPU systems come with a range of upgrades compared to the previous generation. The new system includes improvements to thermals and power delivery, support for dual 500W Intel® Xeon® 6 (with DDR5 MRDIMMs at 8800 MT/s), or AMD EPYCTM 9005 Series processors. A new air-cooled 10U form-factor Supermicro NVIDIA HGX B200 system features a redesigned chassis with expanded thermal headroom to accommodate eight 1000W TDP Blackwell GPUs. These systems are designed with a 1:1 GPU-to-NIC ratio supporting NVIDIA BlueField®-3 SuperNICs [https://www.nvidia.com/en-us/networking/products/data-processing-unit/ ] or NVIDIA ConnectX®-7 NICs [https://www.nvidia.com/en-us/networking/ethernet-adapters/ ] for scaling across a high-performance compute fabric. In addition, two NVIDIA BlueField-3 data processing units (DPUs) per system streamline data handling to and from attached high-performance AI storage.
Supermicro Solutions Featuring NVIDIA GB200 Grace Blackwell Superchips
Supermicro also offers solutions for all NVIDIA GB200 Grace Blackwell Superchips, including the newly announced NVIDIA GB200 NVL4 Superchip and the NVIDIA GB200 NVL72 single-rack exascale computer.
Supermicro's lineup of NVIDIA MGX designs will support the NVIDIA GB200 Grace Blackwell NVL4 Superchip. This superchip unlocks the future of converged HPC and AI, delivering revolutionary performance through four NVIDIA NVLink™-connected Blackwell GPUs unified with two NVIDIA Grace™ CPUs over NVLink-C2C. Compatible with Supermicro's liquid-cooled NVIDIA MGX modular systems, the Superchip provides up to 2x performance for scientific computing, graph neural network (GNN) training, and inference applications over the prior generation.
The NVIDIA GB200 NVL72 SuperCluster with Supermicro end-to-end liquid-cooling solution delivers an exascale supercomputer in a single rack with SuperCloud Composer (SCC) software, providing comprehensive monitoring and management capability for liquid-cooled data centers. 72 NVIDIA Blackwell GPUs and 36 NVIDIA Grace CPUs are all connected via fifth-generation NVIDIA NVLink and NVLink Switch, effectively operating as one powerful GPU with a massive pool of HBM3e memory, facilitating 130TB/s of total GPU communication bandwidth with low latency.
Accelerated Computing Systems with NVIDIA H200 NVL
Supermicro's 5U PCIe accelerated computing systems are now available with NVIDIA H200 NVL, ideal for lower-power, air-cooled enterprise rack designs that require flexible configurations, delivering acceleration for many AI and HPC workloads regardless of size. With up to four GPUs connected by NVIDIA NVLink, a 1.5x memory capacity, and a 1.2x bandwidth increase with HBM3e, NVIDIA H200 NVL can fine-tune LLMs in a few hours, delivering up to 1.7x faster LLM inference performance over the previous generation. NVIDIA H200 NVL also includes a five-year subscription to NVIDIA AI Enterprise [https://www.nvidia.com/en-us/data-center/products/ai-enterprise/?srsltid=AfmBOop07IINaYG6TIxcC6N9Pi9K8xoRD4Tj-QcOys5s_j6ulA7i-R7c ], a cloud-native software platform for developing and deploying production AI.
Supermicro's X14 and H14 5U PCIe accelerated computing systems support up to two 4-way NVIDIA H200 NVL systems through NVLink technology with a total of 8 GPUs in a system, providing up to 900GB/s GPU-to-GPU interconnection with a combined pool of 564GB of HBM3e memory per 4-GPU NVLink domain. The new PCIe accelerated computing system can support up to 10 PCIe GPUs and now also features the latest Intel Xeon 6 or AMD EPYC 9005 Series processors to deliver flexible and versatile options for HPC and AI applications.
Supermicro at Supercomputing Conference 2024
Supermicro will showcase a complete portfolio of AI and HPC infrastructure solutions at the Supercomputing Conference, including our liquid-cooled GPU servers for AI SuperClusters.
Check out the speaking sessions at our in-booth theater where customers, experts from Supermicro, and our technology partners will be presenting on the latest breakthroughs in computing technology.
Visit Supermicro at booth #2531, Hall B at SC24.
About Super Micro Computer, Inc.
Supermicro (NASDAQ: SMCI) is a global leader in Application-Optimized Total IT Solutions. Founded and operating in San Jose, California, Supermicro is committed to delivering first-to-market innovation for Enterprise, Cloud, AI, and 5G Telco/Edge IT Infrastructure. We are a Total IT Solutions provider with server, AI, storage, IoT, switch systems, software, and support services. Supermicro's motherboard, power, and chassis design expertise further enable our development and production, enabling next-generation innovation from cloud to edge for our global customers. Our products are designed and manufactured in-house (in the US, Asia, and the Netherlands), leveraging global operations for scale and efficiency and optimized to improve TCO and reduce environmental impact (Green Computing). The award-winning portfolio of Server Building Block Solutions® allows customers to optimize for their exact workload and application by selecting from a broad family of systems built from our flexible and reusable building blocks that support a comprehensive set of form factors, processors, memory, GPUs, storage, networking, power, and cooling solutions (air-conditioned, free air cooling or liquid cooling).
Supermicro, Server Building Block Solutions, and We Keep IT Green are trademarks and/or registered trademarks of Super Micro Computer, Inc.
All other brands, names, and trademarks are the property of their respective owners.
Photo - https://mma.prnewswire.com/media/2559717/Supermicro_NVIDIA_Blackwell.jpg
Logo - https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg
Source: Super Micro Computer, Inc.
[편집자 주] 이 보도자료는 자료 제공사에서 제공한 것으로, 연합뉴스는 내용에 대해 어떠한 편집도 하지 않았으며, 연합뉴스의 편집방향과는 무관함을 밝혀 드립니다.
(끝)
출처 : PRN 보도자료