차세대 AI 데이터 센터 지원, 엔비디아 차세대 가속 컴퓨팅인 호퍼(Hopper) 아키텍처 발표

홈 > 기획·특집 > 테크닉
테크닉

서버 | 차세대 AI 데이터 센터 지원, 엔비디아 차세대 가속 컴퓨팅인 호퍼(Hopper) 아키텍처 발표

권경욱 기자 0   0

엔비디아(www.nvidia.co.kr, CEO 젠슨 황)는 차세대 AI 데이터 센터를 지원하기 위해 이전 제품보다 성능이 크게 향상된 차세대 가속 컴퓨팅 플랫폼 엔비디아 호퍼(NVIDIA Hopper™) 아키텍처를 발표했다. 


미국의 선구적인 컴퓨터 과학자 그레이스 호퍼(Grace Hopper)의 이름을 딴 이 새로운 아키텍처는 2년 전에 출시된 엔비디아 암페어(NVIDIA Ampere) 아키텍처를 계승한다.


또한 800억 개의 트랜지스터를 탑재한 최초의 호퍼 기반의 GPU인 엔비디아 H100도 발표했다. 세계에서 가장 크고 강력한 액셀러레이터인 H100은 혁신적인 트랜스포머 엔진, 확장성이 뛰어난 엔비디아 NVLink 인터커넥트 등의 획기적인 기능을 갖추고 있어 대형 AI 언어 모델, 딥 추천 시스템, 유전체학 및 복잡한 디지털 트윈을 지원한다.


젠슨 황(Jensen Huang) 엔비디아 설립자이자 CEO는 "데이터 센터는 인공지능 공장이 되고 있으며 엔비디아 H100은 기업들이 AI가 주도하는 비즈니스를 가속화하기 위해 사용하는 세계 AI 인프라의 엔진"이라고 말했다.


H100 테크놀로지의 비약적 발전 


엔비디아 H100 GPU는 대규모 AI와 HPC를 가속화하는 새로운 표준을 확립하여 다음과 같은 6가지 획기적인 혁신을 제공한다.


- 세계에서 가장 고도화된 칩 — 엔비디아의 가속화된 컴퓨팅 요구에 맞게 설계된 최첨단 TSMC 4N 프로세스를 사용하여 800억 개의 트랜지스터로 구축된 H100은 AI, HPC, 메모리 대역폭, 상호 연결 및 통신을 가속화하며 초당 5TB에 가까운 외부 연결이 가능하다. H100은 PCIe Gen5를 지원하고 HBM3를 사용하는 최초의 GPU로 3TB/s의 메모리 대역폭을 실현한다. 20대의 H100 GPU는 전 세계 인터넷 트래픽과 동등한 성능을 유지할 수 있기 때문에 고객들은 데이터에 대한 추론을 실행하는 고급 추천 시스템 및 대규모 언어 모델을 실시간으로 제공할 수 있다.


- 새로운 트랜스포머 엔진 — 이제 자연어 처리의 표준 모델이 된 트랜스포머는 지금까지 발명된 가장 중요한 딥러닝 모델 중 하나이다. H100 액셀러레이터의 트랜스포머 엔진은 정확성을 잃지 않고 이전 세대와 비교하여 최대 6배의 속도를 낼 수 있도록 설계됐다.


- 2세대 보안 멀티 인스턴스 GPU — MIG 기술을 통해 단일 GPU를 7개의 소형 절연 인스턴스로 분할하여 다양한 유형의 작업을 처리할 수 있다. 호퍼 아키텍처는 각 GPU 인스턴스을 통해 클라우드 환경에서 안전한 멀티테넌트 구성을 제공함으로써 이전 세대보다 MIG 기능을 최대 7배 확장한다.


- 기밀 컴퓨팅 — H100은 세계 최초로 기밀 컴퓨팅 기능을 갖춘 가속기로, AI 모델과 고객 데이터가 처리되는 동안 이를 보호한다. 또한 고객은 개인 정보 보호에 민감한 산업(예: 의료 및 금융 서비스) 및 공유 클라우드 인프라에 대한 페더레이티드 러닝에도 기밀 컴퓨팅을 적용할 수 있다.


- 4세대 엔비디아 NVLink — 가장 큰 AI 모델을 가속화하기 위해 NVLink는 새로운 외부 NVLink 스위치와 결합하여 서버를 넘어 스케일업 네트워크로 확장되며, 이전 버전보다 9배 더 높은 대역폭으로 최대 256개의 H100 GPU를 엔비디아 HDR 퀀텀 인피니밴드(Quantum Infiniband)를 사용하여 연결한다.


- DPX 명령 — 새로운 DPX 명령은 경로 최적화 및 유전체학 등 광범위한 알고리즘에 사용되는 동적 프로그래밍을 이전 세대 CPU 대비 40배, GPU 대비 7배 가속화한다. 여기에는 동적 창고 환경에서 자동화 로봇 집단을 위해 최적의 경로를 찾기 위한 Floyd-Warshall 알고리즘과 DNA 및 단백질 분류 및 폴딩을 위한 시퀀스 정렬에 사용되는 스미스-워터맨(Smith-Waterman) 알고리즘이 포함된다.


H100의 결합된 기술 혁신은 엔비디아의 AI 추론 및 훈련 리더십을 확장하여 대규모 AI 모델을 사용하여 실시간 몰입형 애플리케이션을 가능하게 한다. H100은 세계에서 가장 강력한 단일 트랜스포머 언어 모델인 Megatron 530B를 사용하여 실시간 대화 AI에 필요한 1초 미만의 지연 시간을 충족하면서 이전 세대보다 처리량을 30배까지 향상시킨다. 또한 H100을 사용하면 3,950억 개의 매개변수를 사용하여 전문가 혼합과 같은 대규모 모델을 최대 9배 빠르게 교육할 수 있어 교육 시간을 몇 주에서 몇 일로 단축할 수 있다.


엔비디아 H100의 폭넓은 도입


엔비디아 H100은 사내, 클라우드, 하이브리드 클라우드, 엣지 등 모든 유형의 데이터 센터에 도입할 수 있다.


올해 말 세계 유수의 클라우드 서비스 제공자와 컴퓨터 제조사 및 엔비디아에서 사용할 수 있을 것으로 보인다.


엔비디아의 4세대 DGX™시스템인 DGX H100 은 8대의 H100 GPU를 탑재하여 새로운 FP8 정밀도로 32페타플롭의 AI 퍼포먼스를 제공하며, 대형 언어 모델, 추천 시스템, 의료 연구 및 기후 과학에 관한 방대한 컴퓨팅 요건을 충족하는 확장성 또한 제공한다.


DGX H100 시스템의 모든 GPU는 4세대 NVLink로 접속 가능하며 이전 세대보다 1.5배 향상된 900GB/s의 커넥티비티를 제공한다. NVSwitch™를 통해 8개의 H100 GPU를 모두 NVLink를 통해 연결할 수 있다. 외부 NVLink 스위치는 차세대 엔비디아 DGX SuperPOD 슈퍼컴퓨터에서 최대 32개의 DGX H100 노드를 네트워크할 수 있다.


호퍼는 H100 기반 인스턴스를 제공할 예정인 주요 클라우드 서비스 공급자 알리바바 클라우드, AWS, 바이두 AI 클라우드, 구글 클라우드, 마이크로소프트 애저(Azure), 오라클 클라우드 및 텐센트 클라우드로부터 광범위한 지원을 받아왔다.


Atos, BOXX Technologies, Cisco, Dell Technologies, Fujitsu, GIGABYTE, H3C, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix, Supermicro 등 세계 유수의 시스템 제조사가 H100 액셀러레이터를 탑재한 다양한 서버를 준비하고 있다.


다양한 규모의 엔비디아 H100


H100은 폭넓은 서버 설계 요건을 지원하기 위해 SXM 및 PCIe 폼 팩터로 제공된다. H100 GPU를 엔비디아 ConnectX-7 400Gb/s 인피니밴드(InfiniBand) 및 이더넷 스마트NIC와 페어링하는 통합된 가속기도 이용할 수 있다.


엔비디아의 H100 SXM은 4방향 및 8방향 구성의 HGX H100 서버 보드로 제공되며, 애플리케이션을 서버 내 또는 여러 서버에 걸쳐 여러 GPU로 확장할 수 있는 기업용으로 제공된다. HGX H100 기반 서버는 데이터 분석 및 HPC 애플리케이션과 함께 AI 훈련 및 추론을 위한 최고의 애플리케이션 성능을 제공한다.


H100 PCIe는 2개의 GPU를 접속할 수 있는 NVLink를 탑재하여 PCIe 5.0의 7배 이상의 대역폭을 제공하여 메인스트림 엔터프라이즈 서버에서 실행되는 어플리케이션에 탁월한 성능을 제공한다. 폼 팩터를 통해 기존 데이터 센터 인프라에 쉽게 통합할 수 있다.


새로운 통합 액셀러레이터인 H100 CNX는 H100과 I/O 부하가 높은 어플리케이션에 기업 데이터센터의 멀티노드 AI 트레이닝이나 엣지에서의 5G 신호 처리 등 획기적인 퍼포먼스를 제공하기 위해 ConnectX-7 SmartNIC를 결합한다.


엔비디아 호퍼 아키텍처 기반의 GPU는 엔비디아 그레이스(NVIDIA Grace™) CPU와 조합하여 초고속 NVLink-C2C 인터커넥트를 통해 PCIe 5.0에 비해 CPU와 GPU 간의 통신이 7배 이상 빨라진다. 그레이스 호퍼 슈퍼칩(Grace Hopper Superchip)은 대규모 HPC 및 AI 어플리케이션을 지원하도록 설계된 통합 모듈이다.


엔비디아 소프트웨어 지원


엔비디아 H100 GPU는 파워풀한 소프트웨어 툴에 의해 지원되며 개발자와 기업은 AI에서 HPC까지 어플리케이션을 구축하고 가속화할 수 있다. 여기에는 음성, 추천 시스템, 초거대 인퍼런스 등의 워크로드용 NVIDIA AI 소프트웨어의 주요 업데이트가 포함된다.


엔비디아는 또한 양자 컴퓨팅 및 6G 연구, 사이버 보안, 유전체학 및 약학 연구 작업을 가속화하기 위해 CUDA-X™ 라이브러리, 도구 및 기술 모음에 대한 60개 이상의 업데이트를 발표했다.


엔비디아 H100은 3분기부터 이용할 수 있다. 


엔비디아 호퍼 및 H100에 대한 자세한 내용은 GTC에 무료 등록 후 엔비디아 CEO 젠슨 황(Jensen Huang)의 GTC 2022 기조연설과 엔비디아 및 업계 선두 업체가 함께하는 세션에 참석해 확인할 수 있다.

 

ⓒ 블루프레임(https://www.blueframe.co.kr) 무단전재 및 재배포금지

, , , , , , , ,

Facebook Twitter GooglePlus KakaoStory NaverBand Naver Tumblr Pinterest 신고
0 개의 댓글이 있습니다.
많이 본 뉴스
인기기사