AMD 어드밴싱 AI 2025, 개방형 AI 생태계에 대한 비전 제시 및 新 반도체와 소프트웨어, 시스템도 구체화

홈 > 최신뉴스 > 주요뉴스
주요뉴스

서버 | AMD 어드밴싱 AI 2025, 개방형 AI 생태계에 대한 비전 제시 및 新 반도체와 소프트웨어, 시스템도 구체화

권경욱 기자 0   0

AMD는 美 현지시각 6월 12일(국내 6월 13일) 연례 행사인 2025 어드밴싱 AI(2025 Advancing AI)에서 종합적이고 통합된 자사의 AI 플랫폼 비전을 발표하고 업계 표준 기반의 개방적이고 확장 가능한 랙-스케일 AI 인프라를 공개했다.



thumb-1d8998c9e999d749b6160ac7081b51b9_MfianUQz_89a62890d1beb19c730bcbbc80f8d9a4df189d6e_600x400.jpg


다음은 AMD 및 파트너 기업들의 주요 발표 내용이다.


 AMD 인스팅트(AMD Instinct™) MI350 시리즈 가속기를 기반으로 개방형 AI 생태계를 구축하는 방법

 AMD ROCm™ 생태계의 지속적인 성장

 2027년 이후까지 지속적으로 업계 최고 수준의 랙 스케일 AI 성능을 제공할 수 있는 AMD의 강력한 신규 개방형 랙-스케일 설계 및 로드맵



thumb-1d8998c9e999d749b6160ac7081b51b9_JzC1fRMI_4e7c2a12f1ce90bd5746873ed840dea388375325_600x400.jpg


AMD의 리사 수(Lisa Su) CEO는 "AMD는 전례 없는 속도로 AI 혁신을 주도하고 있으며, 이는 AMD 인스팅트 MI350 시리즈 가속기 출시, 차세대 AMD 헬리오스 랙-스케일 솔루션의 발전, 그리고 ROCm 개방형 소프트웨어 스택의 성장 모멘텀을 통해 더욱 부각되고 있다."라고 설명했다. 또, "우리는 개방형 표준, 공동 혁신, 그리고 AI의 미래를 정의하고자 협력하는 광범위한 하드웨어 및 소프트웨어 파트너 생태계 전반에 걸쳐 AMD의 리더십을 확대하고 있으며, 이를 통해 AI의 다음 단계로 진입하고 있다." 라고 밝혔다.



thumb-1d8998c9e999d749b6160ac7081b51b9_x47Yclf2_c87029943454de13e196a08893e5af03dadee40c_600x234.jpg


AMD, 개방형 AI 생태계 가속화를 위한 리더십 솔루션 제공


AMD는 AI 전체 스펙트럼을 지원하는 하드웨어, 소프트웨어, 솔루션 포트폴리오를 다음과 같이 발표했다.


 AMD는 인스팅트 MI350 시리즈 GPU를 공개하며, 생성형 AI 및 고성능 컴퓨팅 분야에서 성능, 효율성 및 확장성을 위한 새로운 기준을 세웠다. 인스팅트 MI350X 및 MI355X GPU 및 플랫폼으로 구성된 MI350 시리즈는 세대 간 AI 컴퓨팅 성능은 4배, 추론 성능은 35배 높아져 산업 전반에 걸친 혁신적인 AI 솔루션의 물꼬를 텄다. MI355X는 또한 뛰어난 가격 대비 성능을 제공하며, 경쟁 솔루션 대비 최대 40% 더 많은 달러당 토큰을 생성할 수 있다. (* 관련 상세 자료: 밤시 보파나(Vamsi Boppana), AMD AI부문 총괄 수석 부사장 공식 블로그 포스트)



thumb-1d8998c9e999d749b6160ac7081b51b9_z89OZ6FS_d44705092b437da9c50f9248970401f1f1f694a4_600x350.jpg


 AMD는 AMD 인스팅트 MI350 시리즈 가속기, 5세대 AMD 에픽(AMD EPYC™) 프로세서, AMD 펜산도 폴라라 NIC(Pensando™ Pollara NIC)를 활용한 엔드투엔드 오픈 스탠다드 랙 스케일 AI 인프라를 시연했다. 이는 오라클 클라우드 인프라스트럭처(OCI) 등 하이퍼스케일러에서 이미 운영되고 있고, 2025년 하반기부터 광범위하게 출시할 예정이다. AMD는 이전 세대 대비 MoE(Mixture of Experts) 모델 추론에서 최대 10배 더 높은 성능을 제공하는 MI400 시리즈 GPU를 기반으로 한 차세대 AI 랙 “헬리오스(Helios)”도 선공개했다. 이 시스템은 “젠 6(Zen 6)” 아키텍처 기반의 에픽 “베니스(Venice)” CPU 및 펜산도 “불카노(Vulcano)” NIC를 탑재했다. (* 관련 상세 자료: AMD 공식 블로그 포스트)



thumb-1d8998c9e999d749b6160ac7081b51b9_w62fCmeP_117e354fe9f421bac17367419509ca587deebcb1_600x338.jpg


 AMD는 최신 오픈소스 AI 소프트웨어 스택인 ROCm 7도 발표했다. ROCm 7은 생성형 AI와 HPC 워크로드를 충족하도록 설계되어 전반적인 개발자 경험을 크게 끌어 올린다. ROCm 7은 업계 표준 프레임워크에 대한 지원을 높이고, 하드웨어 호환성 확대, 개발 도구 및 드라이버, API, 라이브러리 등이 특징으로 두드러진다. (* 관련 상세 자료: 아누쉬 엘랑고반(Anush Elangovan), AMD AI 소프트웨어 개발 부문 부사장 공식 블로그 포스트)


 인스팅트 MI350 시리즈는 AI 트레이닝 및 HPC 노드의 에너지 효율을 5년간 30배 개선한다는 AMD의 목표를 초과 달성해 결과적으로 38배라는 기록적인 개선을 이뤄냈다. AMD는 2030년까지 2024년 기준 대비 랙 스케일 에너지 효율을 20배 향상시키겠다는 새로운 목표도 발표했다. 이는 2030년까지 전력 소비를 95% 줄이는 것인데, 현재 275개 이상의 랙이 필요한 일반적인 AI 모델을 학습시키는 데에 완전히 채워진 랙 1개, 혹은 그 이하의 시스템으로 처리할 수 있다는 것을 의미한다. (*관련 상세 자료: 샘 나프지거(Sam Naffziger) AMD 수석 부사장 및 기업 펠로우 공식 블로그 포스트)


 AMD는 전 세계 개발자 및 오픈소스 커뮤니티를 위한 AMD 개발자 클라우드의 광범위한 출시도 발표했다. 이 클라우드는 고성능 AI 개발을 위해 설계된 완전 관리형 환경으로, 개발자들이 AI 프로젝트를 빠르게 시작할 수 있도록 다양한 도구들과 유연한 확장성을 제공한다. ROCm 7과 AMD 개발자 클라우드를 통해 AMD는 차세대 컴퓨팅에 대한 장벽을 낮추고 접근성을 넓힌다. 허깅 페이스(Hugging Face), 오픈AI(OpenAI) 및 그록(Grok)과 같은 선두 기업들과 전략적 협력은 공동 개발된 개방형 솔루션의 강점을 증명하고 있다. 광범위한 파트너 생태계, AMD 컴퓨팅 기반으로 AI 혁신 이뤄 최근, 세계 10대 AI 및 모델 구축 기업 중 7곳이 AMD 인스팅트 가속기를 기반으로 프로덕션 워크로드를 운영하고 있는 가운데, 메타(Meta), 오픈AI(OpenAI), 마이크로소프트(Microsoft), xAI 등 7개 기업은 어드밴싱 AI행사에 참석해 선도적인 AI 모델 학습, 강력한 대규모 추론, AI 탐색과 개발 가속화 등 다양한 분야에서 AMD 솔루션을 활용한 사례를 공유했다.


 메타는 라마 3(Llama 3) 및 라마 4(Llama 4) 모델 추론에 인스팅트 MI300X를 광범위하게 활용 중이며, MI350의 연산 성능, TCO 대비 성능, 차세대 메모리에 대해 기대감을 나타냈다. 또한 AMD와의 긴밀한 협력을 지속하며 인스팅트 MI400 시리즈 플랫폼에 대한 계획도 함께 공유했다.


 오픈AI의 샘 알트만(Sam Altman) CEO는 하드웨어, 소프트웨어, 알고리즘 전반에 걸친 최적화의 중요성에 대해 설명하고, AI 인프라 분야에서 AMD와 오픈AI의 긴밀한 파트너십, MI300X 기반 애저(Azure)의 연구 및 GPT 모델, MI400 시리즈 플랫폼에서의 심층적인 설계 참여 등에 대해 논의했다.


 오라클 클라우드 인프라스트럭처(OCI)는 업계 최초로 AMD의 개방형 랙 스케일 AI 인프라를 도입했으며, 최대 131,072개의 MI355X GPU로 가속화되는 제타스케일 AI 클러스터를 통해 고객들이 대규모 AI 모델을 구축, 학습, 추론할 수 있도록 지원한다고 밝혔다.


 휴메인(HUMAIN)은 AMD만이 제공할 수 있는 모든 컴퓨팅 플랫폼을 활용해 개방적이고 확장 가능하면서도 탄력적, 비용 효율적인 인프라 구축을 위한 의미 있는 협력이 이뤄졌다고 밝혔다.


 마이크로소프트는 인스팅트 MI300X가 애저(Azure) 내의 독점 모델과 오픈소스 모델 모두에 사용되고 있다고 발표했다.


 코히어(Cohere)는 자사의 고성능 커맨드 R+(Command R+) 모델이 인스팅트 MI300X으로 운영되며, 엔터프라이즈급 LLM 추론 과정에서 높은 처리량과 효율성, 데이터 프라이버시를 제공하고 있다고 전했다.


 레드햇(Red Hat)은 레드햇 오픈시프트 AI(Red Hat OpenShift AI)에 ‘AMD 인스팅트 GPU’를 활용해 생산 환경에 적합한 AI 환경을 제공하고, 하이브리드 클라우드 전반에 걸쳐 효율적인 AI 처리 기반을 마련함으로써 AMD와의 협력을 확장했다고 발표했다.


 아스테라 랩스(Astra Labs)는 개방형 UA링크(UALink) 생태계가 어떻게 혁신을 가속화하고 고객에게 더 큰 가치를 제공하는지 강조하며 차세대 AI 인프라를 지원하는 포트폴리오 계획을 발표했다.


 마벨(Marvell)은 이번 행사에서, AI 인프라에 최고의 유연성을 제공하는 개방형 인터커넥트를 개발하는 UA링크 컨소시엄의 일원으로서의 협력에 대해 강조했다.

 

ⓒ 블루프레임(https://www.blueframe.co.kr) 무단전재 및 재배포금지

, , , , , , , , ,

0 Comments
많이 본 뉴스
인기기사