GTC | AI 모델 진화와 하드웨어 아키텍처 결합 강조, 엔비디아 AI 연구자들과 함께 차세대 AI 발전 방향 논의
엔비디아(www.nvidia.co.kr)가 미국 새너제이에서 열린 세계 최대 AI·가속 컴퓨팅 콘퍼런스인 ‘엔비디아(NVIDIA) GTC 2026’에서 엔비디아와 구글(Google)의 수석 과학자들이 모여 AI 발전 방향과 컴퓨팅 패러다임 변화에 대해 논의했다고 밝혔다.
지난 18일(화) (현지 시간) 엔비디아 수석 과학자 빌 달리(Bill Dally)와 대규모 머신러닝의 발전을 이끈 구글 딥마인드(Google DeepMind)와 구글 리서치(Google Research) 수석 과학자 제프 딘(Jeff Dean)이 AI의 다음 단계를 주제로 노변대담을 진행했다.

관중석이 가득 찬 가운데, 컴퓨팅 분야에서 가장 영향력 있는 두 사람이 무대에 올랐다. 이날 대담은 단순한 패널 토론을 넘어 AI 모델의 진화 방향과 함께, 하드웨어 아키텍처가 AI 발전과 불가분의 관계로 자리 잡은 배경을 짚어보는 자리였다.
딘은 특히 수학이나 코딩처럼 검증 가능한 보상이 있는 영역에서 모델 성능이 얼마나 빠르게 발전했는지를 강조했다. 과거에는 해결하지 못했던 작업들도 이제는 안정적으로 수행되며, 에이전트 기반 워크플로는 최소한의 개입으로 수 시간에서 수일 동안 작동하기 시작했다. 그는 이러한 변화가 AI 시스템의 성격 자체를 바꾸고 있다고 설명했다. 즉, 단순히 프롬프트에 반응하는 도구에서 벗어나 백그라운드에서 작동하는 에이전트로 진화하고 있다는 것이다.
달리는 이러한 흐름 속에서 ‘지연 시간(latency)’이 핵심 과제로 떠오르고 있다고 강조했다. 에이전트가 대규모로 추론하고 계획하며 반복 작업을 수행하려면 추론 속도가 가장 중요한 설계 제약 조건이 된다는 설명이다. 그는 오늘날 지연의 상당 부분이 실제 연산이 아니라 통신에서 발생한다고 지적했다. 계층 간 전환, 칩 외부로의 데이터 이동, 배선을 통한 데이터 전송 모두 시간과 에너지를 소모한다는 것이다. 이에 대한 엔비디아의 대응은 달리가 ‘빛의 속도(speed-of-light) 설계’라고 부르는 방향으로의 전환이다. 라우팅 오버헤드를 최소화하고, 대기열을 제거하며, 물리적인 데이터 이동 거리를 줄이는 것이 핵심이다.

구글 딥마인드·구글 리서치 수석 과학자 제프 딘(왼)과 엔비디아 수석 과학자 빌 달리(오)
‘데이터를 움직이지 말라’는 이 원칙은 에너지 효율성 논의에서도 반복적으로 등장했다. 단일 곱셈-덧셈 연산은 극히 적은 에너지만 소모하지만, 외부 메모리에서 데이터를 가져오는 데에는 수천 배 이상의 에너지가 필요하다. 달리는 연산을 메모리 가까이에 배치하고 SRAM 지역성을 활용하며 적층형 DRAM 기술을 탐구함으로써 이러한 불균형을 크게 개선할 수 있다고 설명했다. 목표는 단순한 전력 절감이 아니라 동일한 전력으로 훨씬 높은 성능을 구현하는 것이다.
대화는 AI가 AI용 칩 설계 자체를 수행하는 방향으로도 이어졌다. 달리는 강화학습 시스템이 어떻게 사전 설계·검증·특성화된 기본 로직 블록 집합인 표준 셀 라이브러리를 하룻밤 사이에 생성하는지 설명했다. 또한, 엔비디아의 설계 이력을 바탕으로 훈련된 내부 거대 언어 모델(Large Language Model, LLM)이 어떻게 신입 엔지니어들이 수십 년에 걸친 아키텍처 지식을 이해하도록 도움을 주는지도 덧붙였다. 이러한 시스템은 인간 설계자를 대체하는 것이 아니라, 개발 속도를 단축하고 탐색 가능한 아이디어의 범위를 확장하는 방식으로 역량을 증폭시킨다.
앞으로를 내다보며 두 연사는 공동 설계(codesign)이라는 공통된 키워드를 제시했다. 머신러닝 연구자와 시스템 아키텍트 간의 긴밀한 피드백 루프에서 혁신이 나온다는 것이다. 딘은 실리콘에 작은 실험적 기능을 추가하는 것이 큰 성과로 이어질 수 있으며, 하드웨어에서 10~20배의 가속을 이끌어낼 수 있다고 설명했다.
세션은 인간 중심의 메시지로 마무리됐다. 교육, 헬스케어, 과학적 발견 분야는 AI가 특히 긍정적인 영향을 미칠 수 있는 영역으로 꼽혔다. 특히 시스템이 개인화되고 맥락을 이해하며 지속적으로 학습하게 될수록 그 효과는 더욱 커질 것으로 전망됐다. 딘은 “AI의 헬스케어 분야 활용은 매우 큰 영향을 미칠 것”이라고 강조했다.
두 업계 선구자가 그린 미래가 현실이 된다면, 그것은 단순히 더 빠른 모델과 더 뛰어난 하드웨어를 넘어서는 변화가 될 것이다. 인텔리전스, 효율성, 확장성이 조화를 이루는 새로운 컴퓨팅 시대가 열릴 것으로 기대된다.
추론, 시뮬레이션, 로보틱스까지… AI 연구자들이 말하는 다음 도약
또 다른 세션으로 네 명의 선도적인 AI 연구자가 한자리에 모여 진행한 라운드테이블도 주목받았다. 진행은 ‘투 미닛 페이퍼스(Two Minute Papers)’의 크리에이터 카롤리 졸나이-페헤르(Károly Zsolnai‑Fehér)가 맡았다.
이날 논의는 추론 능력을 갖춘 언어 모델부터 생성형 시뮬레이션, 제로샷 로보틱스까지 차세대 AI를 형성하는 핵심 기술을 빠르게 훑어보는 자리였다.
엔비디아 AI 리서치(AI Research) 수석 디렉터 최예진은 강화학습을 사전 훈련 단계에 직접 통합하는 새로운 훈련 방식을 소개했다. 단순히 다음 토큰을 예측하는 대신, 모델이 답을 생성하기 전에 다양한 추론 경로를 스스로 탐색하도록 유도하는 방식이다. 그녀는 이를 통해 AI가 더 이른 단계에서 효과적으로 추론을 학습하는 ‘탐색적 학습의 시대’로 전환되고 있다고 설명했다.
이어 엔비디아 자율주행 연구 수석 디렉터 마르코 파보네(Marco Pavone)는 자율주행 개발을 위한 오픈 AI 모델, 시뮬레이션 도구, 데이터셋 모음인 엔비디아 알파마요(Alpamayo)의 최신 업데이트를 소개했다. 최신 버전인 알파마요 1.5 추론 비전 언어 행동(vision language action, VLA) 모델은 텍스트 기반 내비게이션 가이드를 추가하고, 모델의 추론과 행동 간 연결을 강화하는 사후 훈련 정렬 도구를 제공한다. 이를 통해 개발자가 자체 데이터셋에 맞게 모델을 맞춤화할 수 있도록 지원한다.
이후 논의는 시뮬레이션으로 확장됐다. 엔비디아 AI 리서치 부사장 겸 토론토 AI 랩(Toronto AI Lab) 책임자인 산자 피들러(Sanja Fidler)는 수작업으로 구축된 환경을 대체하는 신경망 기반 재구성과 생성형 시뮬레이션 기술을 소개하며 “우리는 생성형 시뮬레이션 시대에 들어섰다”고 말했다.
그녀의 팀이 개발한 알파드림스(AlpaDreams) 시스템은 물리 정보를 반영한 다중 카메라 장면을 실시간으로 생성해, 개발자가 정책을 상호작용적으로 테스트할 수 있도록 지원한다. 그녀는 “알파드림스는 정책에 반응해 여러 카메라를 실시간으로 시뮬레이션한다”고 설명했다.
마지막으로 엔비디아 로보틱스 연구 매니저 야쉬라지 나랑(Yashraj Narang)은 뉴럴 로봇 다이내믹스(Neural Robot Dynamics)와 같은 신경망 시뮬레이터가 기어 조립이나 케이블 라우팅과 같은 복잡한 물리 작업을 시뮬레이션 환경에서 학습한 뒤 이를 실제 환경으로 이전하는 과정을 시연했다. 그는 “수십만 개의 환경을 병렬로 실시간 실행할 수 있다”고 말했다.
이번 세션은 AI의 다음 단계에 대한 단서를 제시했다. 추론하는 모델, 세계를 생성하는 시뮬레이터, 그리고 현실에 적용되기 전 상상 속에서 학습하는 로봇이 그 핵심이다.
엔비디아, NVIDIA, GTC, GTC 2026, AI 모델, 진화와, 하드웨어, 아키텍처, 결합, 강조, AI 연구자들과, 함께, 차세대, AI 발전, 방향, 논의








