2D 이미지를 3D 모델로 변환, 엔비디아 GANverse3D 애플리케이션 공개

홈 > 최신뉴스 > 주요뉴스
주요뉴스

IT | 2D 이미지를 3D 모델로 변환, 엔비디아 GANverse3D 애플리케이션 공개

권경욱 기자 0   0

엔비디아(www.nvidia.co.kr, CEO 젠슨 황)는 자사의 AI 리서치 랩(AI Research Lab)에서 개발한 GANverse3D 애플리케이션을 공개했다. 이는 평면 이미지를 사실적인 3D 모델로 변환해 가상 환경에서 시각화 및 제어를 가능하게 한다.  


건축가, 크리에이터, 게임 개발자, 디자이너가 GANverse3D를 활용하면 3D 모델링 분야에 전문성이 없거나 렌더링에 투자할 대규모 예산이 없어도 자신의 실물 모형(mockups)에 새로운 오브젝트를 손쉽게 추가할 수 있다. 이는 특정 자동차 사진 한 장만으로, 사실적인 전조등, 후미등, 점멸등까지 완비한 3D 모델을 구축해 가상의 장면에서 주행하게 만들 수 있다.


엔비디아 AI 리서치 랩의 연구자들은 훈련용 데이터세트의 마련에 생성적 적대 신경망(GAN)을 적용해 마치 사진사가 주차된 차량 주변을 걸으며 서로 다른 각도에서 사진을 찍듯, 동일한 오브젝트를 다양한 각도에서 묘사하는 이미지들을 합성했다. 이를 통해 얻은 다시점 이미지들을 2D 이미지에서 3D 메시 모델을 추론하는 프로세스인 역 그래픽(inverse graphics)용 렌더링 프레임워크에 연결했다. 


다시점 이미지로 훈련을 완료한 GANverse3D는 단일 2D 이미지만으로 3D 메시 모델을 구현할 수 있다. 이는 오브젝트를 커스터마이징하고 배경을 스왑 아웃(swap out)할 수 있는 3D 뉴럴 렌더러와 함께 사용할 수 있다. 


GANverse3D를 엔비디아 옴니버스(Omniverse) 플랫폼의 확장기능으로 가져와 엔비디아 RTX GPU로 실행하면 모든 형태의 2D 이미지를 3D로 재현할 수 있다. 일례로 1980년대에 큰 인기를 끌었던 TV 드라마 ‘전격 Z작전’에서 범죄에 맞서 싸우며 대중의 사랑을 한 몸에 받았던 자동차 키트(KITT)도 재현이 가능하다. 


기존의 역 그래픽용 모델들은 훈련 데이터로 3D 형상에 의존해 왔다. 이번 프로젝트의 책임 저자를 맡은 웬젱 첸(Wenzheng Chen) 엔비디아 연구원은 “3D 에셋의 도움을 받는 대신 GAN 모델을 효율적인 데이터 생성기로 전환해 웹상의 모든 2D 이미지로 3D 오브젝트를 만들 수 있게 됐다”고 설명했다. 


준 가오(Jun Gao) 엔비디아 연구원은 “일반적인 파이프라인 대신 합성 데이터를 활용한 실제 이미지로 훈련을 진행하여 AI 모델이 실제 애플리케이션들과 만났을 때 한층 뛰어난 일반화 능력을 보여준다”고 말했다. 


GANverse3D 연구 내용은 5월에 개최될 인공지능학회 표현학습국제학회(ICLR)와 6월에 열릴 패턴인식 학술대회(CVPR)에서 소개될 예정이다.



평면적 타이어에서 질주하는 ‘키트’로


게이밍, 건축, 디자인 분야의 크리에이터들은 최종 제품의 제작에 앞서 시뮬레이션과 협업을 위한 플랫폼인 엔비디아 옴니버스와 같은 가상 환경을 활용해 새로운 아이디어를 검증하고 프로토타입을 시각화한다. 이 과정에서 옴니버스 커넥터(Omniverse Connector)를 사용해 자신이 선호하는 3D 애플리케이션을 옴니버스 내에서 사용하면서 복잡한 가상 세계의 시뮬레이션과 실시간 레이 트레이싱을 수행할 수 있다. 


그러나, 스케치한 오브젝트의 3D 모델을 생성할 시간적 여유나 리소스가 없는 경우가 존재한다. 전시장 한 개 분량의 자동차들, 거리 한 개 분량의 건물들을 렌더링하는 데 필요한 다시점 이미지들을 일일이 캡처하는 데는 비용이 많이 소요된다. 


훈련을 마친 GANverse3D 애플리케이션을 사용하면 자동차와 건물이 포함된 일반 이미지를 3D 모델로 변환할 수 있으며, 동물을 비롯한 무엇이든 표현이 가능하다. 옴니버스에서 해당 3D 모델들의 커스터마이징과 애니메이션 작업을 진행할 수 있다. 


드라마 속 키트의 재현을 위해 연구자들은 훈련을 마친 모델에 키트의 이미지를 투입했다. 키트에게 적합한 3D 텍스처를 비롯해 바퀴와 전조등 같은 기타 부위의 예측은 GANverse3D에서 진행됐다. 다음으로 엔비디아 옴니버스 키트(Omniverse Kit)와 엔비디아 PhysX 툴을 사용해 예측 텍스처를 고품질 머티리얼로 변환하여 키트에 보다 사실적 외관과 느낌을 부여했으며, 이를 역동적인 주행 시퀀스 안에 다른 차량들과 함께 배치했다. 


장 프랑수아 라플레체(Jean-Francois Lafleche) 엔비디아 딥 러닝 엔지니어는 “옴니버스는 크리에이터와 사용자들을 흥미진진한 최첨단 연구와 직접 연결하는 역할을 한다. GANverse3D가 옴니버스의 확장기능으로 제공되면 게임 개발, 도시 계획, 새로운 머신 러닝 모델의 훈련 등에서 보다 다채로운 가상 세계를 창조하는 데 도움이 될 것이다”고 말했다.



차원을 바꾸는 GAN의 위력 


동일한 오브젝트를 서로 다른 각도에서 캡처하는 데이터세트는 현실적으로 드물다. 2D를 3D로 변환하는 AI 툴의 대부분은 셰이프넷(ShapeNet)과 같은 합성 3D 데이터세트(synthetic 3D datasets)를 사용해 훈련된다. 


엔비디아 연구자들은 웹상에서 공개적으로 얻을 수 있는 자동차 이미지와 같은 실세계 데이터에서 다시점 이미지를 얻기 위해 GAN 모델을 활용했다. 이는 GAN 모델의 신경망 레이어를 조작해 데이터 생성기로 변환시키는 방식이다. 


연구팀은 해당 신경망의 처음 레이어 4개를 켜고, 나머지 12개를 동결하면 GAN이 동일한 오브젝트를 서로 다른 각도에서 바라본 이미지를 내놓는다는 사실을 발견했다. 처음 레이어 4개를 동결하고 나머지 레이어 12개에 변화를 주면서 동일한 각도에서 본 서로 다른 이미지를 생성할 수 있었다. 특정 고도나 카메라와의 거리를 나타내는 차량들을 이용해 표준 각도를 수동으로 할당한 결과 개별 2D 이미지들로 다시점 데이터세트를 신속히 생성할 수 있었다.  


GAN으로 생성한 55,000개의 자동차 이미지를 활용해 훈련을 마친 최종 모델은 파스칼3D(Pascal3D) 데이터세트로 훈련한 역 그래픽 네트워크보다 향상된 성능을 보였다. 


여기에서 ICLR에 제출된 논문 전문을 확인해 볼 수 있다. 엔비디아 리서치 팀은 200명 이상의 다국적 과학적으로 구성돼 있으며, AI, 컴퓨터 비전, 자율주행 자동차, 로보틱스, 그래픽 분야를 중점적으로 연구하고 있다.

 

ⓒ 블루프레임(https://www.blueframe.co.kr) 무단전재 및 재배포금지

, , , , , , , , , , , , , , ,

0 Comments
많이 본 뉴스
인기기사