개발 IT 게시판

제목[발표] Nvidia와 OpenAI, AI 데이터 센터에 10기가와트의 Nvidia 하드웨어를 제공하기 위해 1,000억 달러 규모의 제휴 체결2025-01-01 07:16
작성자 Level 1
기사 원문 - https://www.tomshardware.com/tech-industry/nvidia-and-openai-forge-usd100-billion-alliance-to-deliver-10-gigawatts-of-nvidia-hardware-for-ai-datacenters
 
오픈 AI와 엔비디아 로고
기술 산업의 거대 기업인 OpenAI와 Nvidia는 10기가와트 규모의 AI 데이터 센터와 1,000억 달러 규모의 투자를 위한 중요한 파트너십을 발표했습니다 .

OpenAI는 엔비디아를 "선호하는 전략적 컴퓨팅 및 네트워킹 파트너"로 삼아 여러 데이터센터를 구축하기로 약속했으며, 첫 번째 데이터센터는 2026년 하반기에 구축될 예정입니다. 이 파트너십을 통해 OpenAI는 해당 데이터센터의 총 전력 예산이 "최소" 10기가와트에 도달할 때까지 열정적으로 구축할 것입니다. 엔비디아는 1,000억 달러 규모의 자금을 확보하기 위해 자금력을 집중했고, 이에 대한 보답으로 OpenAI에 점진적으로 투자했으며, 이는 주식 매수를 통해 이루어질 것으로 예상됩니다.

또한, 아마도 가장 흥미로운 점은 두 회사 모두 각자의 로드맵을 "공동 최적화"하기로 약속했다는 것입니다. 엔비디아의 AI 고객사들이 이미 칩 제조업체의 설계를 주도하고 있다는 것은 상상하기 어렵지 않지만, 이번 발표는 OpenAI가 엔비디아의 계획에 이전보다 더 큰 영향력을 행사하게 될 것임을 시사할 수 있습니다.

두 회사는 또한 이번 협력이 마이크로소프트 , 오라클, 소프트뱅크 등과 체결한 기존 계약과도 잘 부합한다고 강조했습니다 . OpenAI는 이미 마이크로소프트의 독점 AI 파트너로, 마이크로소프트는 지난 1월 해당 기술에 800억 달러를 투자하겠다고 약속했습니다.

한편, OpenAI의 샘 알트먼은 "컴퓨팅 인프라가 미래 경제의 기반이 될 것"이라고 말했는데, 불과 2~3년 전만 해도 과장된 표현으로 들렸을 것입니다.

OpenAI의 차기 데이터센터는 엔비디아의 베라 루빈 플랫폼 (아마도 루빈 울트라도)을 사용할 예정입니다. 이 플랫폼은 76TB의 HBM4 메모리를 탑재한 강력한 가속기로, FP4 추론을 3.6엑사플롭스, FP8 학습을 1.2엑사플롭스로 수행할 수 있을 것으로 예상됩니다. "엑사"라는 접두사가 흔해지고 있다는 사실은 흥미롭지만 동시에 두렵기도 합니다.

Rubin GPU와 Vera CPU는 8월 말에 테이프아웃되어 현재 TSMC 공장에서 생산되고 있습니다. 한편, Rubin Ultra는 추론용으로 15엑사플롭의 FP4 연산 성능, 학습용으로 5엑사플롭의 FP4 연산 성능을 제공할 것으로 예상됩니다. 이 성능은 365TB의 HBM4e 메모리와 14GB 300 GPU를 통해 구현되었습니다.

10기가와트라는 수치를 좀 더 쉽게 이해하자면, 현대 미국 원자력 발전소 원자로는 약 1기가와트에 적합하며, 이는 이 새로운 데이터센터가 가동되려면 원자로 10개에 해당하는 전력을 소모해야 한다는 것을 의미합니다. 이는 이해하기 어려운 개념입니다. 기술 발전은 분명 인상적이지만, 환경 비용에 대한 심각한 의문도 제기됩니다.
위로 스크롤