챗GPT 개발사 오픈AI의 샘 올트먼 최고경영자(CEO)

AI 생태계의 중심축이 흔들리고 있다. 오픈AI가 브로드컴과 손잡고 자체 AI 칩 개발에 나서며 핵심 부품인 HBM(고대역폭메모리)을 삼성전자와 SK하이닉스로부터 직접 공급받기로 했다. 그동안 엔비디아를 중심으로 돌아가던 AI 반도체 공급망이 새판으로 짜일 수 있을지 관심이 모아지고 있다.

15일 업계에 따르면 오픈AI는 브로드컴과 협력해 오는 2026년부터 10기가와트(GW) 규모의 AI 전용 가속기를 양산하는 계획을 공식화했다. 오픈AI가 직접 설계를 맡고 브로드컴이 제조 및 네트워킹을 담당하는 방식이다.

앞서 오픈AI는 삼성전자와 SK하이닉스와 각각 협력의향서(LOI)를 체결하고 월간 최대 웨이퍼 90만장 규모의 D램 직접납품을 합의했다. 업계는 이 중 상당 물량이 HBM으로 채워질 것으로 보고 있다. 지금까지 HBM은 삼성·하이닉스가 생산해 엔비디아, AMD 같은 GPU 제조사에 납품됐고, 이 GPU가 오픈AI·마이크로소프트·메타 등에 공급되는 구조였다.

하지만 이번 계약으로 오픈AI는 GPU 제조사를 건너뛰고 곧바로 메모리 공급망과 연결됐다. 메모리 → GPU → AI 서비스로 이어지던 다단계 공급망이 메모리 → AI 서비스로 단축된 것이다. AI 서비스 기업이 하드웨어 주도권을 직접 쥔 첫 사례로 평가된다.

이번 오픈AI의 독립 선언은 단순한 칩 협력 이상의 의미를 지닌다. 브로드컴은 AI 가속기 제조와 함께 이더넷·PCIe·광통신 기술을 통합한 네트워크 스택을 제공하며 시스템 전반의 효율을 끌어올릴 예정이다. 여기에 Arm의 연산·제어 IP가 결합되면 CPU와 AI 가속기가 통합된 새로운 아키텍처가 구현된다.

이로써 AI 서비스 기업이 GPU(그래픽처리장치) 공급사에 의존하지 않고 독립적인 반도체 생태계를 꾸리는 'AI 반도체 자립 구상'이 본격화했다. 오픈AI는 데이터센터를 지탱하는 메모리, 칩, 네트워크를 통합 제어하는 구조를 만들어가는 셈이다. 엔비디아가 GPU를 통해 'AI 하드웨어 플랫폼'을 독점했던 시대가 저물고 오픈AI 중심의 새로운 수직 통합 생태계가 열리고 있다.

브로드컴의 호크 탄 CEO는 "오픈AI와의 협업은 범용 인공지능(AGI)을 향한 여정의 분수령"이라며 "맞춤형 가속기와 개방형 네트워크의 결합이 차세대 데이터센터의 표준이 될 것"이라고 말했다.

HBM4

한국 반도체 업계엔 이번 변화가 복합적으로 작용한다. 긍정적인 것은 삼성전자와 SK하이닉스가 AI 반도체 시장에서 엔비디아를 통하지 않고 최종 고객과 직접 연결된 첫 공급망을 확보했다는 점이다. 특히 오픈AI처럼 대형 수요처가 직납을 선택하면 양사는 공급 계약 단계부터 공동 설계(Co-design) 형태의 협력까지 확대할 수 있다. 메모리 공급이 단순 납품에서 시스템 설계 참여로 발전하는 셈이다.

AI 서비스 기업의 수요가 폭증하는 것도 호재다. 하나의 AI 데이터센터가 수천만대 스마트폰에 해당하는 D램 수요를 창출할 만큼 메모리 사용량이 기하급수적으로 늘고 있다. AI 학습과 추론에는 기존 범용 D램보다 10배 이상 대역폭이 넓은 HBM이 필수적이다. 전 세계에서 HBM을 양산할 수 있는 기업은 삼성전자와 SK하이닉스뿐이기 때문에 양사는 사실상 독점적 공급 지위를 유지할 수 있다.

리스크도 있다. 우선 고객이 세분화되면 대량생산 체계가 흔들릴 수 있다. 엔비디아·AMD에 납품하던 대규모 단일 계약이 줄고 AI 기업별로 사양이 다른 맞춤형 주문이 늘어나면 원가와 수율 관리가 어려워진다. 실제로 HBM은 수율 1%포인트 차이만으로도 손익이 크게 변동한다.

또 다른 변수는 주도권이다. 오픈AI가 브로드컴·Arm과 함께 반도체 아키텍처를 직접 설계하면 메모리 인터페이스와 기술 사양 역시 이들이 주도하게 된다. 메모리 업체가 제공하던 ‘표준 제안권’이 약화되고 결과적으로 ‘주문형 하청’ 구조에 묶일 위험이 있다.

한 메모리 업계 관계자는 "AI 서비스 기업이 반도체의 방향을 결정하기 시작했다는 점에서 구조적 변곡점"이라며 "HBM 공급 기회는 커지지만 설계 주도권을 잃을 수 있다는 점이 장기 리스크"라고 말했다.

출처 디지털데일리