엔비디아, ‘AI 거품론’ 불식 시켰다…삼성·SK, ‘HBM 특수’ 지속

시간 입력 2024-08-29 18:00:58 시간 수정 2024-08-29 18:00:58
  • 페이스북
  • 트위치
  • 카카오
  • 링크복사

2분기 엔비디아 매출, 1년 새 122% 급등한 300억달러…“AI 칩 독주”
차세대 AI 반도체 블랙웰 GPU, 올해 본격 양산…K-반도체 특수 이어져
전략적 동반자 SK하이닉스 ‘최대 수혜’…삼성도 4분기 HBM3E 공급 전망

글로벌 AI(인공지능) 반도체 시장을 독점하다시피 한 엔비디아가 사상 처음으로 ‘분기 매출 300억달러 시대’를 열었다. 최근 ‘AI 거품론’이 빠르게 확산하고 있는데도 불구하고 엔비디아가 시장의 예상을 뛰어 넘는 실적을 내면서 AI 반도체 공룡의 독주 체제는 더욱 공고해지는 모습이다.

엔비디아는 올해 말부터 차세대 AI 반도체를 본격 양산한다고 못박았다. 이에 따, 엔비디아에 AI 메모리를 공급하고 있는 K-반도체도 동반 상승이 예고되고 있다. 최신 AI 칩 구동에 필수인 ‘HBM(고대역폭메모리)’ 수요가 폭발적으로 늘어날 전망이어서 엔비디아의 핵심 파트너인 SK하이닉스와 삼성전자의 실적은 큰 폭으로 개선될 것이 관측이.

엔비디아는 28일(현지시) 2025 회계연도 2분기(올 5~7월) 매출액이 300억 4000만달러(약 40조704억원)로 집계됐다고 밝혔다. 이는 전년 동기 135억 700만달러(약 18조 170억원) 대비 무려 122% 급등한 수치다.

이같은 수치는 시장의 전망을 크게 웃도는 것이다. 시장조사업체 LSEG가 전망한 엔비디아의 매출액 전망치는 287억달러였다. 그러나 실제는 이보다 더 높은 300억달러대를 기록했다. 엔비디아의 분기 매출이 300억달러를 넘어선 것은 이번이 처음이다.

영업이익은 더 개선됐다. 2025 회계연도 2분기 영업익은 186억4200만달러(약 24조8740억원)로, 전년 동기 68억달러(약 9조732억원) 대비 174%나 폭등했다. 같은 기간 주당 순이익도 0.25달러에서 0.67달러로, 3배 가까이 증가했다.

부문별로 살펴보면 AI 칩을 포함한 데이터센터 부문의 2025 회계연도 2분기 매출은 지난해 같은 기간보다 154% 증가한 263억달러(약 35조579억원)였다. PC용 그래픽 카드를 포함하는 게임 부문 매출은 1년 새 16% 늘어난 29억달러(약 3조8657억원)로 조사됐다.

엔비디아가 ‘어닝서프라이즈(깜짝 실적)’를 거둔 것은 마이크로소프트(MS), 구글, 메타, 아마존 등 주요 빅테크와 각국 정부가 AI 플랫폼 개발 경쟁에 뛰어들면서 GPU(그래픽처리장치) 수요가 폭발적으로 늘어나고 있기 때문이다.

젠슨 황 엔비디아 CEO(최고경영자)는 “글로벌 빅테크가 가속 컴퓨팅과 생성형 AI로 데이터센터의 컴퓨팅 성능을 끌어올리는 데 사활을 걸면서 엔비디아는 기록적인 매출을 달성했다”고 자평했다.

미국 엔비디아 보이저사옥. <사진=엔비디아>

이번에 엔비디아가 300억달러를 상회하는 분기 매출을 내면서 일각에서 제기해 온 AI 거품론은 동력을 잃는 모습이다.

AI 거품론은 주요 빅테크의 과잉 투자 논란에서 비롯됐다. 빅테크들이 천문학적인 금액을 AI 관련 사업에 쏟아 부었으나 수익은 이에 미치지 못했기 때문이다. 이에 미래 성장동력으로 꼽힌 AI가 실상은 수익성을 제고해주지 못한다는 ‘무용론’이 곳곳에서 터져 나오기 시작했다.

그러나 전 세계 AI 반도체 시장의 80% 이상을 장악한 엔비디아가 분기 매출 300억달러 시대를 열면서 AI 거품론은 불식되는 분위기다.

이같은 기세를 몰아 엔비디아는 올해 말 차세대 AI 반도체 양산을 본격화한다고 밝혔다. 황 CEO는 “올 3월 공개한 차세대 AI 칩 ‘블랙웰’을 2025 회계연도 4분기(올 11월~내년 1월)부터 양산에 돌입한다”고 말했다.

앞서 올 3월 엔비디아는 미국 캘리포니아주 새너제이 SAP 센터에서 개발자 콘퍼런스 ‘GTC 2024’를 열고, 차세대 AI 반도체 ‘B100’과 ‘B200’을 선보인 바 있다. B100, B200은 엔비디아 호퍼 아키텍처 기반의 H100의 성능을 뛰어 넘는 차세대 AI 반도체다. 호퍼 아키텍처가 아닌 새로운 플랫폼 블랙웰을 기반으로 제조돼 H100 대비 최대 30배 뛰어난 성능을 자랑한다. 반면 에너지 소비는 25분의 1 수준에 불과하다.

블랙웰은 2년 전 출시된 호퍼 아키텍처의 후속 기술이다. 최대 10조개의 파라미터로 확장되는 모델에 대한 AI 훈련과 실시간 LLM(거대언어모델) 추론을 지원한다. 블랙웰이라는 명칭은 게임 이론과 통계학을 전공한 수학자이자 흑인 최초로 미국국립과학원에 입회한 데이비드 헤롤드 블랙웰에서 따 왔다.

새 아키텍처의 강력한 지원을 받는 신형 AI 칩은 최대 2080억개의 트랜지스터를 탑재한 세계에서 가장 강력한 칩이라는 게 엔비디아의 설명이다.

황 CEO는 “차세대 AI GPU가 더 많은 성장을 이끌 것이다”며 “우리는 다음 성장의 물결(next wave of growth)을 맞이할 준비가 돼 있다”고 강력한 자신감을 내비쳤다.

엔비디아는 이미 블랙웰의 샘플을 파트너사와 고객사에 납품하고 있다고 말했다. 황 CEO는 “블랙웰 샘플은 이날부터 전 세계 파트너사와 고객사에 배송되고 있다”며 “현재 블랙웰에 대한 시장의 기대는 실로 엄청나다”고 강조했다.

젠슨 황 엔비디아 CEO. <사진=연합뉴스>

엔비디아의 차세대 AI 칩 양산이 본격화한다는 소식에 K-반도체도 동반상승 예고되고 있다.  AI 칩을 원활하게 구동하기 위해선 핵심 AI 메모리인 HBM이 절대적으로 필요하기 때문이다. 특히 엔비디아와 전략적 동반자 관계에 있는 SK하이닉스는 큰 수혜가 점쳐진다.

글로벌 HBM 시장에서 선도적 지위를 확보한 SK하이닉스는 AI 반도체 공룡인 엔비디아의 핵심 파트너로 자리매김한 상태다. 올 3월엔 세계 최초로 ‘HBM3E’ 8단 제품을 엔비디아에 납품하기 시작하며 삼성전자 등 경쟁사들과의 격차를 더욱 벌렸다.

여기서 안주하지 않고 SK는 HBM 경쟁력 확보에 더욱 속도를 올리고 있다. 특히 주요 고객사에게 샘플로 제공한 HBM3E 12단 제품을 올 3분기 내 양산하고, 4분기에 본격 출하해 글로벌 HBM 시장에서의 위상을 한층 제고하겠다는 방침이다.

SK하이닉스 관계자는 2분기 실적 콘퍼런스콜에서 “3분기에는 HBM3E가 HBM3의 출하량을 크게 넘어 서고, 전체 HBM 출하량 중 절반을 차지할 것이다”며 “올해는 TSV(실리콘관통전극) 생산 능력 확대, 10나노 5세대(1b) 전환 투자 등을 기반으로 HBM3E 공급을 빠르게 늘려 나갈 계획이다”고 말했다.

SK는 올해 HBM 매출이 지난해 대비 약 300%나 성장할 것으로 자신했다. SK하이닉스 관계자는 “HBM3E 12단 제품 수요는 내년에 본격적으로 늘어날 것이다”며 “내년 상반기 중 HBM3E 12단 제품 공급량이 8단 제품을 넘어 설 것이다”고 관측했다.

특히, 6세대 HBM인 HBM4 개발도 더 서두르고 있다. SK하이닉스는 어드밴스드 MR-MUF(매스리플로우-몰디드언더필) 기술을 적용해 내년 하반기부터 HBM4 12단 제품을 양산한다는 목표다. 이는 SK의 ‘HBM 1등 굳히기’를 더욱 강화하는 핵심 역량이 될 전망이다.

최태원 SK그룹 회장(오른쪽)과 젠슨 황 엔비디아 CEO. <사진=최태원 SK그룹 회장 인스타그램 캡처>

글로벌 HBM 시장에서 명예 회복을 노리고 있는 삼성전자도 엔비디아 최신 AI 칩 양산 소식으로 수혜가 예상된다.

그간 엔비디아를 고객사로 사로잡지 못했던 삼성전자가 최근 5세대 HBM인 ‘HBM3E’에 대한 엔비디아의 품질 테스트를 통과한 것으로 전해지면서 엔비디아에 AI 메모리를 납품할 수 있는 길이 열렸기 때문이다. 로이터 통신은 최근 복수 소식통을 인용해 “삼성전자가 엔비디아에 HBM3E 8단 제품을 납품하기 위한 품질 테스트를 통과했다”고 보도했다. 

이에 삼성전자는 “고객사와 테스트 중이다”며 신중한 입장을 내비치고 있다. 그러나 업계 안팎에선 삼성이 올 4분기부터 HBM3E를 엔비디아에 공급할 것이라며 긍정적인 분석을 내놓는다.

특히 시장에서는 삼성의 HBM3E 12단 제품에 관심이 높다. 삼성전자는 올 4월 24Gb D램 칩을 TSV(실리콘관통전극) 기술로 12단까지 적층해 업계 최대 용량인 36GB HBM3E 12H를 구현했다.

삼성의 HBM3E 12H는 AI 서비스 고도화로 데이터 처리량이 급증하는 최근 추세 속에서 최고의 솔루션이 될 것으로 기대를 모으고 있다. 해당 제품을 활용할 경우 GPU 사용량이 줄어 총 소유 비용(TCO)을 절감할 수 있다는 게 삼성전자의 설명이다.

서버 시스템에 HBM3E 12H를 적용하면 HBM3 8H를 탑재할 때보다 AI 학습 훈련 속도를 평균 34% 개선할 수 있다. 추론의 경우에는 최대 11.5배 많은 AI 사용자 서비스가 가능하다.

3월 18일 미국 새너제이에서 열린 연례 개발자 콘퍼런스 ‘GTC 2024’에 마련된 삼성전자 부스에 전시된 HBM3E에 남겨진 젠슨 황 엔비디아 CEO 친필 사인. <사진=연합뉴스>

HBM3E 12단 제품을 엔비디아에 납품하게 된다면 삼성전자는 HBM 패권 다툼에서 경쟁 우위를 점할 수 있다. HBM3E 12단 제품은 아직 엔비디아에 공급된 사례가 없다. 삼성은 HBM3E 12H의 품질 테스트를 올 4분기 내 완료하는 것을 목표로 삼은 것으로 알려졌다.

삼성은 업계 최초로 개발한 HBM3E 12단 제품을 고객사 일정에 맞춰 올 하반기에 본격 공급한다는 구상이다.

김재준 삼성전자 메모리사업부 전략마케팅실장 부사장은 2분기 실적 콘퍼런스콜에서 “올 상반기 HBM3 내 12단 판매 비중이 3분의 2 수준을 기록한 만큼 HBM3E에서도 성숙 수준의 패키징을 구현했다”며 “이를 기반으로 HBM 사업 내 HBM3E의 매출 비중은 3분기에 10% 중반을 넘어설 것으로 예상되고, 4분기에는 60% 수준까지 빠르게 확대될 것이다”고 내다 봤다.

[CEO스코어데일리 / 오창영 기자 / dongl@ceoscore.co.kr]

댓글

[ 300자 이내 / 현재: 0자 ]

현재 총 0개의 댓글이 있습니다.