‘모바일 강자’ 퀄컴, AI 칩 만든다…‘저전력 D램 탑재’, 삼성·SK 또 ‘호재’ 터졌다

시간 입력 2025-10-28 16:46:28 시간 수정 2025-10-28 16:46:28
  • 페이스북
  • 트위치
  • 링크복사

‘모바일 AP 선두’ 퀄컴, AI 가속기 출시…추론용 AI 칩 시장 공략
HBM 대신 LPDDR 탑재키로…‘저전력 D램 투톱’ 삼성·SK 호재

미국 퀄컴 본사. <사진=퀄컴>

글로벌 AI(인공지능) 열풍에 힘입어 주요 빅테크 간 AI 칩 개발 경쟁이 날로 거세지고 있다. AI 반도체 공룡인 엔비디아가 독주하고 있는 상황에서, AMD를 비롯한 다수의 반도체 기업들은 엔비디아 따라잡기에 사활을 건 상태다. 이같은 와중에 모바일 AP(애플리케이션프로세서)의 절대강자로 통하는 퀄컴이 AI 반도체 경쟁에 가세한다고 도전장을 내밀면서, 전 세계 반도체 시장에 지각변동이 예고되고 있다.

AI 칩 패권을 차지하기 위한 빅테크 간 대결이 격화하면서 AI 메모리 수요도 급증할 것이란 장밋빛 전망이 나온다. 특히 퀄컴의 AI 반도체에는 HBM(고대역폭메모리)이 아닌 저전력 D램 ‘LPDDR’이 탑재될 것으로 보여, 이 부문에서 독보적인 우위를 점하고 있는 삼성전자와 SK하이닉스가 큰 수혜를 입을 전망이다.

퀄컴은 27일(현지시간) 보도자료를 내고, 엔비디아의 AI 반도체와 경쟁할 새로운 AI 가속기 칩을 출시할 예정이라고 밝혔다.

이와 함께 구체적인 출시 일정도 공개했다. 퀄컴은 내년에 데이터센터용 AI 반도체 ‘AI200’을 출시하고, 2027년에 한층 업그레이드된 ‘AI250’을 선보인다는 계획이다.

AI200과 AI250은 퀄컴이 축적해 온 모바일·엣지 칩 설계 기술을 데이터센터 수준으로 확장한 AI 칩이다. 두 제품 모두 기존 GPU(그래픽처리장치) 대비 전력 효율을 대폭 개선했고, 특히 카드당 768GB의 대용량 LPDDR을 탑재했다. 이는 고가의 HBM 대신 효율적인 구조를 적용해 동일한 비용으로 더 큰 모델을 처리할 수 있게 한다.

퀄컴은 자사의 AI 칩이 전력 소비나 소유 비용, 메모리 처리 방식 등에서 경쟁사의 AI 가속기보다 장점이 크다고 강조했다. 특히 새로운 대규모 AI 모델 개발을 위한 학습용 보다 AI 모델의 실행을 돕는 추론용 AI 칩 시장에서 두각을 드러낼 것으로 내다 봤다.

두르가 말라디 퀄컴 수석부사장은 “퀄컴의 풍부한 소프트웨어 세트와 개방형 생태계 지원은 개발자와 기업이 우리의 최적화된 AI 추론 솔루션에서 훈련된 AI 모델을 통합하고 관리하며 확장하는 것을 그 어느 때보다 쉽게 만들 것이다”고 강조했다.

퀄컴 스냅드래곤 8 엘리트. <사진=퀄컴>

이번에 퀄컴이 AI 반도체 개발을 공식화하면서 향후 엔비디아와 AMD 등이 과점해 온 글로벌 AI 시장의 판도가 바뀌는 것 아니냐는 목소리가 높아지고 있다.

퀄컴은 무선 통신 및 모바일 기기용 칩 시장에서 경쟁 우위를 점하고 있는 반도체 업체다. 특히 ‘스냅드래곤’으로 불리는 모바일 AP를 앞세워 글로벌 시장에서 유명세를 떨치고 있다.

시장조사업체 카운터포인트리서치에 따르면 올해 2분기 퀄컴의 전 세계 모바일 AP 시장 점유율은 26%로, 대만 미디어텍(37%)에 이어 2위를 차지했다. 이는 아이폰용 모바일 칩을 만드는 애플(14%)이나 ‘엑시노스’를 전면에 내세운 삼성전자(6%)보다 월등히 높은 수치다.

업계에서는 이미 모바일 AP 등 칩 제조 부문에서 경쟁력을 갖추고 있는 퀄컴이 조만간 첨단 AI 칩을 출시한다면 엔비디아, AMD 등과의 경쟁에서도 뒤처지지 않을 것이라는 평가를 내놓고 있다.

현재 전 세계 AI 반도체 시장에서는 엔비디아가 독보적인 입지를 구축한 상태다. 이어 AMD는 챗GPT 개발사인 오픈AI의 지원을 받으며 엔비디아의 뒤를 맹추격하고 있다. 또 구글, 아마존, 마이크로소프트(MS) 등 빅테크도 자체 AI 가속기 개발에 박차를 가하고 있다.

이같은 상황에서 주요 AI 칩 업체들에게 큰 위협이 될 수 있는 퀄컴이 데이터센터용 AI 반도체 시장에 진출하겠다고 천명하면서 글로벌 패권을 둘러싼 빅테크 간 경쟁이 한층 가열될 것으로 점쳐진다.

삼성전자 12나노급 LPDDR5X D램. <사진=삼성전자>

퀄컴의 AI 칩 시장 가세는 삼성·SK 등 K-반도체에도 큰 호재로 작용할 전망이다. AI 반도체를 원활하게 구동하기 위해선 AI 메모리를 필수로 장착해야 하기 때문이다.

특히 퀄컴의 AI 반도체에는 HBM이 아닌 LPDDR이 들어가는 것으로 알려지면서, 전 세계 저전력 D램 시장을 이끌고 있는 K-반도체에 큰 호재가 될 전망이다.

현재 삼성전자와 SK하이닉스는 고성능·저전력 D램 제품을 앞다퉈 출시하며 글로벌 시장 공략에 박차를 가하고 있다.

먼저 삼성전자는 업계 최소 두께 12나노급 LPDDR5X D램 12·16GB 패키지를 양산 중이다. 해당 제품의 두께는 0.65mm로, 현존하는 12GB 이상 LPDDR D램 중 가장 얇다.

삼성은 업계 최소 크기 12나노급 LPDDR D램을 4단으로 쌓고, 패키지 기술과 패키지 회로 기판 및 EMC(반도체 회로 보호재) 기술 등을 최적화해 이전 세대 대비 두께를 약 9% 줄이는 데 성공했다. 특히 패키지 공정 중 하나인 백랩(Back-lap) 공정의 기술력을 극대화해 웨이퍼를 최대한 얇게 만들어 최소 두께 패키지를 구현했다.

이번 제품은 얇아진 두께만큼 추가로 여유 공간을 확보했다. 이에 원활한 공기 흐름이 유도되고, 기기 내부 온도 제어에 도움을 준다. 실제로 열 저항은 약 21.2% 개선된 것으로 나타났다. 이러한 장점에 힘입어 높은 성능을 필요로 하는 온디바이스(On device) AI에 최적화된 LPDDR D램으로 평가 받는다.

온디바이스 AI는 발열로 인해 기기 온도가 일정 구간을 넘기면 성능을 제한하는 온도 제어 기능(Throttling)이 작동된다. 만약 기기에 삼성의 저전력 D램이 탑재될 경우 발열로 인해 해당 기능이 작동하는 시간을 최대한 늦출 수 있다. 이에 AI 추론 성능 저하를 최소화할 수 있을 것으로 기대를 모은다.

SK하이닉스 LPDDR5T. <사진=SK하이닉스>

SK하이닉스는 올 상반기 1c(10나노급 6세대) 공정 기반의 ‘LPDDR5X’ 개발에 성공했다. LPDDR5X는 7세대 LPDDR이다.

이번 1c LPDDR5X 개발로 AI용 저전력 D램 시장에 선제적으로 대응할 수 있을 전망이다. 1c D램은 아직 상용화 궤도에 오르지 않은 차세대 D램으로, SK하이닉스의 경우 올 하반기부터 1c D램의 전환 투자를 시작했다.

SK하이닉스 관계자는 “AI 산업 발전을 위해 1c 24Gb LPDDR5X 제품을 개발했다”며 “LPCAMM 및 SOCAMM 형태로 AI용 서버 및 PC 시장에 대응할 예정”이라고 설명했다.

LPCAMM은 기존 LPDDR 모듈 방식인 So-DIMM(탈부착)과 온보드(직접 탑재)의 장점을 결합한 기술이다. 기존 방식 대비 패키지 면적을 줄이면서도 전력 효율성을 높이고, 탈부착 형식으로 제작 가능하다.

SOCAMM 역시 LPDDR 기반의 차세대 모듈이다. LPCAMM과 마찬가지로 탈부착이 가능하지만, 데이터를 주고받는 I/O(입출력 단자) 수가 694개로, LPCAMM(644개) 대비 더 많다.

특히 SK하이닉스는 AI 서버용 저전력 D램 모듈인 SOCAMM을 중심으로 고객사와 긴밀히 협업하고, 수요가 본격화되는 시점에 공급을 본격 추진키로 했다.

반도체 업계 관계자는 “글로벌 빅테크들이 AI 반도체 개발에 앞다퉈 뛰어들면서 AI 메모리 수요가 폭발적으로 늘고 있다”며 “특히 HBM을 대체할 새 AI 메모리로 저전력 D램이 주목 받고 있다”고 말했다. 그는 이어 “삼성전자와 SK하이닉스는 글로벌 LPDDR 시장을 주도하는 핵심 반도체 업체”라면서 “퀄컴의 신규 AI 칩에 탑재되는 고성능·고용량 LPDDR은 삼성·SK 제품이 될 가능성이 크다”고 덧붙였다.

[CEO스코어데일리 / 오창영 기자 / dongl@ceoscore.co.kr]

댓글

[ 300자 이내 / 현재: 0자 ]

현재 총 0개의 댓글이 있습니다.