Notice
Recent Posts
Recent Comments
Link
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
Archives
Today
Total
관리 메뉴

Asia-Pacific Region Intelligence Center

삼성, 주총서 깜짝 공개한 '비밀병기'…1조 잭팟 터졌다 본문

Guide Ear&Bird's Eye6/산업의 쌀 반도체(5G. 인공지능, 자율주행. 태양광 재생에너지 등 )

삼성, 주총서 깜짝 공개한 '비밀병기'…1조 잭팟 터졌다

CIA bear 허관(許灌) 2024. 3. 24. 23:43

삼성전자가 자체 개발 중인 인공지능(AI) 가속기(AI 학습·추론에 특화한 반도체 패키지) ‘마하 1’ 20만 개를 연말께 네이버에 납품한다. 마하 1은 경계현 삼성전자 디바이스솔루션(DS)부문장(사장)이 지난 20일 주주총회에서 깜짝 공개한 제품으로, 네이버 납품액은 1조원 규모다.

네이버는 마하 1을 AI 추론(AI 모델을 서비스에 활용하는 것)용 서버에 투입해 엔비디아의 AI 가속기를 대체할 계획이다. 삼성전자는 네이버 납품을 발판 삼아 마이크로소프트(MS), 메타 등 빅테크 공략에 나섰다.
21일 반도체업계에 따르면 삼성전자 시스템LSI사업부는 연말 네이버에 마하 1을 납품하기로 하고, 가격과 수량을 조율하는 것으로 알려졌다.

마하 1은 그래픽처리장치(GPU), 고대역폭메모리(HBM)로 구성된 엔비디아의 AI 가속기와 달리 삼성전자가 자체 개발한 프로세서와 저전력(LP) D램을 한데 묶는 방식으로 설계됐다. 엔비디아 제품보다 데이터 막힘 현상이 적고, 전력 효율은 높은 게 강점이다. 가격도 엔비디아 제품의 10분의 1 수준인 500만원 안팎에서 정할 것으로 알려졌다. 네이버가 원하는 수량이 15만~20만 개인 만큼 삼성전자의 납품액은 최대 1조원에 달할 전망이다. 삼성전자는 최근 MS, 메타 등을 대상으로 마하 1 영업과 마케팅을 시작했다.

62%. 엔비디아의 2024회계연도 4분기(2023년 11월~2024년 1월) 영업이익률이다. 100원짜리 물건을 팔아 62원을 지갑에 챙기는 ‘엔비디아 매직’은 독점에서 나온다.
마이크로소프트(MS), 구글, 아마존, 메타, 오픈AI, 테슬라 등 먹이사슬 최정점에 있는 기업들도 엔비디아 앞에선 꼼짝 못 한다. 인공지능(AI) 가속기(AI 학습·추론에 필수적인 반도체 패키지)에 붙은 4만~5만달러 가격표에 ‘폭리’라고 수군거리며 조용히 ‘엔비디아 대체’를 준비할 뿐이다.

삼성전자가 이 틈을 파고들었다. 가성비(가격 대비 성능)가 높은 AI 가속기 ‘마하1’을 개발해 네이버 등에 납품하기로 했다. MS 등 빅테크 대상 세일즈에도 들어갔다.

21일 업계에 따르면 삼성전자는 자체 개발한 마하1을 연말께 네이버에 AI 서버용으로 납품할 방침이다. 물량은 15만~20만 개로 금액으로 치면 1조원 수준이다. 네이버는 대화형 챗봇과 AI로 식당 추천 서비스 등을 효과적으로 구현하는 과정에 마하1을 활용할 계획이다. 삼성전자의 추가 납품 가능성도 열려 있다.
AI 개발 과정은 대규모 데이터를 습득해 모델을 구축하는 ‘학습’과 모델을 서비스에 적용하는 ‘추론’으로 나뉜다. 대다수 빅테크는 그래픽처리장치(GPU)에 고대역폭메모리(HBM)를 붙인 엔비디아의 AI 가속기를 학습, 추론 구분 없이 활용하고 있다. 대안이 없기 때문이다. 지난해 엔비디아 서버 매출의 40%(188억달러, 약 25조원)가 추론 분야에서 나왔다.

최근 추론 영역에는 GPU 기반이 아니라 맞춤형 AI 가속기가 더 어울린다는 목소리가 커지고 있다. 학습에는 병렬 연산(데이터를 동시에 처리)에 특화한 GPU 기반 AI 가속기가 적합하지만 차별화된 AI 서비스를 하는 데 필요한 추론에는 비싼 데다 전력도 많이 쓰는 엔비디아 제품을 굳이 넣을 필요가 없다는 이유에서다. 최근 MS, 아마존, 메타 등이 신경망처리장치(NPU) 등을 활용한 추론용 AI 가속기 개발에 나선 이유가 여기에 있다.

‘삼성·네이버 동맹’은 AI 가속기 시장을 뚫어야 하는 삼성과 엔비디아 의존도를 낮추려는 네이버의 이해관계가 맞아떨어진 결과다. 네이버는 지난해 10월 지도를 기반으로 식당 등을 추천하는 ‘네이버 플레이스’ 서비스용 추론 서버를 엔비디아 GPU 기반에서 인텔 중앙처리장치(CPU) 기반으로 전환하기도 했다.
삼성과 네이버는 공동 개발을 통해 AI 가속기의 맞춤형 기능을 강화하는 동시에 가격을 엔비디아 제품의 10분의 1 수준으로 낮추는 데 성공했다. 경계현 삼성전자 디바이스솔루션(DS)부문장(사장)은 지난 20일 주주총회에서 “마하1은 데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높인 제품”이라고 설명했다.

삼성전자는 MS, 아마존 등 빅테크를 대상으로 영업을 시작했다. 이 기업들이 AI 가속기 자체 개발에 나섰지만 성능과 비용 면에서 마하1을 함께 쓰는 게 유리할 수 있어서다. 몇몇 빅테크가 큰 관심을 보인 것으로 알려졌다.
특화된 AI 서비스 수요가 늘어나는 데 따라 추론용 AI 가속기 시장은 계속 커질 전망이다. 시장조사업체 옴디아에 따르면 지난해 60억달러이던 추론용 AI 가속기 시장 규모는 2030년 1430억달러로 확대된다. 2025년 기준 AI 가속기 중 추론용 비중이 78%로 학습용(22%)의 세 배가 될 것이란 조사 결과도 있다.
삼성전자는 AI 가속기 칩 개발 역량을 꾸준히 확보할 방침이다. 칩 개발을 담당하는 시스템LSI사업부를 지원하는 ‘범용인공지능(AGI) 컴퓨팅 랩’ 같은 별동대를 조직한 게 대표적이다. 경 사장은 최근 SNS에 “강력한 성능과 더 큰 모델을 소수의 전력과 비용으로 지원하는 AGI 칩의 새로운 버전을 지속적으로 출시할 계획”이라고 밝혔다.

삼성, 주총서 깜짝 공개한 비밀병기…1조 잭팟 터졌다 | 한국경제 (hankyung.com)

 

삼성, 주총서 깜짝 공개한 '비밀병기'…1조 잭팟 터졌다

삼성, 주총서 깜짝 공개한 '비밀병기'…1조 잭팟 터졌다, 삼성, 네이버에 AI 가속기 1조원 공급 추론 서버 엔비디아 제품 대체 MS·메타 등 빅테크 영업 시작 "5만弗 AI 가속기는 비싸" 삼성전자 '마

www.hankyung.com

-'마하1'은 AI 추론에 특화된 반도체다. 컴퓨터 CPU(중앙처리장치) 같은 칩의 성능을 강화해 AI 추론이 일부 가능하게 해주는 역할을 할 수 있다. '마하-1'은 특히 메모리와 GPU와의 병목 현상을 해소할 수 있는 구조로, 고대역폭메모리(HBM) 대신 저전력 메모리를 활용해도 대규모언어모델(LLM) 추론이 가능할 것으로 보인다.

 

경계현 삼성전자 사장 "내년 초 AI 가속기 '마하1' 출시"

경계현 삼성전자 사장(사진=삼성전자)

 

삼성전자가 LLM(Large Language Models, 거대언어모델)을 지원하는 첫번째 AI 반도체 '마하1(MACH-1)를 연내에 만들어서 내년 초에 AI 가속기로 출시할 계획이다.

경계현 삼성전자 DS부문(반도체) 대표이사 사장은 20일 경기 수원시 수원컨벤션센터에서 열린 정기주주총회 이후 진행된 '주주와의 대화'에서 AI 반도체 '마하1'을 처음으로 언급했다.

경 사장은 "AI 반도체 마하1은 FPGA를 통해서 기술 검증을 완료했고, 현재 시스템칩(SoC) 디자인을 진행 중에 있다"라며 "올해 연말 정도면 마하1 칩을 만들어서 내년 초에 저희 칩으로 구성된 시스템(AI 가속기)을 보실 수 있을 것이다"고 말했다.

범용인공지능(AGI)은 인간 지능에 가깝거나 이를 능가하는 수준의 스스로 학습하는 기술이다. 최근 삼성전자는 범용인공지능(AGI) 반도체를 개발하기 위해 미국과 한국에 AGI 컴퓨팅랩을 설립했다. AGI 컴퓨팅랩은 마하1 칩 개발을 담당하며, 구글 텐서처리장치(TPU) 개발자 출신 우동혁 박사가 AGI 컴퓨팅랩을 이끈다. 

경 사장은 "현존하는 AI 시스템은 메모리 병목으로 인해 성능 저하와 전력 문제를 안고 있다"라며 "AGI 컴퓨팅랩은 이 문제를 해결하기 위해 AI 아키텍처의 근본적인 혁신을 추진하고 있다"고 말했다.

이어서 그는 "마하1은 여러 가지 알고리즘을 써서 메모리와 GPU 사이에 데이터 병목현상을 8분의 1 정도로 줄이고 전력 효율을 8배 높이는 것을 목표로 현재 개발 중"라며 "고대역폭메모리(HBM) 대신에 저전력(Low Power) D램을 써서도 LLM의 추론이 가능하도록 준비를 하고 있다"고 설명했다. 

즉, 통상적으로 HBM을 붙여서 사용하는 AI 가속기와 달리 삼성전자는 LP D램으로 대체하겠다는 얘기다. 

앞서 경 사장은 하루전(19일) 자신의 SNS(사회관계망서비스) 링크드인에서도 AGI 반도체 개발을 언급한 바 있다. 

그는 "AGI 컴퓨팅랩은 추론과 서비스 애플리케이션에 초점을 두고 LLM용 칩을 개발하는 데 중점을 둘 것"이라며 "앞으로 더 강력한 성능과 점점 더 큰 모델을 소수의 전력과 비용으로 지원하는 AGI 칩의 새로운 버전을 지속적으로 출시할 계획"이라고 밝혔다.

경계현 삼성전자 사장 "내년 초 AI 가속기 '마하1' 출시" - ZDNet korea

 

경계현 삼성전자 사장 "내년 초 AI 가속기 '마하1' 출시"

삼성전자가 LLM(Large Language Models, 거대언어모델)을 지원하는 첫번째 AI 반도체 '마하1(MACH-1)를 연내에 만들어서 내년 초에 AI 가속기로 출시할 계획이다.경계현 삼성전자 DS부문(반도체) 대표이사

zdnet.co.kr