Asia-Pacific Region Intelligence Center
엔비디아 "블랙웰 GPU 수율 개선 위해 마스크 변경" 본문
엔비디아 "블랙웰 GPU 수율 개선 위해 마스크 변경"
CIA bear 허관(許灌) 2024. 9. 1. 14:59
엔비디아가 28일(현지시간) 2분기(5-7월, 회계연도 기준 2025년 2분기) 실적발표를 통해 올 연말 출시할 AI 가속용 GPU '블랙웰'(Blackwell) 생산 절차 중 일부를 개선했다고 밝혔다.
블랙웰은 엔비디아가 'GTC 2024'에서 공개한 차세대 AI 가속용 GPU로 오는 4분기부터 공급 예정이다. 대만 TSMC의 4나노급 공정(N4P)으로 만든 반도체 다이(Die) 두 개를 연결해 만든 칩이며 2천80억 개의 트랜지스터를 집적했다.
이달 초 미국 디인포메이션과 대만 공상시보는 소식통을 인용해 "블랙웰 출시 시기가 생산 과정 중 발견된 문제로 내년 1분기로 지연됐다"고 보도했다. 그러나 엔비디아는 "블랙웰 시제품이 여전히 공급되고 있으며 생산에 문제가 없다"는 입장을 고수했다.
이날 콜렛 크레스 엔비디아 CFO(최고재무책임자)는 "블랙웰 GPU 생산 수율 개선을 위해 마스크(Mask)를 변경했다"고 밝혔다.
마스크는 반도체 생산 공정에서 실리콘에 회로 패턴을 새기기 위해 쓰이는 유리판이며 한 번 만들어지면 수정이 불가능하다. 엔비디아가 '이미 설계를 마친(테이프아웃) 블랙웰 GPU에서 모종의 문제점을 발견해 이를 개선해야 했다'고 우회적으로 시인한 것이다.
엔비디아는 이날 블랙웰 GPU로 수행한 ML퍼프(MLPerf) 테스트 결과도 제출했다고 밝혔다.
ML퍼프는 전세계 AI 관련 반도체·소프트웨어 기업과 학계 등이 참여하는 컨소시엄 'ML커먼스'(MLCommons)가 주관하는 머신러닝 성능 측정 지표다. 엔비디아 뿐만 아니라 인텔 등 주요 제조사가 CPU와 GPU 성능 측정 결과를 제출한다.
엔비디아는 "블랙웰 GPU는 ML퍼프의 '추론 v4.1'(Inference v4.1) 테스트에 포함된 메타 라마2 700억개 매개변수 벤치마크에서 H100 대비 4배 이상의 성능을 냈다"고 밝혔다.
엔비디아는 지난 해 11월 공개한 호퍼 기반 AI 가속기인 H200이 예정대로 출시돼 미국 클라우드 컴퓨팅 스타트업 코어위브(CoreWeave)에 공급됐다고 밝혔다.
엔비디아 "블랙웰 GPU 수율 개선 위해 마스크 변경" - ZDNet korea
엔비디아, 차세대 AI 칩 '루빈'에 HBM4 탑재
인공지능(AI) 반도체 칩 시장을 주도하는 엔비디아가 차세대 제품에 6세대 고대역폭메모리(HBM) 'HBM4' 탑재를 공식화했다. AI 반도체 칩 출시 주기도 기존 2년에서 1년 단위로 앞당기면서 HBM 개발 속도 경쟁에 불을 붙일 전망이다.
젠슨 황 엔비디아 최고경영자(CEO)는 2일 대만 타이베이에서 열린 '컴퓨텍스 2024'에서 내년에 선보일 차세대 AI 반도체 칩(플랫폼) '루빈(Rubin)' 세부 사양을 일부 공개했다. 루빈은 올해 선보인 '블랙웰'의 차기 버전이다.
구체적으로 루빈은 그래픽처리장치(GPU)에 HBM4를 적용해 AI 반도체 칩을 구현할 예정이다. 엔비디아가 차세대 반도체 칩의 HBM4 탑재 여부를 공개한 건 이번이 처음이다. 현재 SK하이닉스·삼성전자·마이크론이 개발 완료한 HBM은 5세대인 'HBM3E'다. HBM4는 메모리 기업이 현재 개발 중인 차세대 제품으로, 내년 개발이 완료될 전망이다.
기본 제품인 루빈에는 HBM4가 8개 탑재되지만 고성능 버전인 루빈 울트라에는 HBM4가 12개 적용된다. 엔비디아가 자사 AI 반도체 칩에 HBM을 12개 쓰는 것도 최초다. HBM 수요 확대가 예상되는 대목이다. HBM4의 단수는 공개되지 않았다.
엔비디아가 AI 반도체 칩 출시 주기를 앞당긴 것도 주목된다. 엔비디아는 2020년 암페어 구조의 A100 등 A시리즈를, 2022년 호퍼 구조의 H100 등 H시리즈, 그리고 올해 블랙웰을 선보였다. 내년에 로빈을 출시한다는 것은 기존 2년 단위 출시 기간을 1년으로 단축했다. 블랙웰이 지난 3월 공개, 올 하반기 양산 예정인 것으로 고려하면 루빈 역시 내년 말 제품을 공급할 것으로 추정된다.
이같은 주기는 최근 HBM 개발 주기와도 맥을 같이한다. 엔비디아에 HBM을 공급 중인 SK하이닉스는 최근 HBM4를 2025년에 개발 완료할 것이라고 밝힌 바 있다. 기존 로드맵에서 1년 정도 앞당긴 것이다.
김귀욱 SK하이닉스 HBM 첨단 기술팀장은 지난달 열린 '국제메모리워크숍(IMW 2024)'에서 “HBM 1세대가 개발된 후 2년 단위로 세대를 거듭해 발전했지만, HBM3E부터는 1년 단위로 세대가 변하고 있다”고 말했다. 즉 올해 HBM3E를, 내년에 HBM4를 개발하고 2026년 7세대인 HBM4E를 개발한다는 의미로, 핵심 고객사인 엔비디아 요청으로 개발 일정이 앞당겨진 것으로 풀이된다.
AI 반도체 칩 시장 주도권을 쥔 엔비디아가 개발 주기를 앞당긴 만큼 향후 차세대 HBM 개발 경쟁이 한층 치열해질 전망이다. HBM 시장 대표 제조사인 SK하이닉스·삼성전자·마이크론 모두 HBM4E까지 비슷한 개발 로드맵을 설정해놓은 상태인 만큼, 선제적인 대응이 향후 시장 선점을 좌우할 승부수가 될 것으로 관측된다.
엔비디아는 또 내년에 차세대 중앙처리장치(CPU)인 '베라(Vera)'도 출시할 예정이다. 엔비디아가 자체 CPU를 내놓는 건 그레이스 이후 3년 만이다.
엔비디아, 차세대 AI 칩 '루빈'에 HBM4 탑재 - 전자신문 (etnews.com)
'Guide Ear&Bird's Eye6 > 산업의 쌀 반도체(5G. 인공지능, 자율주행. 태양광 재생에너지 등 )' 카테고리의 다른 글
미국과 영국, 유럽연합(EU) 등이 인공지능(AI) 기술 사용에 관한 첫 국제 협약에 서명 (0) | 2024.09.06 |
---|---|
"엔비디아, 블랙웰에 힘입어 시총 10조달러 이를 것" (0) | 2024.09.02 |
삼성전자, 퀄컴 차량용 솔루션에 ‘LPDDR4X’ 공급 (0) | 2024.08.31 |
SK하이닉스, 세계 최초 10나노 6세대 D램 ‘1c DDR5’ 개발 (0) | 2024.08.31 |
삼성전자, 업계 최소 두께 LPDDR5X D램 양산 (0) | 2024.08.19 |