본문 바로가기
돈의 흐름/인공지능(AI)+로봇

[반도체 #1, AI #9] 고대역폭 메모리 HBM을 알아보자

by Rance_랭스 2024. 5. 8.
728x90
728x90




오늘은 SK하이닉스와 삼성전자에서 만들고 있는 HBM에 대해서 알아보도록 하겠습니다.


- HBM(고대역폭 메모리)은 주기억장치인 D램의 일종이며,
D램 여러 개를 수직으로 쌓아 한정된 크기 안에서 기존 D램 대비 용량을 높인 기술입니다.

 


그리고

HBM은 1세대(HBM) -> 2세대(HBM2) -> 3세대(HBM2E) -> 4세대(HBM3) -> 5세대(HBM3E) 순으로 개발되어 나왔습니다

 

현재 나온 5세대 HBM(HBM3E)는 8단 제품으로 D램 16개 이상과 맞먹는 성능이라고 합니다.

그리고

SK하이닉스는 이미  12단 제품 개발이 끝났고, 

2026년에는 5세대 HBM보다 2배 성능이 좋아진 제품이 나올 거라고 합니다.



단점은 일반 제품 대비 최대 5배 이상 비싸고, 수요도 제한적입니다.

그 이유는

HBM의 사용처는 엔비디아, 인텔의 그래픽처리장치(GPU) 등 일부에 그치고 있어서입니다.



그리고

삼성전자는 급성장하는 HBM 시장에서 SK하이닉스에 한발 뒤처쳐 있었고,

이 부분을 SK하이닉스와 차별화되는 공법으로 차세대 HBM 개발을 성공하였습니다. 

삼성전자는 12단 HBM을 올해(24년) 2분기 내놓을 예정입니다.

(SK하이닉스도 12단 HBM은 벌써 만들었다고 하네요 @.@)



또한,

삼성전자는 차세대 HBM을 AI 가속기 시장의 0.5%의 점유율을 하고 있는 인텔에게 당분간 납품할 것으로 알려졌습니다.



그리고

삼성전자는 네이버와 HBM이 필요 없는 새로운 방식의 AI 가속기 '마하1'을 공동 개발하고 있어서 삼성과 SK하이닉스의 HBM 시장 경제 경쟁은 당분간 이어지지 않을까 보입니다~!!

 

 

 

 


또한,

HBM 시장과 우리나라의 희소식은 삼성전자와 SK하이닉스가 HBM 시장의 90% 이상을 납품하고 있으며,

이 제조 기술은 확보가 어려워 진입 장벽이 높다고 합니다.

그래서 수요도 당분간 계속 늘어날 가능성이 크다고 하네요.



삼성전자 주주분들 기다리면 10만 전자 갈 것이라고 보이지 않나요?ㅎㅎ

하지만

이 생각은 저의 개인적인 생각이니 흘러들으시길 바랍니다 @.@

.

.



그리고

대량의 데이터를 지연 없이 처리할 수 있을지에 대한 고민 끝에 나온 것이 HBM(고대역폭 메모리)이고,

현재는 AI(인공지능) 위주로 사용을 하고 있지만...

자율주행, 스마트 서비스, 사물인터넷 등등 사용처가 넓어진다면... 

우리의 일상생활도 조금 더 편해질 테고...

HBM의 공급과 수요가 더 늘어나면 삼성전자와 SK하이닉스 기업과 우리나라에도 경제적으로 좋은 일이 되지 않을까 보입니다.




# 24.05.08


728x90
반응형

댓글