현재 위치 :뉴스

    [반도체 위클리] HBM 매출 비중 ‘쑥’…엔비디아, 차세대 AI 칩 ‘B100’ 공개

    출처:bada    편집 :编辑部    발표:2024/03/20 09:21:00

    SK하이닉스, 이달 말부터 AI용 메모리 신제품 HBM3E 제품 공급

    엔비디아 ‘B100’ 연산 처리 속도…기존 H100보다 2.5배 향상

    [출처=픽사베이]

    [출처=픽사베이]


    “HBM 매출 비중 20% 증가 전망”

    시장조사업체 트렌드포스는 글로벌 메모리 D램 매출에서 고대역폭 메모리(HBM)가 차지하는 비중이 올해 20%까지 증가할 것으로 내다봤다. 2022년 800억달러, 2023년 518억달러였던 D램 업계 매출이 2024년 말 기준 842억달러로 증가할 것으로 추산했다. 해당 기간 HBM 매출이 전체 D램 매출에서 차지하는 비중은 2.6%, 8.4%에서 20.1%로 상승할 것으로 예상했다.


    SK하이닉스, 엔비디아에 HBM3E 납품

    SK하이닉스가 엔비디아에 고대역폭 메모리(HBM) 5세대인 HBM3E D램을 우선 납품한다. HBM은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치·고성능 제품이다. HBM3E는 HBM3의 확장 버전이다. SK하이닉스는 초고성능 인공지능(AI)용 메모리 신제품인 HBM3E를 세계 최초로 양산해 이달 말부터 제품 공급을 시작한다. 이는 지난해 8월 HBM3E 개발을 알린 지 7개월 만이다.


    美 엔비디아, 차세대 AI 칩 ‘B100’ 공개

    AI 반도체 선두 주자 미국의 엔비디아가 18일(현지시각) 차세대 AI 칩을 공개했다. 반도체 업계와 연합뉴스 등에 따르면 엔비디아는 이날 미국 캘리포니아주 새너제이 SAP 센터에서 개발자 콘퍼런스 ‘GTC 2024’를 열고 새로운 그래픽처리장치(GPU) ‘블랙웰’을 기반으로 한 차세대 AI 칩 ‘B100’을 공개했다.


    블랙웰은 2년 전 발표된 엔비디아 호퍼(Hopper) 아키텍처(프로세서 작동방식)의 후속 기술이다. ‘B100’은 현존하는 최신 AI 칩으로 평가받는 엔비디아 H100의 성능을 뛰어넘는 차세대 AI 칩이다. ‘B100’의 연산 처리 속도는 기존 H100보다 2.5배 향상됐다. H100을 사용할 경우 GPT 훈련에는 90일 동안 8000개의 GPU가 필요하다. 하지만 엔비디아 설명에 따르면 블랙웰 GPU의 경우 같은 기간 단 2000개의 GPU만 사용하면 된다.


    한편 엔비디아는 B100의 가격을 공개하지는 않았다. 다만 업계에서는 H100이 개당 최대 4만 달러인 점을 고려할 때 B100은 5만 달러 수준이 될 것으로 예상하고 있다.


    필라델피아반도체지수, 보합 마감…엔비디아 0.7% ↑

    엔비디아의 강세에도 필라델피아 반도체 지수가 보합으로 장을 마감했다. 18일(현지시각) 뉴욕증시에서 필라델피아 반도체 지수는 전장 대비 0.10포인트(0.00%) 하락한 4757.60을 기록하며 마감했다. 반면 이날 엔비디아는 0.7% 상승했다. 엔비디아의 연례 개발자 콘퍼런스에서 새로운 반도체 제품 발표에 대한 기대감이 영향을 미쳤다.