눈길 끈 딥시크 기술보고서
르네 하스 Arm 최고경영자(CEO)가 지난 4일 서울 삼성전자 서초사옥에서 이재용 삼성전자 회장, 샘 올트먼 오픈AI CEO, 손정의 소프트뱅크 그룹 회장과 회동한 후 나오고 있다. [뉴시스]
딥시크(DeepSeek)발(發) 메모리 반도체 혁신이 일어날까.
중국 인공지능(AI) 스타트업 딥시크의 등장이 메모리 반도체 혁신으로 이어질지 주목된다. 방대한 데이터를 다량의 고성능 칩으로 학습시키는 ‘훈련’보다 ‘추론’을 더 강조한 AI 모델이 부각되면서다. 이에 따라 연산 효율을 더 높이는 메모리 혁신이 요구되고 있다. 최근 성사된 ‘한·미·일 AI 협력’에 저전력 반도체 설계업체 Arm이 합류한 것도, ‘저전력·저비용·고효율’ AI 칩에 대한 시장 기대감을 반영한다.
반도체 업계는 딥시크가 지난해 12월 공개한 AI 모델 ‘딥시크-V3’의 기술보고서에 주목한다. 이번에 화제가 된 R1은 V3를 기반으로 추론 알고리즘을 강화한 버전이다. 딥시크는 기술보고서에서 고대역폭메모리(HBM) 등을 언급하며 ‘하드웨어 설계 제안’도 했다.
딥시크는 “현재 프로세서는 데이터의 잦은 이동으로 연산 효율성이 떨어진다”면서 “속도를 향상시키기 위해 HBM 근처에 연산 로직을 배치하는 근접 메모리 컴퓨팅(near-memory computing) 등을 제안한다”고 적었다. 효율적 AI 모델로 주목받은 딥시크조차 ‘하드웨어의 한계’를 성능 저하 요인으로 지목하며 개선을 촉구한 것이다.
박재근 한양대 융합전자공학부 석학교수는 “근접 메모리 컴퓨팅(PNM)과 프로세싱 인 메모리(PIM)는 차세대 메모리 기술로 이미 주목받고 있다”며 “칩셋 내 데이터의 이동 거리를 최소화하거나 아예 여러 반도체의 기능을 하나의 칩으로 통합해 연산 효율성을 높이는 방식”이라고 말했다. PNM은 메모리 인근에 연산 장치를 배치하는 구조, PIM은 아예 메모리와 AI 프로세서를 결합한 형태다.
AI 모델의 효율성은 칩셋을 구성하는 여러 장치들이 ‘데이터를 얼마나 빠르게 이동시키느냐’에 달려있다. 중앙처리장치(CPU), 그래픽처리장치(GPU), 디램(DRAM) 간 데이터 이동이 빠를수록 결과값을 산출하기 위한 계산 시간이 단축되고 전력도 덜 소비하게 된다.
특히 AI의 추론 기능이 강조될수록 데이터 처리 속도가 중요하다. AI가 최적의 답을 도출하기 위한 일종의 심사숙고 과정에서 데이터의 이동과 연산이 수없이 반복적으로 이뤄지기 때문이다. CPU, GPU, DRAM 등이 서로 물리적으로 떨어져 있거나 이동 통로(대역폭)가 좁다면 데이터 전송 과정에서 지연이 발생하고 병목 현상이 나타날 수 있다.
딥시크가 해결책으로 ‘통합형 반도체’에 주목하면서 저전력·저비용·고효율 성능을 고루 갖춘 차세대 메모리에 대한 개발 경쟁도 가속화될 조짐이다. 세계 메모리 1, 2위 업체인 삼성전자와 SK하이닉스도 이 경쟁에 뛰어들어야 하는 셈이다.
기술적 과제는 남아있다. 박재근 교수는 “삼성전자와 SK하이닉스 모두 PIM을 개발하고 있지만 발열 문제를 해결하지 못해 아직 상용화 단계에 이르진 못했다”며 “과도기 단계에서 데이터 이동 효율을 높이는 방식은 패키징(조립) 기술을 통해 일부 구현되고 있다”고 말했다. 대표적으로 CPU, GPU, HBM 등 서로 다른 종류의 칩을 단일 기판에 조밀하게 집적해 데이터 전송 속도를 높인 TSMC의 첨단 패키징 기술(CoWoS)이 꼽힌다.
이종환 상명대 반도체시스템공학과 교수는 “딥시크가 완전히 새로운 개념을 제안한 건 아니지만, 앞으로 AI 반도체의 발전 방향과 맞닿아 있다”면서 “메모리와 비메모리의 경계를 허문 반도체 수요가 증가할 것이므로 국내 기업들도 발 빠르게 상용화까지 마쳐 시장을 선점해야 한다”고 말했다.
이가람 기자 lee.garam1@joongang.co.kr