Tech

DGX Spark BOM Cost 분석 — 4,699달러 AI 슈퍼컴퓨터 원가는 얼마나 될까? AI Station 에 주목할 만한 이유와 HBF의 의미

Futureseed 2026. 5. 15. 01:48

NVIDIA DGX Spark의 BOM Cost를  분석해봤습니다.

 

최근 업무상 AI 슈퍼컴퓨터를 참고할 일이 많은데요, 공개된 자료를 바탕으로 DGX Spark은 어떤 부품으로 구성되어 있고 원가는 얼마정도 될 지 분석해봤습니다.

 

당연히 NVIDIA가 공식 BOM을 공개한 것은 아니며, 공식 스펙, 공개 teardown 자료, 그리고 시장 가격 가정을 바탕으로 DGX Spark 같은 AI Station의 BOM Cost를 간단히 추정해보겠습니다.


1. 이 글은 공식 BOM 분석이 아닙니다

이 글에서 계산하는 BOM은 NVIDIA의 공식 원가 자료가 아닙니다. 공식 스펙에서 확인 가능한 하드웨어 구성, 공개 분해 자료에서 확인된 주요 부품, 그리고 메모리·스토리지 가격 가정을 바탕으로 만든 참고용 Cost 추정치입니다.즉, 실제 NVIDIA의 구매 단가, 공급 계약 조건, 제조비, 유통 마진, 소프트웨어 가치, 브랜드 프리미엄은 반영되어 있지 않습니다.


그럼에도 이런 계산을 해보는 이유는 있습니다. AI Station 같은 제품에서 메모리, 스토리지, SoC가 전체 가격 구조에 어떤 영향을 주는지 감을 잡기 위해서입니다.


2. DGX Spark 공개 스펙 기준 주요 구성

DGX Spark는 공개 자료 기준으로 다음과 같은 구성을 갖습니다.

항목 내용
제품 가격   $4,699 기준
Main SoC   NVIDIA GB10 Grace Blackwell Superchip
Compute   Grace CPU + Blackwell GPU, FP4 기준 최대 1 PFLOP급
System Memory   128GB LPDDR5X coherent unified memory
Memory Bandwidth   273GB/s, 256-bit interface
Storage   4TB NVMe M.2 SSD
Networking    ConnectX-7 200Gbps, 10GbE, Wi-Fi 7, Bluetooth 5.4
Power   240W class

 

위 구성을 참고하면 DGX Spark는 일반 미니 PC라기보다는, 작은 크기의 AI 워크스테이션에 가깝습니다.
특히 128GB LPDDR5X 통합 메모리와 Grace Blackwell 기반 SoC가 제품의 핵심입니다.


3. Teardown 자료에서 확인된 주요 부품

공개 teardown 자료 기준으로는 다음과 같은 부품들이 확인됩니다.

부품 확인 내용
SSD   Samsung PM9E1 4096GB, M.2 2242 form factor
Memory   SK hynix LPDDR5X memory chips
NIC   NVIDIA ConnectX-7 network interface controller
Power / Thermal   48V 5A급 PD 3.1 power supply, vapor chamber, heat pipe, fan, thermal pad
Board-level IC   Realtek 10GbE, Wi-Fi module, PMIC/VRM, EC/TPM, USB-C controller 등

 

여기서 눈에 띄는 부분은 스토리지가 Samsung PM9E1 4TB SSD, 메모리는 SK hynix LPDDR5X 패키지가 사용된 것으로 확인됩니다. 즉, DGX Spark의 하드웨어 구조상 Cost 관점에서 참고할 부분을 크게 보면 아래와 같이 나눌 수 있습니다.

  • GB10 Grace Blackwell Superchip
  • 128GB LPDDR5X 통합 메모리
  • 4TB NVMe SSD
  • ConnectX-7 기반 네트워크
  • 전원, 보드, 방열, 기구물, 조립/검사 비용

4. DGX Spark-like BOM Cost Breakdown 추정

이제 BOM을 항목별로 단순 추정해보겠습니다.

Category Cost Estimate 산정 로직
SoC / Accelerator Package   $900 GB10 Grace Blackwell Superchip + advanced package should-cost proxy
DRAM / Unified Memory   $747 128GB LPDDR5X × $5.83/GB 가정
Storage   $450 4TB NVMe M.2 SSD, Samsung PM9E1 4TB 확인 기반 추정
Others  $860 Networking, Board, PMIC, Power, Enclosure, Assembly/Test 등
Total Estimated BOM   $2,957 위 항목 합산

 

이렇게 보면 가장 큰 비중을 차지하는 것은 DRAM 입니다.

128GB LPDDR5X를 $12/GB로 잡으면 메모리 비용만 $747이며,
이는 전체 추정 BOM $2,957 중 약 25%에 해당합니다.

 

4TB NVMe SSD는 $450로 가정했으며,

전체 BOM에서 차지하는 비중은 약 15% 수준입니다.


5. 판매가 대비 BOM 비중

항목
DGX Spark official price $4,699
Estimated BOM $2,957
Implied gross margin buffer $1,742
Estimated BOM / Selling Price 약 63%
Implied gross margin before OpEx/channel 약 59%

 

단순 계산상 BOM 비중은 약 63%입니다.

 

하지만 실제 제조사는 대량 구매 계약, 장기 공급 계약, 내부 조달 구조, 부품 통합 설계 등을 통해 더 낮은 원가를 확보할 수 있습니다. 반대로 초기 생산 물량이 제한적이거나 고성능 부품 수급이 타이트하면 실제 원가가 더 높아질 가능성도 있습니다.

 

따라서 여기서 중요한 것은 정확한 원가 숫자 하나가 아니라, AI Station에서 어떤 부품이 원가 구조를 지배하는지 보는 것입니다.

위에서 보듯 SoC > DRAM > Storage 순서로 BOM Cost 에서 차지하며,

Memory + Storage 비중이 40%로 매우 높습니다.

항목 Cost 전체 BOM 내 비중
DRAM   $747  약 25.3%
Storage   $450  약 15.2%
Memory + Storage   $1,197  약 40.5%

6. 핵심은 DRAM이다

이번 BOM 추정에서 가장 중요한 포인트는 명확합니다.

AI Station의 원가 구조에서 DRAM이 매우 큰 비중을 차지한다는 점입니다.

 

DGX Spark는 128GB LPDDR5X unified memory를 사용합니다.
AI 모델을 로컬에서 구동하려면 CPU와 GPU가 공유할 수 있는 대용량 메모리가 필요합니다. 이 구조는 성능과 사용성 측면에서 장점이 있지만, 원가 측면에서는 부담이 큽니다.

 

특히 2026년 기준으로 AI 서버 수요가 DRAM과 NAND 가격에 영향을 주고 있다는 점을 고려하면, 고용량 LPDDR5X 메모리는 AI Station 가격을 결정하는 핵심 요소가 될 가능성이 큽니다.


7. Storage는 상대적으로 작지만, 여전히 중요하다

4TB NVMe SSD는 전체 BOM에서 DRAM만큼 큰 비중을 차지하지는 않습니다.
하지만 AI Station 관점에서 스토리지는 단순 저장장치 이상의 의미를 가질 수 있습니다.

 

현재 구조에서는 SSD가 주로 저장장치 역할을 하지만,

만약 향후 AI Station에서 NAND 기반 고대역폭 메모리 계층, 예를 들어 HBF 같은 구조가 들어간다면 이야기는 달라질 수 있습니다.

 

DRAM보다 저렴한 비용으로 큰 모델 Weight를 담고, 필요한 순간에 고대역폭으로 AI Accelerator에 공급할 수 있다면 AI Station의 가격 구조가 바뀔 가능성도 존재합니다.


8. DGX Spark BOM Breakdown에서 볼 수 있는 시사점

이번 계산에서 얻을 수 있는 시사점은 세 가지입니다.

 

첫째, AI Station은 SoC만 비싼 제품이 아닙니다.
GB10 같은 AI SoC가 핵심이긴 하지만, 전체 BOM에서는 128GB LPDDR5X 메모리 비중이 매우 큽니다.

 

둘째, AI PC와 AI Station의 차이는 메모리 용량에서 갈릴 가능성이 큽니다.
일반 AI PC는 NPU TOPS를 강조하지만, 실제 대형 모델을 로컬에서 돌리려면 메모리 용량과 대역폭이 중요합니다. DGX Spark가 128GB unified memory를 강조하는 이유도 여기에 있습니다.

 

셋째, 스토리지의 역할이 앞으로 더 커질 수 있습니다.
지금은 4TB NVMe SSD가 모델과 데이터를 저장하는 역할에 가깝지만, 향후에는 HBF 등이 등장한다면 단순 저장장치가 아니라 AI inference를 지원하는 memory tier로 진화할 가능성이 있습니다.


9. 정리: DGX Spark는 메모리 중심 AI Station이다

DGX Spark의 BOM을 단순 추정해보면, 판매가 $4,699 기준으로 공개 스펙과 teardown 자료를 바탕으로 계산한 BOM은 약 $3,000 수준으로 볼 수 있습니다. 

 

물론 NVIDIA의 공식 BOM은 공개되어 있지 않기 때문에, 이 수치는 어디까지나 공개 자료 기반의 참고용 추정치입니다. 그럼에도 의미 있는 부분은 있습니다. 추정 BOM 안에서 Memory + Storage 비중이 약 40% 수준으로 나타난다는 점입니다.

 

이 숫자를 보면, DGX Spark 같은 제품을 단순히 “작은 AI 슈퍼컴퓨터”로만 볼 것이 아니라, AI Station이라는 새로운 제품군으로 볼 필요가 있다는 생각이 듭니다. 앞으로 이런 제품의 경쟁력은 단순히 AI accelerator의 연산 성능만으로 결정되지 않을 가능성이 큽니다.


10. AI Station에 주목할 만한 이유

첫째, 얼마나 큰 AI 모델을 로컬에 올릴 수 있는가
둘째, 메모리 구조를 얼마나 효율적으로 설계할 수 있는가
셋째, DRAM과 NAND Flash를 어떤 방식으로 조합할 것인가

 

Agentic AI가 등장하면서 더 긴 Reasoning, 더 많은 Context, 더 복잡한 Tool use가 중요해지고 있습니다. 반면 모델 사이즈는 무작정 커지기보다는, 일정 규모 이상에서는 성능 개선폭이 점점 완만해지는 방향으로 가고 있는 것으로 보입니다.

 

만약 수백B 규모의 LLM 사이에서 모델 크기에 따른 성능 차이가 점점 줄어든다면, 결국 중요한 질문은 바뀔 수 있습니다.

"가장 큰 모델을 누가 쓰느냐"보다, "충분히 좋은 모델을 어디서 얼마나 싸게 돌릴 수 있느냐"가 더 중요해질 수 있습니다.

 

이 관점에서 보면, Local AI Station의 가능성이 생깁니다. 매달 구독료를 내거나 API 호출마다 비용을 지불하는 OPEX 방식 대신, 한 번 AI Station을 구매해 CAPEX로 처리하는 방식이 더 합리적인 사용 사례가 나올 수 있습니다.

 

특히 기업이나 개인이 민감한 데이터를 다룬다면, 데이터를 클라우드로 보내지 않아도 된다는 점도 큰 장점입니다. 비용뿐 아니라 보안, 프라이버시, 클라우드 인프라 종속성 측면에서도 Local AI Station은 나름의 의미를 가질 수 있습니다.


 

다만 아직 이 시장은 본격적으로 열리지 않았습니다. 흔히 AI Workstation, Personal AI Supercomputer 같은 표현을 쓰지만, 개인적으로 AI Station 이라는 표현이 더 잘 어울린다고 생각합니다. 단순한 워크스테이션이라기보다는, 로컬에서 AI 모델을 실행하고 활용하기 위한 하나의 독립적인 AI 거점에 가깝기 때문입니다.

 

결국 AI Station에서 관건은 얼마나 가성비 좋게 AI inference를 수행할 수 있느냐입니다. 그리고 이 지점에서 최근 관심을 끌고있는 HBF가 의미 있는 역할을 할 수 있다고 생각합니다. HBF에 AI model weight를 저장하고, 추론 시 Accelerator에 고대역폭으로 Weight를 Feeding할 수 있다면, 대용량 모델을 로컬에서도 보다 효율적으로 구동할 수 있을 것 같습니다.

 

다만, NAND 특성 상 Write가 자주 발생하고 Latency가 중요한 KV cache, Activation 등의 데이터는 여전히 DRAM에 올라가야 하므로 단순히 DRAM을 HBF로 대체할 수는 없을 것 같습니다. 따라서 앞으로 AI Station 시장이 열린다면 연산장치 + DRAM + Flash를 어떻게 조합하느냐가 제품 경쟁력을 결정할 가능성이 큽니다.

 

이 관점에서 DGX Spark는 단순한 신제품이라기보다, 앞으로 로컬 AI 하드웨어가 어떤 방향으로 갈 수 있는지 보여주는 하나의 참고 사례로 볼 수 있습니다.


참고 문구

본 글은 NVIDIA 공식 BOM 분석이 아닙니다.
DGX Spark 공개 스펙, 공개 teardown 자료, 시장 가격 가정을 바탕으로 작성한 참고용 should-cost 추정입니다. 실제 원가는 구매 계약, 생산 물량, 부품 수급, 제조 방식, 유통 구조에 따라 달라질 수 있습니다.


 

BOM Cost 산정 시 참고한 자료 링크

1. DGX Spark 공식 스펙 / 제품 구성 확인


2. DGX Spark 내부 부품 / Teardown 확인


3. NAND / DRAM 가격 Proxy 참고


4. DGX Spark 가격 상승 / 메모리 수급 참고


5. 4TB NVMe SSD 가격 Proxy 참고

반응형