GPUaaS_hero_bg_pc

GPUaaS_hero_bg_mobile

삼성 클라우드 플랫폼 GPUaaS

국내 최초, B300 GPU 서비스 출시!

삼성 클라우드 플랫폼 GPU as a Service 로 복잡한 인프라 관리 없이 빠르게 AI 모델을 학습시키고 배포하세요.

GPUaaS, GPU와
무엇이 다른가요?

GPUaaS는 자체 GPU 서버 구축 없이,
클라우드에서 필요한 만큼의 GPU 리소스를 할당 받아 사용하는 서비스입니다.
GPU 서버 직접 구축은 많은 시간과 비용이 소요되지만,
GPUaaS는 즉시 실행 가능하며 사용한 만큼 비용이 책정됩니다.

가벼운 연산부터 고성능 작업까지!
삼성 클라우드 플랫폼 GPUaaS의 엔터프라이즈급 안정성과 성능을 통해 AI 워크로드를 효율적으로 처리하세요.

왜 삼성 클라우드 플랫폼
GPUaaS인가요?

삼성 클라우드 플랫폼 GPUaaS
대규모 GPU 운영 노하우와
연중무휴 24시간 장애 대응 체계를 기반으로,
AI 워크로드에 최적화된
고성능 컴퓨팅 환경을 제공합니다.
초고속 AI 서비스
국내 최초로 도입한
NVIDIA B300 GPU로
AI 학습 및 추론 속도를
향상합니다.
맞춤형 AI 인프라
워크로드 기반 최적화된 인프라를 통해
불필요한 비용을 최소화하고
운영 효율성을 극대화합니다.
안정적인 기술 지원
빠르고 안정적인 서비스와
맞춤형 컨설팅으로
급변하는 비즈니스 요구에
신속하게 대응합니다.

삼성 클라우드 플랫폼 GPUaaS
함께하면 최신 하드웨어와
검증된 운영 노하우를 기반으로
AI 프로젝트를 빠르게 실행하고,
비용 효율성을 한층 높일 수 있습니다.

자체 GPU 서버 구축 시

  • 초기 구축 비용과 리드타임 발생
  • 고전력 공조 환경 등 까다로운 설비 공사
  • 전문 유지보수 인력 필요
  • GPU 장비 노후화 및 가격 변동 리스크

삼성 클라우드 플랫폼 GPUaaS 도입 시

  • 초기 비용 없는 사용량 기반의 과금 방식 제공
  • 워크로드 특성에 따른 GPU 모델 선택 사용
  • 보안이 기본 제공되는 Managed 서비스 제공
  • 최신 사양의 GPU 즉시 사용 가능

소개 동영상

압도적인 스피드, 삼성 클라우드 플랫폼 GPUaaS

마음까지 편안해지는, 삼성 클라우드 플랫폼 GPUaaS

고객 성공 스토리

삼성 클라우드 플랫폼 GPUaaS는
성장하는 기업들과 함께합니다.

"삼성 클라우드 플랫폼 GPUaaS는 엔진룸입니다. AI 모델 개발에 박차를 가해주는 핵심 동력이죠."

GPUaaS는 빠른 속도가 핵심인 AI 스타트업의
든든한 파트너입니다.

김민성 LLM 사업개발 팀장

upstage_logo_pc
upstage_logo 이미지
upstage_logo_mobile
upstage_logo 이미지

"하나의 하드웨어라도 장애가 발생하면 전체 학습이 중단됩니다. 삼성SDS의 기술 대응은 이런 위험을 최소화합니다."

GPUaaS는 AI 개발을 위해 고성능 GPU를
끊김 없이 지원합니다.

허훈 CTO

supertone_logo_pc
supertone 이미지
supertone_logo_mobile
supertone 이미지

활용 사례

AI 모델을 위한 GPUaaS
이런 분들에게 추천합니다.

building icon

GPU 클러스터가 필요한 기업

“LLM 모델 학습을 진행해야 하는데, 처리 시간이 오래 걸려서 답답해요."

AI icon

AI 연구소 및 대학

“AI 연구에는 고성능 GPU가 필수인데, 예산이 한정적이에요.”

monitor icon

AI 모델이 필요한 공공/금융 기관

“보안 걱정 없이 안전하게 사용할 수 있는 AI 인프라가 필요해요”

특장점

삼성 클라우드 플랫폼 GPUaaS
이렇게 다릅니다.

엔비디아의 최신 GPU를 바로 사용하고 싶으신가요?

국내 최초 NVIDIA B300 GPU 기반 서비스 제공

최신 GPU 확보 고민없이 서비스 개발과 운영에만 집중하세요. 고성능 인프라 환경을 안정적으로 제공합니다.

  • 향상된 메모리 용량 및 대역폭
  • AI 학습 및 추론 워크로드 최적화
  • 5세대 NVLink 기반 GPU간 고속 연결

GPUaaS_features_img_01

전구모양, 물류, 스토리지 등의 말풍선에 둘러 쌓여 설명중인 남자가 있는 일러스트 이미지

학습 시간 단축이 고민이신가요?

CPU 병목 없는 초고속 AI 학습 속도

H100, B200 대비 더 높은 메모리와 개선된 텐서 코어을 통해 추론 데이터 병목현상을 획기적으로 개선하였습니다.

  • 초거대 언어 모델(LLM)의 학습과 실시간 추론 성능 극대화
  • 추론/학습을 동시에 지원하는 Mixed 워크로드 기능 제공
  • AI 워크로드 특성, 규모에 최적화된 GPU 인프라 환경 제공

GPUaaS_features_img_02

노트북에 AI 글씨가 적혀있고 서버 랙, 핸드폰이 노트북과 연결되어 있으며 배경에는 화살표가 위로 올라가는 일러스트 이미지

서비스 장애로 GPU 비용을 낭비하셨나요?

글로벌 기업도 믿고 쓰는
안정적인 인프라

고성능 GPU의 발열 관리는 모델 학습 성능과 직결됩니다. 데이터센터 전문 설비팀의 상시 모니터링을 통해 전력 공급, 항온, 항습을 최적화하고 개발에만 집중할 수 있는 안정적인 환경을 제공합니다.

  • 25년 이상의 대규모 IT 인프라 운영 경험
  • 전문 Facility 그룹의 24/7 모니터링과 기술 지원
  • 국내외 17개 리전에 업계 최고 수준 데이터센터 보유

GPUaaS_features_img_03

데이터센터를 표현한 그림에 여자가 걸터 앉아있는 일러스트 이미지

GPUaaS를 개발 환경과 연계하고 싶으신가요?

Kubeflow 기반 MLOps 플랫폼

삼성 클라우드 플랫폼 GPUaaS는 Kubeflow 기반의 MLOps 플랫폼을 제공합니다.

  • 클라우드 네이티브 기반의 MLOps 플랫폼으로 개발, 학습, 배포 파이프라인 자동화
  • 데이터와 모델의 통합 관리로 편리한 개발 환경 구축
  • TensorFlow, PyTorch, Scikit-learn, Keras 등 다양한 머신러닝 프레임워크 지원

GPUaaS_features_img_04

가운데에 MLOps 라고 적힌 무한 루프 모양에 DEPLOY - MAINTAIN - DESIGN - TEST&TRAIN 이 적혀있는 일러스트 이미지

삼성 클라우드 플랫폼의
다양한 AI/ML 서비스와 연계

클라우드에 최적화된 삼성 클라우드 플랫폼의 AI/ML 서비스로 AI 개발 환경을 더욱 강력하게 구축하세요.

  • AI&MLOps Platform : Kubernetes 기반의 MLOps 환경을 제공하는 오픈소스 머신러닝 플랫폼 제공
  • AIOS : 생성된 SCP 자원에서 별도의 LLM 서비스 절차나 설정 없이, 즉시 LLM을 사용할 수 있는 환경 제공
  • CloudML : No/Low Code로 수행 가능한 AI/ML 분석 툴 제공

GPUaaS_features_img_05

각 단어를 추상화한 아이콘 밑에 각각 AI&MLOps Platform, AIOS, CloudML 이라고 적혀있는 일러스트 이미지

가격정책

GPUaaS 요금제
사용한 만큼만 지불하세요

온디맨드형 플랜

온디맨드형 플랜은 정기 약정 없이,
사용하는 무약정 요금제입니다.

빠른 학습이 필요한 경우

  • 스팟성 워크로드 처리
  • MLOPs/Vision AI 모델 개발 및 테스트
  • 유연하고 탄력적인 리소스 사용

절감형 플랜1년

절감형 플랜은 1년 약정으로 표준형 대비 최대 35% 할인된 요금으로
이용 가능한 합리적인 요금제입니다.

안정적인 학습이 필요한 경우

  • 장기적인 AI 기반 응용 프로그램 개발
  • 안정적인 월 단위 비용 관리 필요
  • 예측 가능한 워크로드 처리에 최적화

초절감형 플랜3년

초절감형 플랜은 3년 약정으로 표준형 대비 최대 50% 할인된 최저가 플랜으로,
대규모 AI 프로젝트를 위한 요금제입니다.

고성능 장기 학습이 필요한 경우

  • 음성 학습 파운데이션 모델 개발
  • 기업 규모의 장기 프로젝트
  • 최고 성능 최신 GPU 상시 사용

상품 상세

AI 워크로드에 맞게 선택하는 GPU 인프라

AI 모델 실험, 개발, 서빙처럼 빠른 시작이 중요한 업무부터, 대규모 AI 모델/LLM 학습처럼 성능이 중요한 업무까지 목적에 맞는 GPU 환경을 선택하세요.

GPU Server

필요한 만큼 빠르게 시작하는 가상화 GPU 서버

서비스 형태
  • 가상 서버 기반
구성 방식
  • GPU 리소스를 필요한 만큼 할당받아 사용하는 가상화 컴퓨팅 서비스
주요 특징
  • 웹 콘솔 기반 셀프서비스
  • 쉽고 편리한 프로비저닝 및 관리
적합한 업무
  • AI 모델 실험, 예측, 추론
  • 중소 규모 학습
추천 조직
  • 빠르게 시작하고 유연하게 운영하려는 조직

Multi-node GPU Cluster

대규모 AI 학습을 위한 베어메탈 GPU 클러스터

서비스 형태
  • 베어메탈 서버 기반
구성 방식
  • GPU가 장착된 베어메탈 서버 2대 이상을 사용해 다수의 GPU를 클러스터링하는 서비스
주요 특징
  • 고성능 네트워크 및 스토리지 연계
  • 대규모 학습 최적화
적합한 업무
  • 대규모 고성능 AI 연산
  • 대규모 AI 모델 학습
  • 분산 워크로드 처리
추천 조직
  • 성능과 대규모 학습 효율이 중요한 조직

FAQ

  • A100, H100, B300의 차이점은 무엇인가요?

    A100은 범용형, H100은 생성형 AI 특화형, B300은 대규모 추론 특화형입니다.

    • A100 (Ampere): 2020년 공개한 모델로, MIG(Multi-Instance GPU) 기술을 통해 하나의 GPU를 여러 개로 분할해 사용할 수 있는 범용성과 멀티테넌트 운영 효율성이 강점입니다.
    • H100 (Hopper): 2022년 발표한 모델로, 4세대 Tensor 코어와 Transformer Engine을 통해 대규모 언어 모델(LLM)과 생성형 AI 처리에 최적화되어 있습니다.
    • B300 (Blackwell Ultra): NVIDIA의 최신 플랫폼으로, 2개의 칩을 하나로 연결한 듀얼 다이 설계, FP4 정밀도 지원, HBM3E 고대역폭 메모리를 바탕으로 대규모 추론 성능을 크게 강화한 것이 특징입니다.

  • A100, H100, B300은 각각 어떤 워크로드에 적합한가요?

    A100은 AI, 데이터 분석, HPC를 위한 데이터센터 GPU로, 중소형 AI 학습, 일반 추론, 분석 워크로드, 연구/개발용 공용 인프라에 적합합니다. H100은 대형 모델 파인튜닝, 대규모 학습 클러스터, 초고속 추론 서비스, 고성능 바이오/과학 계산 등에 적합합니다. B300은 대규모 실시간 추론, 복잡한 추론형 AI 서비스, 기업용 AI 팩토리 구축, 대규모 멀티노드 AI 인프라에 적합합니다.

  • 많은 기업들은 왜 B300에 관심을 갖고 있나요?

    최근 기업들이 AI 모델 개발을 넘어 실제 서비스에 적용하는 ‘AI 추론’ 단계로 진입하면서 고성능 컴퓨팅 수요가 빠르게 증가하고 있습니다. 기업들이 B300에 주목하는 이유는 더 빠른 AI 추론 성능, 대규모 모델 운영에 유리한 메모리 구조, 엔터프라이즈급 확장성 때문입니다. B300은 AI reasoning 최적화, 고성능 추론, 대규모 확장성을 갖춘 최신 플랫폼으로, 기업의 차세대 AI 서비스와 AI 인프라 고도화 수요에 잘 맞습니다.

  • 왜 삼성SDS가 제공하는 B300을 선택해야 하나요?

    삼성SDS의 B300 GPUaaS는 B300 기반 인프라, 즉시 사용 가능한 고성능 GPU, 전문 기술 지원, 안정적인 인프라 운영, MLOps 및 AI/ML 서비스 연계를 바탕으로 AI 개발과 운영을 빠르게 지원한다는 점이 강점입니다. 특히 대규모 추론과 기업용 AI 서비스 운영을 빠르게 시작하려는 고객에게 적합합니다.

  • InfiniBand NDR이란 무엇인가요?

    InfiniBand NDR(인피니밴드 NDR)은 최신 세대의 InfiniBand 기술로, 최대 400Gbps의 대역폭을 바탕으로 고성능 GPU 간 초고속 데이터 전송을 지원합니다. 특히 논블로킹(Full-Mesh) 네트워크 토폴로지에 기반한 효율적인 통신으로 병목을 제거하고 AI 및 HPC(고성능 컴퓨팅) 워크로드에서 최적의 성능을 보장합니다.

  • NVLink란 무엇인가요?

    NVLink(NV링크)는 GPU 간 고속 상호 연결을 위해 NVIDIA가 개발한 기술로, GPU 간의 대역폭과 통신 속도를 크게 향상시킵니다. NVLink Bridge는 이러한 NVLink(NV링크) 기술을 구현하는 하드웨어 구성요소라고 할 수 있습니다.

  • Kubeflow란 무엇인가요?

    Kubeflow(쿠브플로우)는 쿠버네티스 기반의 오픈소스 머신러닝 플랫폼으로, 머신러닝 워크플로우를 간편하게 생성하며 모델을 배포 및 관리할 수 있게 해줍니다. 머신러닝 워크플로우는 데이터 수집부터 처리, 모델 선택 및 훈련, 평가, 배포 등의 모든 과정을 의미하며 쿠버네티스를 기반으로 하여 프로젝트 전체 라이프사이클을 관리할 수 있습니다.

복잡한 GPU 고민은
삼성SDS에 맡기고,
본업에만 집중하세요.