학회_공부해요/기술_스터디

[SAMSUNG SDS] 딥시크(DeepSeek)가 촉발한 AI 시장의 지각 변동

yenas0 2025. 2. 11. 12:50
반응형

https://www.samsungsds.com/kr/insights/deepseek-and-tectonic-shift-in-the-ai-market.html

 

딥시크 DeepSeek 가 촉발한 AI 시장의 지각 변동 | 인사이트리포트 | 삼성SDS

이 아티클은 혁신적인 비용 절감과 성능 최적화로 기존 패러다임을 뒤흔들며 AI 경쟁 구도에 새로운 변화를 예고하는 DeepSeek-R1에 대해 알아봅니다.

www.samsungsds.com


딥시크(DeepSeek)란

최근 인공지능 및 자연어 처리(NLP) 분야에서 주목받고 있는 대규모 AI 모델 및 검색 엔진 프로젝트

검색 기반 AI와 대규모 언어모델(LLM)을 활용해 문맥을 이해해 답변 생성함

 

특징

1. 대규모 언어 모델(DeepSeek LLM)

- OpenAI의 GPT 시리즈와 유사한 구조의 대규모 언어 모델

- 다양한 언어 및 코드 이해 능력, 자연스러운 문장 생성

2. DeepSeek-VL(비주얼 랭귀지 모델)

- 이미지와 같은 데이터 처리 가능, 이미지 캡셔닝, 비주얼 질문 응답 등의 기능 수행

3. DeepSeek Corder

- 코드 생성 및 이해에 특화된 모델, 여러 프로그래밍 언어 지원

- 자동 코드 보완, 디버깅 기능 제공

4.  DeepSeek Search(검색 엔진)

- AI 기반의 검색 엔진, 기존의 키워드 기반 검색보다 더욱 정교한 검색 결과 제공

- 문맥 이해 가능

5. 데이터 및 훈련 방식

- DeepSeek 모델은 대규모 공개 데이터셋 및 자체 크롤링 데이터 활용해 훈련됨

- 자연어 처리만이 아니라 코드나 이미지도 포함해 학습함

 

 

기존 다른 모델(GPT, Gemini)와의 차이

- 검색이나 코드 생성 기능 강화

- 검색 기반 AI성능 굳이라 함

 

 

주요하게 볼 점?

DeepSeek는 고성능 AI 모델을 경쟁사 대비 훨씬 낮은 비용으로 제공

-> 560달러 비용으로 훈련됨 (보통 1억달러~10억달러)

-> AI 도입의 비용 장벽 낮추는 기회

 

보안 이슈?

DeepSeek가 중국 기업이라는 점에서 데이터 보안과 관련된 우려 제기

 

 

차별화

DeepSeek-R1은 DeepSeek-V3을 기반으로 한 새로운 오픈 웨이트 LLM이며, DeepSeek-R1-Zero는 RL만으로 학습된 모델이다. 가트너는 이 모델이 순수 RL을 통해 특정 영역(수학, 코딩 등)의 성능을 향상시킬 수 있음을 보여주지만, 새로운 패러다임을 제시하는 것은 아니라고 평가했다.

DeepSeek-R1은 최신 모델과 성능이 유사하지만 이를 능가하지 않으며, 하드웨어와 데이터 투입이 효율적인 확장 방법으로 보인다. 특히, OpenAI의 O1-프리뷰 대비 낮은 추론 비용은 LLM의 보급을 가속화하고, AI 모델 평가의 기준이 토큰당 비용에서 정확도·대기 시간 대비 비용으로 변화하고 있음을 시사한다.

DeepSeek 발표 이후 메타 등 경쟁업체들이 빠르게 대응하고 있으며, LLM의 비용과 가격이 급격히 하락할 것으로 예상된다. 모델 공급업체들은 더 강력한 하드웨어를 활용하여 성능을 높이지만, 최첨단 모델은 여전히 높은 R&D 및 컴퓨팅 비용을 요구하며, 이는 초기 사용자들에게 부담될 것이다.

 

 

 

 

 

딥시크가 가격을 내린 방법

1. MoE(Mixture of Experts) 관점에서 가격 절감 방법

MoE 방식은 여러 개의 전문가 네트워크(Experts) 중 일부만 활성화하는 구조를 사용하여 연산 효율성을 극대화하는 방법

 

MoE 방식의 핵심 개념

  • 기존 Transformer 모델은 모든 파라미터를 동시에 활성화하여 연산을 수행하지만, MoE 방식에서는 여러 개의 전문가(Expert) 중 일부만 선택적으로 활성화하여 연산을 수행
  • 예를 들어, 64개의 전문가가 있더라도 한 번의 추론(inference)에서 2~4개 정도의 전문가만 활성화된다면 전체적인 연산량을 크게 줄일 수 있다

MoE가 가격 절감에 기여하는 방식

  1. GPU 연산량 감소
    • MoE는 특정 전문가들만 활성화하여 연산을 수행하기 때문에, 동일한 성능을 유지하면서도 전체적으로 필요한 연산량을 줄일 수 있음
    • 이는 클라우드 서버 운영 비용 및 전력 소모를 절감하는 데 직접적인 영향 준다
  2. 모델 사이즈 증가에도 비용 절감 가능
    • MoE를 사용하면 모델의 전체적인 파라미터 수는 증가하지만, 한 번의 추론에서 실제로 사용하는 파라미터의 수는 제한됨
    • 즉, 모델이 크더라도 필요한 연산만 수행하므로, 큰 모델을 유지하면서도 운영 비용을 낮출 수 있음
  3. 훈련 비용 절감
    • 모델을 훈련할 때도 MoE는 일부 전문가만 활성화되므로, 전체적인 학습 비용이 줄어든다
    • 특히 대형 모델을 훈련할 때 GPU 메모리 요구량이 줄어들고, 병렬 연산이 최적화되면서 비용 절감 효과가 더욱 커짐

 

2. INT8(자료형) 관점에서 가격 절감 방법

INT8 양자화(Quantization)는 모델의 연산을 16-bit 또는 32-bit 부동소수점(float) 대신 8-bit 정수형(INT8)으로 변환하는 기법

연산 속도를 높이고 메모리 사용량을 줄이는 방식으로 비용을 절감할 수 있음

 

INT8 양자화의 핵심 개념

  • 일반적으로 딥러닝 모델은 FP32(32-bit 부동소수점) 또는 FP16(16-bit 부동소수점) 연산을 사용하지만, INT8을 사용하면 숫자를 8비트 정수로 변환하여 연산량을 줄일 수 있음
  • 모델이 더 작은 숫자 범위를 사용하지만, 양자화 후에도 정확도를 유지하는 기술이 적용됨

 

INT8이 가격 절감에 기여하는 방식

  1. 연산 속도 증가 및 GPU/TPU 비용 절감
    • INT8 연산은 FP32 연산보다 연산량이 적고, GPU 및 TPU에서 더 빠르게 수행
    • 즉, 동일한 작업을 처리하는 데 필요한 GPU 인스턴스 수가 줄어들어 운영 비용이 절감
  2. 메모리 사용량 감소
    • INT8을 사용하면 모델의 가중치(Weights)와 활성화(Activations) 크기가 줄어들어 전체적인 메모리 사용량이 감소
    • 이는 대형 모델을 운영할 때 서버당 더 많은 모델을 배치(deployment)할 수 있도록 하여 비용을 절감하는 효과
  3. 전력 소비 절감
    • INT8 연산은 전력 소비가 FP32 연산보다 훨씬 적기 때문에, 대규모 클라우드 환경에서 전기 요금 절감 효과도 큼

 

 

결론적으로 딥시크가 가격을 내린 이유는 MoE와 INT8양자화 기법을 활용해 연산량을 줄이고, 운영 비용을 쵲거화했기 때문임

- MoE방식: 일부 파트?만 활성호해서 연산량 줄이고, 고성능을 유지하면서도 연산 비용 절감

- INT8 양자화: 연산 속도 증가, 메모리 사용량 감소, 전력 소비 절감 등을 통해 하드웨어 비용 절감

 

 

반응형