https://www.samsungsds.com/kr/insights/deepseek-and-tectonic-shift-in-the-ai-market.html
딥시크 DeepSeek 가 촉발한 AI 시장의 지각 변동 | 인사이트리포트 | 삼성SDS
이 아티클은 혁신적인 비용 절감과 성능 최적화로 기존 패러다임을 뒤흔들며 AI 경쟁 구도에 새로운 변화를 예고하는 DeepSeek-R1에 대해 알아봅니다.
www.samsungsds.com
딥시크(DeepSeek)란
최근 인공지능 및 자연어 처리(NLP) 분야에서 주목받고 있는 대규모 AI 모델 및 검색 엔진 프로젝트
검색 기반 AI와 대규모 언어모델(LLM)을 활용해 문맥을 이해해 답변 생성함
특징
1. 대규모 언어 모델(DeepSeek LLM)
- OpenAI의 GPT 시리즈와 유사한 구조의 대규모 언어 모델
- 다양한 언어 및 코드 이해 능력, 자연스러운 문장 생성
2. DeepSeek-VL(비주얼 랭귀지 모델)
- 이미지와 같은 데이터 처리 가능, 이미지 캡셔닝, 비주얼 질문 응답 등의 기능 수행
3. DeepSeek Corder
- 코드 생성 및 이해에 특화된 모델, 여러 프로그래밍 언어 지원
- 자동 코드 보완, 디버깅 기능 제공
4. DeepSeek Search(검색 엔진)
- AI 기반의 검색 엔진, 기존의 키워드 기반 검색보다 더욱 정교한 검색 결과 제공
- 문맥 이해 가능
5. 데이터 및 훈련 방식
- DeepSeek 모델은 대규모 공개 데이터셋 및 자체 크롤링 데이터 활용해 훈련됨
- 자연어 처리만이 아니라 코드나 이미지도 포함해 학습함
기존 다른 모델(GPT, Gemini)와의 차이
- 검색이나 코드 생성 기능 강화
- 검색 기반 AI성능 굳이라 함
주요하게 볼 점?
DeepSeek는 고성능 AI 모델을 경쟁사 대비 훨씬 낮은 비용으로 제공
-> 560달러 비용으로 훈련됨 (보통 1억달러~10억달러)
-> AI 도입의 비용 장벽 낮추는 기회
보안 이슈?
DeepSeek가 중국 기업이라는 점에서 데이터 보안과 관련된 우려 제기
차별화
DeepSeek-R1은 DeepSeek-V3을 기반으로 한 새로운 오픈 웨이트 LLM이며, DeepSeek-R1-Zero는 RL만으로 학습된 모델이다. 가트너는 이 모델이 순수 RL을 통해 특정 영역(수학, 코딩 등)의 성능을 향상시킬 수 있음을 보여주지만, 새로운 패러다임을 제시하는 것은 아니라고 평가했다.
DeepSeek-R1은 최신 모델과 성능이 유사하지만 이를 능가하지 않으며, 하드웨어와 데이터 투입이 효율적인 확장 방법으로 보인다. 특히, OpenAI의 O1-프리뷰 대비 낮은 추론 비용은 LLM의 보급을 가속화하고, AI 모델 평가의 기준이 토큰당 비용에서 정확도·대기 시간 대비 비용으로 변화하고 있음을 시사한다.
DeepSeek 발표 이후 메타 등 경쟁업체들이 빠르게 대응하고 있으며, LLM의 비용과 가격이 급격히 하락할 것으로 예상된다. 모델 공급업체들은 더 강력한 하드웨어를 활용하여 성능을 높이지만, 최첨단 모델은 여전히 높은 R&D 및 컴퓨팅 비용을 요구하며, 이는 초기 사용자들에게 부담될 것이다.
딥시크가 가격을 내린 방법
1. MoE(Mixture of Experts) 관점에서 가격 절감 방법
MoE 방식은 여러 개의 전문가 네트워크(Experts) 중 일부만 활성화하는 구조를 사용하여 연산 효율성을 극대화하는 방법
MoE 방식의 핵심 개념
- 기존 Transformer 모델은 모든 파라미터를 동시에 활성화하여 연산을 수행하지만, MoE 방식에서는 여러 개의 전문가(Expert) 중 일부만 선택적으로 활성화하여 연산을 수행
- 예를 들어, 64개의 전문가가 있더라도 한 번의 추론(inference)에서 2~4개 정도의 전문가만 활성화된다면 전체적인 연산량을 크게 줄일 수 있다
MoE가 가격 절감에 기여하는 방식
- GPU 연산량 감소
- MoE는 특정 전문가들만 활성화하여 연산을 수행하기 때문에, 동일한 성능을 유지하면서도 전체적으로 필요한 연산량을 줄일 수 있음
- 이는 클라우드 서버 운영 비용 및 전력 소모를 절감하는 데 직접적인 영향 준다
- 모델 사이즈 증가에도 비용 절감 가능
- MoE를 사용하면 모델의 전체적인 파라미터 수는 증가하지만, 한 번의 추론에서 실제로 사용하는 파라미터의 수는 제한됨
- 즉, 모델이 크더라도 필요한 연산만 수행하므로, 큰 모델을 유지하면서도 운영 비용을 낮출 수 있음
- 훈련 비용 절감
- 모델을 훈련할 때도 MoE는 일부 전문가만 활성화되므로, 전체적인 학습 비용이 줄어든다
- 특히 대형 모델을 훈련할 때 GPU 메모리 요구량이 줄어들고, 병렬 연산이 최적화되면서 비용 절감 효과가 더욱 커짐
2. INT8(자료형) 관점에서 가격 절감 방법
INT8 양자화(Quantization)는 모델의 연산을 16-bit 또는 32-bit 부동소수점(float) 대신 8-bit 정수형(INT8)으로 변환하는 기법
연산 속도를 높이고 메모리 사용량을 줄이는 방식으로 비용을 절감할 수 있음
INT8 양자화의 핵심 개념
- 일반적으로 딥러닝 모델은 FP32(32-bit 부동소수점) 또는 FP16(16-bit 부동소수점) 연산을 사용하지만, INT8을 사용하면 숫자를 8비트 정수로 변환하여 연산량을 줄일 수 있음
- 모델이 더 작은 숫자 범위를 사용하지만, 양자화 후에도 정확도를 유지하는 기술이 적용됨
INT8이 가격 절감에 기여하는 방식
- 연산 속도 증가 및 GPU/TPU 비용 절감
- INT8 연산은 FP32 연산보다 연산량이 적고, GPU 및 TPU에서 더 빠르게 수행
- 즉, 동일한 작업을 처리하는 데 필요한 GPU 인스턴스 수가 줄어들어 운영 비용이 절감
- 메모리 사용량 감소
- INT8을 사용하면 모델의 가중치(Weights)와 활성화(Activations) 크기가 줄어들어 전체적인 메모리 사용량이 감소
- 이는 대형 모델을 운영할 때 서버당 더 많은 모델을 배치(deployment)할 수 있도록 하여 비용을 절감하는 효과
- 전력 소비 절감
- INT8 연산은 전력 소비가 FP32 연산보다 훨씬 적기 때문에, 대규모 클라우드 환경에서 전기 요금 절감 효과도 큼
결론적으로 딥시크가 가격을 내린 이유는 MoE와 INT8양자화 기법을 활용해 연산량을 줄이고, 운영 비용을 쵲거화했기 때문임
- MoE방식: 일부 파트?만 활성호해서 연산량 줄이고, 고성능을 유지하면서도 연산 비용 절감
- INT8 양자화: 연산 속도 증가, 메모리 사용량 감소, 전력 소비 절감 등을 통해 하드웨어 비용 절감
'학회_공부해요 > 기술_스터디' 카테고리의 다른 글
[AhnLab] 서명 툴로 실행되는 X로더 악성코드 주의 (0) | 2025.02.04 |
---|---|
[Plainbit] LogLayer: 개발자를 위한 혁신적인 통합 로깅 라이브러리 (1) | 2025.01.26 |
[이스트시큐리티] 업무 협조 요청 메일을 위장하여 유포 중인 악성코드 주의! (0) | 2025.01.21 |
[IGLOO]Linux Kernel 내 Use-After-Free 취약점 (CVE-2024-1086) 분석 및 대응방안 (0) | 2025.01.14 |
[CVE 취약점 분석] CVE-2024-7029 (0) | 2024.11.26 |