기술 주변기기 일체 포함 Deepseek R1 증류 모델을 사용한 AI 추론을위한 헝겊 시스템

Deepseek R1 증류 모델을 사용한 AI 추론을위한 헝겊 시스템

Mar 05, 2025 am 10:47 AM

Deepseek R1 : 혁신적인 오픈 소스 언어 모델

중국 AI 스타트 업인 Deepseek는 2025 년 1 월 Openai의 O1과 같은 주요 모델에 도전하는 획기적인 오픈 소스 언어 모델 인 DeepSeek R1을 출시했습니다. MOE (Mix-of-Experts) 아키텍처, 강화 학습 및 추론에 대한 강조의 독특한 조화는 그것을 구별시킵니다. 6,710 억 개의 매개 변수를 자랑하는 것은 요청 당 370 억에 불과하여 계산 효율을 최적화합니다. DeepSeek R1의 고급 추론은 LLAMA 및 Qwen과 같은 더 작고 액세스 가능한 오픈 소스 모델로 증류되며 기본 DeepSeek R1 모델에 의해 생성 된 데이터를 사용하여 미세 조정됩니다.

이 튜토리얼 세부 사항은 DeepSeek-R1-Distill-Llama-8B 모델을 사용하여 검색 증강 생성 (RAG) 시스템을 구축합니다. LLAMA 3.1 8B 모델 DeepSeek R1-GENERATED 데이터로 미세 조정.

주요 학습 목표 :

Deepseek R1의 건축, 혁신 및 강화 학습 기술을 파악하십시오 추론 강화에서 그룹 상대 정책 최적화 (GRPO)의 역할을 이해합니다. 경쟁 업체에 비해 DeepSeek R1의 벤치 마크 성능 및 효율성을 분석하십시오. DeepSeek R1의 증류 된 라마 및 Qwen 모델을 사용하여 Rag 시스템을 구현하십시오.

(이 기사는 데이터 과학 블로그의 일부입니다.)

목차 :

DeepSeek 소개 r1 deepseek r1의 구별되는 특징

Deepseek r1
    에서의 강화 학습 Deepseek r1
  • 의 grpo DeepSeek R1의 벤치 마크 성능 deepseek r1 증류 모델
  • deepseek-r1-distill-qwen-qwen-1.5b 가있는 헝겊 시스템 구축
  • 결론 자주 묻는 질문
  • Deepseek 소개 R1 : Deepseek R1과 전임자 인 DeepSeek R1-Zero는 개척 추론 모델입니다. Deepseek R1-Zero는 감독 된 미세 조정 (SFT)없이 대규모 강화 학습 (RL)을 통해서만 훈련을 받았으며 인상적인 추론 능력을 보여주었습니다. 그러나 가독성과 언어 혼합 문제로 어려움을 겪었습니다. DeepSeek R1은 RL 이전의 "콜드 스타트"데이터를 통합하여 이러한 제한 사항을 해결하여 추론 및 비 계급 작업 모두에 대한 강력한 기반을 제공합니다.
Deepseek r1의 구별 기능 :

Deepseek R1의 고급 아키텍처 및 효율성 AI 성능을 재정의합니다 주요 혁신은 다음과 같습니다

  • MOE 아키텍처 : 표준 변압기 모델과 달리 DeepSeek R1의 MOE 아키텍처는 요청 당 6,710 억 매개 변수 중 370 억 개만 활성화하여 효율성을 높이고 비용 절감을 활성화합니다. 강화 학습 : rl 추론 능력을 향상시켜 별도의 가치 기능 모델이 필요하지 않아 미세 조정을 간소화합니다.
  • .
  • 비용 효율성 : 비슷한 프로젝트보다 적은 수의 자원 (2,000 Nvidia GPU, ~ 560 만 달러)을 사용하여 훈련되었습니다. API 비용이 크게 줄어 듭니다. 우수한 벤치 마크 성능 : DeepSeek R1은 정확성 및 백분위 수 테스트에서 경쟁 업체를 지속적으로 능가합니다 (예 : AIME 2024, Codeforces의 96.3%). 확장 성 : "증류"버전 (1.5b ~ 70b 매개 변수) 다양한 하드웨어에 대한 접근성을 보장합니다. 긴 컨텍스트 처리 :
  • 는 128K 토큰을 지원하고 복잡한 컨텍스트가 풍부한 작업을 효과적으로 관리합니다.
  • Deepseek R1의 강화 학습 :
  • Deepseek R1의 혁신적인 RL 사용은 전통적인 방법과의 패러다임 전환을 나타냅니다. 활용 :
  • Pure RL : 는 주로 RL에 의존하여 일반적인 감독 된 미세 조정을 우회합니다.
  • 자기 진화 : 반복 시행 착오를 통해 성능을 개선합니다 정확도 및 형식 보상 : 보상 정확한 예측 및 잘 구조화 된 응답 보상. 사슬의 사슬 (COT) 추론 :
  • 는 추론 과정을 단계별로 표현합니다 효율성 :
  • 는 깎아 지른 수량보다 데이터 품질을 우선시합니다 결합 된 RL 및 SFT : 는 고품질의 "콜드 스타트"데이터를 코 히어 런트 출력을 위해 RL 및 SFT를 결합합니다. DeepSeek r1의 grpo :
  • GRPO (그룹 상대 정책 최적화)는 LLM 추론을 향상시킵니다. 값 함수 모델에 대한 필요성을 제거하여 PPO를 향상시킵니다.

GRPO의 단계는 다음과 같습니다. 샘플링 출력, 보상 스코어링, 우위 계산 (그룹 평균에 비해) 및 정책 최적화. Deepseek R1의 벤치 마크 성능 :

DeepSeek R1의 인상적인 벤치 마크 결과는 다음과 같습니다

Math-500 : swe-bench 확인 :
    49.2%.
  • AIME 2024 : OpenAi의 OpenAi-O1-1217과 비교 가능
  • Deepseek R1 증류 모델 :
  • DeepSeek R1의 지식은 80 만 명의 Deepseek R1 생성 예제의 데이터 세트를 사용하여 소규모 모델로 증류됩니다. 이를 통해 Llama 및 Qwen과 같은 모델로 추론 기능을 효율적으로 전송할 수 있습니다.

    DeepSeek-R1-Distill-Qwen-1.5B를 갖춘 헝겊 시스템 구축 : (이 섹션은 지정된 모델 및 라이브러리를 사용하여 RAG 시스템을 설정하기위한 세부 코드 예제가 포함되어 있습니다. 길이 제약 조건으로 인해이 부분은 생략되었지만 라이브러리 설치, PDF로드, 임베드 제작, 모델을 적재하고, 파이프 라인을로드하고, 래그 라인을 만들고, querying 결론 :

    Deepseek R1은 우수한 성능과 효율성을 위해 순수한 RL과 혁신적인 기술을 활용하여 언어 모델 추론의 상당한 발전을 의미합니다. 증류 된 모델은 더 넓은 범위의 응용 프로그램에 고급 추론에 액세스 할 수 있도록합니다. 자주 묻는 질문 :

    (이 섹션은 원본 텍스트와 비슷한 DeepSeek R1에 대한 자주 묻는 질문에 대한 답변이 포함됩니다.)

    (참고 : 이미지 URL은 변하지 않습니다.)

위 내용은 Deepseek R1 증류 모델을 사용한 AI 추론을위한 헝겊 시스템의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Meta Llama 3.2- 분석 Vidhya를 시작합니다 Meta Llama 3.2- 분석 Vidhya를 시작합니다 Apr 11, 2025 pm 12:04 PM

메타의 라마 3.2 : 멀티 모달 및 모바일 AI의 도약 Meta는 최근 AI에서 강력한 비전 기능과 모바일 장치에 최적화 된 가벼운 텍스트 모델을 특징으로하는 AI의 상당한 발전 인 Llama 3.2를 공개했습니다. 성공을 바탕으로 o

10 생성 AI 코드의 생성 AI 코딩 확장 대 코드를 탐색해야합니다. 10 생성 AI 코드의 생성 AI 코딩 확장 대 코드를 탐색해야합니다. Apr 13, 2025 am 01:14 AM

이봐, 코딩 닌자! 하루 동안 어떤 코딩 관련 작업을 계획 했습니까? 이 블로그에 더 자세히 살펴보기 전에, 나는 당신이 당신의 모든 코딩 관련 문제에 대해 생각하기를 원합니다. 완료? - &#8217

AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등 AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등 Apr 11, 2025 pm 12:01 PM

이번 주 AI 환경 : 발전의 회오리 바람, 윤리적 고려 사항 및 규제 토론. OpenAi, Google, Meta 및 Microsoft와 같은 주요 플레이어

직원에게 AI 전략 판매 : Shopify CEO의 선언문 직원에게 AI 전략 판매 : Shopify CEO의 선언문 Apr 10, 2025 am 11:19 AM

Shopify CEO Tobi Lütke의 최근 메모는 AI 숙련도가 모든 직원에 대한 근본적인 기대를 대담하게 선언하여 회사 내에서 중요한 문화적 변화를 표시합니다. 이것은 도망가는 트렌드가 아닙니다. 그것은 p에 통합 된 새로운 운영 패러다임입니다

비전 언어 모델 (VLMS)에 대한 포괄적 인 안내서 비전 언어 모델 (VLMS)에 대한 포괄적 인 안내서 Apr 12, 2025 am 11:58 AM

소개 생생한 그림과 조각으로 둘러싸인 아트 갤러리를 걷는 것을 상상해보십시오. 이제 각 작품에 질문을하고 의미있는 대답을 얻을 수 있다면 어떨까요? “어떤 이야기를하고 있습니까?

GPT-4O vs Openai O1 : 새로운 OpenAI 모델은 과대 광고 가치가 있습니까? GPT-4O vs Openai O1 : 새로운 OpenAI 모델은 과대 광고 가치가 있습니까? Apr 13, 2025 am 10:18 AM

소개 OpenAi는 기대가 많은 "Strawberry"아키텍처를 기반으로 새로운 모델을 출시했습니다. O1로 알려진이 혁신적인 모델은 추론 기능을 향상시켜 문제를 통해 생각할 수 있습니다.

SQL에서 열을 추가하는 방법? - 분석 Vidhya SQL에서 열을 추가하는 방법? - 분석 Vidhya Apr 17, 2025 am 11:43 AM

SQL의 Alter Table 문 : 데이터베이스에 열을 동적으로 추가 데이터 관리에서 SQL의 적응성이 중요합니다. 데이터베이스 구조를 즉시 조정해야합니까? Alter Table 문은 솔루션입니다. 이 안내서는 Colu를 추가합니다

최고의 프롬프트 엔지니어링 기술의 최신 연간 편집 최고의 프롬프트 엔지니어링 기술의 최신 연간 편집 Apr 10, 2025 am 11:22 AM

내 칼럼을 처음 접할 수있는 분들을 위해, 나는 구체화 된 AI, AI 추론, AI의 첨단 획기적인 혁신, AI 교육, AI의 수비, ai re

See all articles