목차
출력에 대한 보상이 그룹의 모든 출력에 대한 보상입니다.
기술 주변기기 일체 포함 Deepseek R1 '의 고급 추론 능력 디코딩

Deepseek R1 '의 고급 추론 능력 디코딩

Mar 07, 2025 am 10:57 AM

DeepSeek-R1의 고급 추론 능력으로 인해 생성 LLM 필드의 새로운 리더가되었습니다. 이로 인해 AI 업계에서 NVIDIA의 6 천억 달러의 손실이 시작된 보고서와 함께 AI 업계에서 저주를 받았습니다. 그러나 DeepSeek-R1이 밤새 유명한 이유는 무엇입니까? 이 기사에서는 DeepSeek-R1이 왜 그렇게 많은 관심을 끌고, 획기적인 기능을 탐구하고, 추론 권한이 실제 응용 프로그램을 어떻게 재구성하는지 분석하는 이유를 살펴 보겠습니다. 상세하고 구조화 된 분석을 통해 모델의 성능을 분류 할 때 계속 지켜봐 주시기 바랍니다.

학습 목표

DeepSeek-R1의 고급 추론 능력과 LLM 환경에 미치는 영향을 이해하십시오. 그룹 상대 정책 최적화 (GRPO)가 비평가 모델없이 강화 학습을 향상시키는 방법을 배우십시오. 훈련 및 성능 측면에서 DeepSeek-R1-Zero와 DeepSeek-R1의 차이점을 탐색하십시오. 추론 작업에서 DeepSeek-R1의 우수성을 보여주는 평가 지표 및 벤치 마크 분석. DeepSeek-R1이 확장 가능한 고 처리량 AI 모델로 STEM 및 코딩 작업을 최적화하는 방법을 알아보십시오.

    이 기사는 데이터 과학 블로그 톤의
  • 의 일부로 출판되었습니다. 목차
  • Deepseek-R1은 무엇입니까?
  • GRPO)의 그룹 상대 정책 최적화 (GRPO)
  • DeepSeek-R1-Zero에서의 교육 프로세스 및 최적화

GRPO가 어떻게 작동합니까? 일반적인 권한을 높이는 방법은 무엇입니까? DeepSeek-r1 DeepSeek-r1의 평가 DeepSeek-R1-7B의 추론 능력 평가 고급 추론 및 문제 해결 시나리오

결론

자주 묻는 질문
  • DeepSeek-R1은 무엇입니까? 간단한 말로 DeepSeek-R1은 2023 년 Liang Wenfeng이 설립 한 DeepSeek가 개발 한 최첨단 언어 모델 시리즈입니다. 강화 학습 (RL)을 통해 LLM에서 고급 추론 능력을 달성했습니다. 두 가지 변형이 있습니다 :
  • deepseek-r1-Zero 는 감독 된 미세 조정 (SFT)없이 기본 모델에서 RL을 통해 순수하게 훈련을받으며,자가 검증 및 다중 단계 반사와 같은 고급 추론 동작을 자율적으로 개발하여 AIME 2024 벤치 마크에서 71% 정확도를 달성합니다. deepseek-r1 콜드 스타트 ​​데이터 및 다단계 교육 (RL SFT)으로 향상되었으며, 가독성 문제를 해결하고 Math-500 (97.3% 정확도) 및 코딩 문제 (코딩 등급 2029)와 같은 작업에서 OpenAI의 O1보다 성능이 우수합니다. DeepSeek은 비평가 모델을 사용하지 않고 RL의 교육 비용을 절약하는 RL 기술 인 GRPO (Group Relative Policy Optimization)를 사용합니다. GRPO는 출력을 그룹화하고 보상을 정규화하여 정책을 최적화하여 비평가 모델의 필요성을 제거합니다.이 프로젝트는 또한 추론 패턴을 소규모 모델 (1.5B-70B)으로 증류시켜 효율적인 배포를 가능하게합니다. 벤치 마크에 따르면 7B 모델은 GPT-4O를 능가합니다 Deepseek-R1 용지 비교 차트

    Aime DataSet 에서 DeepSeek-R1-Zero의 정확도 플롯

    Deepseek Open-Sourced 모델, 훈련 파이프 라인 및 벤치 마크는 RL 중심의 추론 연구를 민주화하여 STEM, 코딩 및 지식 집약적 인 작업을위한 확장 가능한 솔루션을 제공하는 것을 목표로합니다. DeepSeek-R1은 저렴한 저비용 고 처리량 SLM 및 LLM의 새로운 시대로가는 길을 지시합니다. 그룹 상대 정책 최적화 (GRPO) 란 무엇입니까? 최첨단 GRPO에 들어가기 전에 강화 학습 (RL)의 기본 사항을 서핑합시다. 강화 학습은 대리인과 환경의 상호 작용입니다. 훈련 중에 에이전트는 누적 보상을 극대화 할 수 있도록 조치를 취합니다. 실제 품목으로 작업을 수행하려고 공장 바닥에서 체스 또는 로봇을 연주하는 봇에 대해 생각해보십시오.

    에이전트는 수행하여 배우고 있습니다. 일을 제대로 할 때 보상을받습니다. 그렇지 않으면 부정적입니다. 이러한 반복적 인 시험을 수행함으로써, 알 수없는 환경에 적응하기위한 최적의 전략을 찾는 여행이 될 것입니다. Deepseek R1 '의 고급 추론 능력 디코딩. 여기에는 강화 학습의 간단한 다이어그램이 있습니다. 3 가지 구성 요소가 있습니다. 코어 rl 루프

    학습 된 정책을 기반으로 조치를 취하는 에이전트 행동은 주어진 상태에서 에이전트가 결정한 것입니다.

    환경은 에이전트가 상호 작용하여 작동하고 배우는 외부 시스템 (게임, 워크샵 바닥, 비행 드론 등)입니다. 환경은 새로운 상태와 보상의 형태로 에이전트에게 피드백을 제공합니다.

    에이전트 구성 요소

    값 함수는 장기 보상 측면에서 특정 상태 또는 행동이 얼마나 좋은지 추정합니다. 정책은 에이전트의 행동 선택을 정의하는 전략입니다.

    값 함수는 의사 결정을 개선하도록 돕는 정책을 알려줍니다. 정책 가이드 (가이드 관계) RL 루프에서 조치를 선택할 때 에이전트

    학습 요소

    경험, 여기에서 에이전트는 환경과 상호 작용하는 동안 거래를 수집합니다. 최적화 또는 정책 업데이트는 경험을 사용하여 정책과 중요한 의사 결정을 개선합니다.

    DeepSeek-R1-Zero의 교육 과정 및 최적화 수집 된 경험은 최적화를 통해 정책을 업데이트하는 데 사용됩니다. 가치 함수는 정책을 개선하기위한 통찰력을 제공합니다. 이 정책은 환경과 상호 작용하여 새로운 경험을 수집하고 에이전트가 최적의 전략을 배우거나 환경에 적응하도록 개선 할 때까지주기가 계속됩니다. DeepSeek-R1-Zero의 교육에서 그룹 상대 정책 최적화 또는 GRPO를 사용하여 비평가 모델을 제거하고 교육 비용을 낮 춥니 다. DeepSeek-R1 연구 논문에 대한 나의 이해에 관해서는, 여기에 Deepseek-R1-Zero 및 Deepseek-R1 모델의 개략도 훈련 과정이 있습니다.

    임시 Deepseek-r1-Zero 및 R1 훈련 다이어그램

    GRPO는 어떻게 작동합니까? 각 질문 Q에 대해 GRPO는 이전 정책에서 출력 그룹 {O1, O2, O2 ..} 아래의 목표를 극대화하여 정책 모델을 최적화합니다.

    여기에 엡실론과 베타는 하이퍼 파라미터이며, A_i는 각 그룹 내의 출력에 해당하는 보상 그룹 {r1, r2, r3… rg} 그룹을 사용하여 계산 된 이점입니다. Deepseek R1 '의 고급 추론 능력 디코딩 우위 계산

    우위 계산에서 그룹 출력 내에서 보상을 정상화하면 r_i

    출력에 대한 보상이 그룹의 모든 출력에 대한 보상입니다.

    .

    kl 페널티로 클리핑 정책 업데이트를 최대화하려면 kullback-leibler divergence Deepseek R1 '의 고급 추론 능력 디코딩 상대 엔트로피라고도하는 KL 발산은 통계적 거리 함수로 모델의 확률 분포 (Q)와 실제 확률 분포 (P). 더 많은 kl-divergence의 경우 아래 방정식은 kl-divergence의 수학적 형태입니다 :

    상대 엔트로피 또는 KL 거리는 항상 음이 아닌 실수입니다. q와 p가 동일 한 경우에만 가장 낮은 값이 0입니다. 즉, 모델 확률 분포 (Q) 및 실제 확률 분포 (P) 중첩 또는 완벽한 시스템이 모두 의미합니다. kl divergence의 예 kl divergence, 를 보여주는 간단한 예는 다음과 같습니다 우리는 Scipy 통계 패키지의 엔트로피 함수를 사용하면 두 분포 사이의 상대 엔트로피를 계산합니다.

    우리의 p와 q는 가우시안과 같은 가우스 분포로 각각 가우시안 유통입니다.

    노란색 부분은 p와 Q의 kl 차이입니다. GRPO 방정식에서 GRPO는 각 쿼리에 대한 출력 그룹을 샘플링하고 그룹의 평균 및 표준 편차에 비해 이점을 계산합니다. 이것은 별도의 비평가 모델을 훈련시키는 것을 피합니다. 목적에는 참조 정책에 가깝게 유지하기위한 클리션 비율과 KL 페널티가 포함됩니다.

    비율 부분은 신규 및 기존 정책의 확률 비율입니다. 클립 (비율)은 1-Epsilon과 1 Epsilon 사이에 제한됩니다.

    Deepseek R1 '의 고급 추론 능력 디코딩 사용자와 조수 간의 대화 프로세스 사용자는 질문을하고 모델이나 조수는 먼저 추론 과정에 대해 생각한 다음 사용자에게 응답함으로써이를 해결합니다. 추론과 답변은 아래 다이어그램에 동봉되어 있습니다.

    DeepSeek-R1-Zero의 자체 진화 과정은 강화 학습이 모델의 추론 능력을 자율적으로 향상시킬 수있는 방법을 보여줍니다. 차트는 복잡한 추론 작업을 처리하기위한 모델의 추론 능력을 보여줍니다.

    Deepseek R1 '의 고급 추론 능력 디코딩 DeepSeek-r1 deepseek-r1, 제로 모델의 유망한 결과 후에 발생하는 두 가지 중요한 질문에 답하십시오.

    추론 성능을 더욱 향상시킬 수 있습니까? 명확하고 일관된 사고 체인 (COT)뿐만 아니라 강력한 일반적인 기능을 보여주는 사용자 친화적 인 모델을 어떻게 훈련시킬 수 있습니까?
    import numpy as np
    import matplotlib.pyplot as plt
    from scipy.stats import entropy
    로그인 후 복사
    로그인 후 복사
    로그인 후 복사
    로그인 후 복사
    DeepSeek-R1은 콜드 스타트 ​​데이터를 사용하여 개발자가 수천 개의 콜드 스타트 ​​데이터를 수집하여 DeepSeek-V3-Base를 RL의 시작점으로 미세 조정합니다.

    이 데이터는 DeepSeek-R1-Zero와 비교하여 두 가지 중요한 장점이 있습니다

    가독성 Deepseek R1 '의 고급 추론 능력 디코딩 : 제로 모델의 주요 제한은 내용이 읽기에 적합하지 않다는 것입니다. 응답은 많은 언어와 혼합되어 있으며 사용자를위한 답변을 강조하기 위해 잘 형식화되지 않았습니다.

    전위 : 콜드 스타트 ​​데이터 패턴을 설계하여 DeepSeek-R1-Zero에 대한 더 나은 성능에 도움이됩니다. DeepSeek-r1 평가 DeepSeek-R1 용지에 따르면, 그들은 (개발자) 모델의 최대 생성 길이를 32768 토큰으로 설정했습니다. 그들은 긴 출력 추론 모델로 인해 탐욕스러운 디코딩과 상당한 변동성으로 반복 률이 높아졌습니다. 따라서 Pass@K 평가를 사용하고 각 질문에 대해 k 숫자 응답을 생성하기 위해 0.6의 샘플링 온도와 0.95의 상단 P 값을 사용합니다. 그런 다음@1 패스@1은 다음과 같이 계산됩니다

      <_> 여기서, P_I는 I-TH 응답의 정확성을 나타냅니다. 연구 논문에 따르면이 방법은보다 안정적인 성능 추정치를 보장합니다.
    • .
    • 우리는 MMLU, MMLU-PRO, GPQA DIAMOND 및 DEEPSEEK-R1과 같은 교육 지식 지식 벤치 마크가 DeepSeek-V3에 비해 더 나은 성능을 보인다는 것을 알 수 있습니다. STEM 관련 질문에서 주로 정확도가 향상되었습니다. DeepSeek-R1은 또한 형식 지침을 따르는 모델의 능력을 평가하도록 설계된 벤치 마크 데이터 인 if-Eval에 대한 훌륭한 결과를 제공합니다. 충분한 수학과 이론적 이해가 이루어졌으며, 이는 강화 학습에 대한 전반적인 지식과 DeepSeek-R1 모델 개발에 대한 최첨단 응용 프로그램을 크게 향상시키고 싶습니다. 이제 우리는 Ollama를 사용하여 Deepseek-R1에 손을 대고 새로 박하 LLM을 맛볼 것입니다. deepseek-7b 의 추론 능력 평가 DeepSeek-R1-7B의 평가는 강화 된 추론 기능, 특히 복잡한 문제 해결 시나리오에서의 성능에 중점을 둡니다. 주요 벤치 마크를 분석 함으로써이 평가는 모델이 이전 모델에 비해 복잡한 추론 작업을 얼마나 효과적으로 처리하는지에 대한 통찰력을 제공합니다. 우리가 달성하고 싶은 것

      다른인지 영역에서 DeepSeek-R1의 추론 능력을 평가하십시오 특정 추론 작업에서 강점과 한계를 식별하십시오 모델의 잠재적 인 실제 응용 프로그램 를 이해하십시오

      환경을 설정

      ollama를 에서 설치하십시오 시스템에 설치 한 후 터미널을 열고 아래 명령을 입력하면 DeepSeek-R1 7B 모델을 다운로드하여 시작합니다.

      이제 나는 ncert 에서 선형 불평등 질문을했습니다 Q.Solve 4x 3 & lt; 6x 7

      및 응답은 다음과 같습니다
      • 책에 따라 정확합니다.
      • Amazing !! 이제 Llamaindex를 사용하여 테스트 환경을 설정하여 더욱 두드러진 방법이 될 것입니다.
      • . 설정 테스트 환경

    • 이제 필요한 패키지를 설치합니다 패키지를 설치하십시오

    이제 vscode를 열고 Jupyter 노트북 이름 Prompt_analysis.ipynb 프로젝트 폴더의 루트를 만듭니다. 가져 오기 라이브러리

    당신은 터미널에서 Ollama deepseek-r1 : 7b를 계속 달려야합니다 이제 수학적 문제로 시작하십시오 imporant :

    모든 잠재적 문제를 식별 왜 각각이 문제인지 설명하십시오 수정 된 버전을 제공

    import numpy as np
    import matplotlib.pyplot as plt
    from scipy.stats import entropy
    로그인 후 복사
    로그인 후 복사
    로그인 후 복사
    로그인 후 복사
    솔루션이 더 나은 이유를 설명하십시오

    출력 :

    Deepseek R1 '의 고급 추론 능력 디코딩

    deepseek-r1은 에지 케이스를 찾고, 오류 조건을 이해하고, 보정을 적용하며, 기술 솔루션을 설명합니다. . <:> 비교 분석 : 전기 대 휘발유 차량 전기 자동차와 전통적인 휘발유 차량을 비교 :

    환경 영향

    장기 비용

    편의성

    성능
    # Define two probability distributions P and Q
    x = np.linspace(-3, 3, 100)
    P = np.exp(-(x**2))  # Gaussian-like distribution
    Q = np.exp(-((x - 1) ** 2))  # Shifted Gaussian
    
    # Normalize to ensure they sum to 1
    P /= P.sum()
    Q /= Q.sum()
    
    # Compute KL divergence
    kl_div = entropy(P, Q)
    로그인 후 복사
    각 요인에 대해 구체적인 예와 데이터 포인트를 제공하십시오. 그런 다음 어떤 자동차 유형의 자동차가 더 나은지 설명하십시오 :
      짧은 통근이있는 도시 거주자 매년 30,000 마일을 운전하는 여행용 영업 사원
    • 추천을 정당화하십시오.
    • 출력 :
    • 그것은 큰 반응입니다. 나는 추론 과정을 좋아했습니다. 여러 요소를 분석하고 컨텍스트를 고려하고, 좋은 권장 사항을 만들고, 경쟁 우선 순위를 균형을 유지합니다.
    • . > 윤리적 딜레마 : 자율 주행 차에서의 의사 결정
    • 자율 주행 차는 스플릿 초 결정을 내려야합니다
    • <:> swerve 왼쪽 : 두 명의 보행자를 때리십시오 <:> 오른쪽 : 벽을 때리고 승객을 심각하게 다치게하십시오
    <:> 오른쪽 : 벽을 때리고 승객을 심각하게 다치게하십시오
    plt.style.use("ggplot")
    plt.figure(figsize=(12, 8))
    plt.plot(x, P, label="P (Original)", line, color="blue")
    plt.plot(x, Q, label="Q (Shifted)", line, color="red")
    plt.fill_between(x, P, Q, color="yellow", alpha=0.3, label="Difference")
    plt.title(f"KL Divergence: {kl_div:.4f}")
    plt.xlabel("x")
    plt.ylabel("Probability Density")
    plt.legend()
    plt.show()
    로그인 후 복사

    차는 무엇을해야합니까? 다음을 고려하여 추론을 제공하십시오 윤리적 프레임 워크 사용 가정은 를 만들었습니다 우선 순위 계층

    장기적 영향

    Deepseek R1 '의 고급 추론 능력 디코딩 출력 :

    Deepseek R1 '의 고급 추론 능력 디코딩이러한 유형의 문제는 생성 AI 모델에 가장 문제가됩니다. 그것은 윤리적 추론, 다중 관점, 도덕적 딜레마 및 가치 판단을 테스트합니다. 전반적으로, 그것은 하나였습니다. 나는 더 윤리적 인 영역 별 미세 조정이 더 심오한 반응을 일으킬 것이라고 생각합니다.

    . 통계 분석 : 커피 소비에 대한 연구 주장 평가 연구에 따르면 커피를 마시는 사람은 비 관찰자보다 더 오래 살고 있다고 주장합니다. 이 연구는 5 년 동안 40-50 세의 1000 명을 관찰했습니다.

    식별 :

    잠재적 혼란 변수 샘플링 바이어스 대체 설명 결론을 강화하거나 약화시키는 추가 데이터는 무엇입니까?

    출력 :
    • 그것은 통계 개념을 충분히 이해하고, 연구 한계를 식별하고, 데이터에 대한 비판적 사고를 식별하고, 방법 론적 개선을 제안합니다.
    • . 시계열 분석
    • 출력 :
    • Deepseek은 수학적 문제를 좋아하고 지수 부패를 처리하며 수학적 모델을 제공하며 계산을 제공합니다. 스케줄링 작업
    출력 :
    import numpy as np
    import matplotlib.pyplot as plt
    from scipy.stats import entropy
    로그인 후 복사
    로그인 후 복사
    로그인 후 복사
    로그인 후 복사

    는 여러 제약 조건을 처리하고 최적화 된 일정을 생성하며 문제 해결 프로세스를 제공 할 수 있습니다. 크로스 도메인 분석 출력 :

    Deepseek R1 '의 고급 추론 능력 디코딩 그것은 다양한 유형의 도메인을 함께 비교하는 작업을 훌륭하게 수행하여 매우 인상적입니다. 이러한 유형의 추론은 다른 유형의 도메인이 서로 얽히도록 돕으므로 다른 도메인의 솔루션으로 하나의 도메인 문제를 해결할 수 있습니다. 그것은 크로스 도메인 이해에 대한 연구에 도움이됩니다.

    그러나 페니를 쓰지 않고 현지 시스템의 모델을 실험 할 수있는 많은 예제 프롬프트가 있습니다. 더 많은 연구를 위해 DeepSeek-R1을 사용하고 다른 영역에 대해 배우겠습니다. 당신이 필요한 것은 노트북, 시간, 좋은 곳입니다.

    이 기사에서 사용 된 모든 코드가 여기에 있습니다.

    결론 DeepSeek-R1은 다양한 추론 작업에 걸쳐 유망한 기능을 보여 주며, 구조화 된 논리 분석, 단계별 문제 해결, 다중 컨텍스트 이해 및 다양한 주제의 지식 축적에서 고급 추론 기능을 보여줍니다. 그러나 복잡한 시간적 추론, 깊은 ​​모호성 처리 및 창의적인 솔루션 생성과 같은 개선 영역이 있습니다. 가장 중요한 것은 GPU의 엄청난 훈련 비용의 부담없이 DeepSeek-R1과 같은 모델이 어떻게 개발 될 수 있는지 보여줍니다.

    오픈 소스 모델은 AI를 더 민주적 인 영역으로 향하게합니다. 이 교육 방법에 대한 새로운 연구가 곧 수행 될 것이며, 더 나은 추론 능력을 가진보다 강력하고 강력한 AI 모델로 이어질 것입니다. AGI는 여전히 먼 미래에 있을지 모르지만 DeepSeek-R1의 발전은 AGI가 사람들과 함께 나올 미래를 향한 것을 지적합니다. DeepSeek-R1은 의심 할 여지없이보다 진보 된 AI 추론 시스템을 실현하는 데 중요한 단계입니다. 키 테이크 아웃

    DeepSeek R1의 고급 추론 기능은 구조화 된 논리 분석을 수행하고, 단계별로 문제를 해결하며, 다른 영역에서 복잡한 맥락을 이해하는 능력을 통해 빛납니다.

    이 모델은 다양한 주제로부터 지식을 축적함으로써 추론의 경계를 넓히고, 다른 생성 LLM과 차별화되는 인상적인 다중 컨텍스트 이해를 보여줍니다. 강점에도 불구하고 DeepSeek R1의 고급 추론 능력은 여전히 ​​복잡한 시간적 추론 및 모호성 취급과 같은 영역에서 여전히 도전에 직면하여 향후 개선을위한 문을 열어줍니다.

    . DeepSeek R1은 모델을 개방형 소스로 만들면 추론을 발전시킬뿐만 아니라 최첨단 AI에 대한 접근성을 높이고 AI 개발에보다 민주적 인 접근 방식을 제공합니다.

    . Deepseek R1의 고급 추론 능력은 AI 모델의 향후 획기적인 길을 열어 주었고, 지속적인 연구와 혁신을 통해 AGI가 등장 할 수 있습니다.

    자주 묻는 질문

      q 1. DeepSeek-R1-7B는 추론 작업의 대형 모델과 어떻게 비교됩니까?
    • q 3. 이러한 평가 방법은 얼마나 신뢰할 수 있습니까? Human-> Prompt-> ai-> response-> human-> 실제 응답 이 기사에 나와있는 미디어는 Analytics Vidhya가 소유하지 않으며 저자의 재량에 따라 사용됩니다.

위 내용은 Deepseek R1 '의 고급 추론 능력 디코딩의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

<gum> : Bubble Gum Simulator Infinity- 로얄 키를 얻고 사용하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Nordhold : Fusion System, 설명
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora : 마녀 트리의 속삭임 - Grappling Hook 잠금 해제 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Agno 프레임 워크를 사용하여 멀티 모달 AI 에이전트를 구축하는 방법은 무엇입니까? Agno 프레임 워크를 사용하여 멀티 모달 AI 에이전트를 구축하는 방법은 무엇입니까? Apr 23, 2025 am 11:30 AM

에이전트 AI에서 작업하는 동안 개발자는 종종 속도, 유연성 및 자원 효율성 사이의 상충 관계를 탐색하는 것을 발견합니다. 나는 에이전트 AI 프레임 워크를 탐구하고 Agno를 만났다 (이전에는 ph-이었다.

SQL에서 열을 추가하는 방법? - 분석 Vidhya SQL에서 열을 추가하는 방법? - 분석 Vidhya Apr 17, 2025 am 11:43 AM

SQL의 Alter Table 문 : 데이터베이스에 열을 동적으로 추가 데이터 관리에서 SQL의 적응성이 중요합니다. 데이터베이스 구조를 즉시 조정해야합니까? Alter Table 문은 솔루션입니다. 이 안내서는 Colu를 추가합니다

Openai는 GPT-4.1로 초점을 이동하고 코딩 및 비용 효율성을 우선시합니다. Openai는 GPT-4.1로 초점을 이동하고 코딩 및 비용 효율성을 우선시합니다. Apr 16, 2025 am 11:37 AM

릴리스에는 GPT-4.1, GPT-4.1 MINI 및 GPT-4.1 NANO의 세 가지 모델이 포함되어 있으며, 대형 언어 모델 환경 내에서 작업 별 최적화로 이동합니다. 이 모델은 사용자를 향한 인터페이스를 즉시 대체하지 않습니다

라마 드라마 너머 : 대형 언어 모델에 대한 4 개의 새로운 벤치 마크 라마 드라마 너머 : 대형 언어 모델에 대한 4 개의 새로운 벤치 마크 Apr 14, 2025 am 11:09 AM

문제가있는 벤치 마크 : 라마 사례 연구 2025 년 4 월 초, Meta는 LLAMA 4 제품군을 공개하여 GPT-4O 및 Claude 3.5 Sonnet과 같은 경쟁자들에 대해 호의적으로 배치 한 인상적인 성능 지표를 자랑했습니다. Launc의 중심

Andrew Ng의 모델 임베딩에 대한 새로운 단기 과정 Andrew Ng의 모델 임베딩에 대한 새로운 단기 과정 Apr 15, 2025 am 11:32 AM

임베딩 모델의 힘 잠금 해제 : Andrew Ng의 새로운 코스에 대한 깊은 다이빙 기계가 완벽한 정확도로 질문을 이해하고 응답하는 미래를 상상해보십시오. 이것은 공상 과학이 아닙니다. AI의 발전 덕분에 R이되었습니다

ADHD 게임, 건강 도구 및 AI 챗봇이 글로벌 건강을 변화시키는 방법 ADHD 게임, 건강 도구 및 AI 챗봇이 글로벌 건강을 변화시키는 방법 Apr 14, 2025 am 11:27 AM

비디오 게임이 불안을 완화하거나 집중하거나 ADHD를 가진 어린이를 지원할 수 있습니까? 건강 관리 도전이 전 세계적으로 급증함에 따라, 특히 청소년들 사이에서 혁신가들은 비디오 게임 인 가능성이없는 도구로 전환하고 있습니다. 이제 세계 최대의 엔터테인먼트 인더스 중 하나입니다

Rocketpy -Analytics Vidhya를 사용한 로켓 런칭 시뮬레이션 및 분석 Rocketpy -Analytics Vidhya를 사용한 로켓 런칭 시뮬레이션 및 분석 Apr 19, 2025 am 11:12 AM

Rocketpy : 포괄적 인 가이드로 로켓 발사 시뮬레이션 이 기사는 강력한 파이썬 라이브러리 인 Rocketpy를 사용하여 고출력 로켓 런칭을 시뮬레이션하는 것을 안내합니다. 로켓 구성 요소 정의에서 Simula 분석에 이르기까지 모든 것을 다룰 것입니다.

Google은 다음 2025 년 클라우드에서 가장 포괄적 인 에이전트 전략을 공개합니다. Google은 다음 2025 년 클라우드에서 가장 포괄적 인 에이전트 전략을 공개합니다. Apr 15, 2025 am 11:14 AM

Google의 AI 전략의 기초로서 Gemini Gemini는 Google의 AI 에이전트 전략의 초석으로 고급 멀티 모드 기능을 활용하여 텍스트, 이미지, 오디오, 비디오 및 코드에서 응답을 처리하고 생성합니다. Deepm에 의해 개발되었습니다

See all articles