目次
ライブラリをインストール:
環境のセットアップと準備
結論
ホームページ テクノロジー周辺機器 AI Zephyr-7Bの包括的なガイド:機能、使用、微調整

Zephyr-7Bの包括的なガイド:機能、使用、微調整

Mar 08, 2025 am 09:55 AM

Zephyr-7Bを探索:強力なオープンソースLLM

Openai LLMリーダーボードは、GPT-4のライバルを目指した新しいオープンソースモデルで賑わっており、Zephyr-7Bは傑出した候補です。このチュートリアルでは、WebPilot.aiのこの最先端の言語モデルを調査し、トランスフォーマーパイプラインでの使用とエージェントインストラクションデータセットでの微調整を示しています。 AIは初めてですか? AIの基礎スキルトラックは素晴らしい出発点です。

Zephyr-7b

を理解しています Zephyrシリーズの一部である

Zephyr-7Bは、役立つアシスタントとして機能するように訓練されています。その強みは、コヒーレントテキストの生成、言語の翻訳、情報の要約、センチメント分析、およびコンテキスト認識の質問にあります。

Zephyr-7B-β:微調整されたマーベル

シリーズの2番目のモデルであるZephyr-7B-βは、微調整されたMistral-7Bモデルです。 公共および合成データセットのブレンドで直接優先最適化(DPO)を使用してトレーニングされ、複雑なクエリの解釈と長いテキストの要約に優れています。 そのリリースでは、MTベンチとアルパカエバルのベンチマークの7Bチャットモデルの中でトップの地位を保持しました。 Zephyr Chatで無料のデモでその機能をテストします。

Zephyr Chatの画像

フェイストランスを抱きしめてZephyr-7Bにアクセス

このチュートリアルでは、簡単にアクセスできるようにフェイストランスを抱き締めます。 (読み込みの問題に遭遇した場合は、推論Kaggleノートブックを参照してください。)

ライブラリをインストール:

最新のバージョンがあることを確認してください:

  1. インポートライブラリ:
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
ログイン後にコピー
ログイン後にコピー
  1. パイプラインの作成:
は、より高速な生成のために複数のGPUを使用します。
import torch
from transformers import pipeline
ログイン後にコピー
ログイン後にコピー
は、計算の速度とメモリの使用量の減少を提供します(ただし、精度がわずかに低く)。
  1. device_map="auto"テキストの生成:torch.bfloat16以下の例は、Pythonコードの生成を示しています
model_name = "HuggingFaceH4/zephyr-7b-beta"

pipe = pipeline(
    "text-generation",
    model=model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)
ログイン後にコピー
ログイン後にコピー
  1. システムのプロンプト:
Zephyr-7Bスタイルのシステムプロンプトを使用して応答をカスタマイズします:
prompt = "Write a Python function that can clean the HTML tags from the file:"

outputs = pipe(
    prompt,
    max_new_tokens=300,
    do_sample=True,
    temperature=0.7,
    top_k=50,
    top_p=0.95,
)
print(outputs[0]["generated_text"])
ログイン後にコピー
ログイン後にコピー

Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

  1. カスタムデータセットで微調整するZephyr-7B このセクションでは、Kaggleの無料GPU(約2時間)を使用して、カスタムデータセットで微調整するZephyr-7B-betaをガイドします。 (トラブルシューティングについては、微調整されたKaggleノートブックを参照してください。)

    環境のセットアップと準備

    1. ライブラリをインストール:
    !pip install -q -U transformers
    !pip install -q -U accelerate
    !pip install -q -U bitsandbytes
    ログイン後にコピー
    ログイン後にコピー
    1. インポートモジュール:
    import torch
    from transformers import pipeline
    ログイン後にコピー
    ログイン後にコピー
    1. Kaggle Secrets(Kaggle Notebooksの場合):ハグの顔と重量とバイアスAPIキーを取得します。

    2. 顔と重量とバイアスの抱きしめログイン:

    model_name = "HuggingFaceH4/zephyr-7b-beta"
    
    pipe = pipeline(
        "text-generation",
        model=model_name,
        torch_dtype=torch.bfloat16,
        device_map="auto",
    )
    ログイン後にコピー
    ログイン後にコピー

    Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

    1. モデル名とデータセット名を定義します:
    prompt = "Write a Python function that can clean the HTML tags from the file:"
    
    outputs = pipe(
        prompt,
        max_new_tokens=300,
        do_sample=True,
        temperature=0.7,
        top_k=50,
        top_p=0.95,
    )
    print(outputs[0]["generated_text"])
    ログイン後にコピー
    ログイン後にコピー
    AgentInStruct DataSet Processing

    関数は、データセットをZephyr-7Bのプロンプトスタイルに適応させます。 format_prompt

    messages = [
        {
            "role": "system",
            "content": "You are a skilled software engineer who consistently produces high-quality Python code.",
        },
        {
            "role": "user",
            "content": "Write a Python code to display text in a star pattern.",
        },
    ]
    
    prompt = pipe.tokenizer.apply_chat_template(
        messages, tokenize=False, add_generation_prompt=True
    )
    
    outputs = pipe(
        prompt,
        max_new_tokens=300,
        do_sample=True,
        temperature=0.7,
        top_k=50,
        top_p=0.95,
    )
    print(outputs[0]["generated_text"])
    ログイン後にコピー

    Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning モデルの読み込みと準備

    4ビット精度のロードモデル:

    これは、vRAMが限られているGPUでの効率的なトレーニングに不可欠です。
    1. ロードトークイザー:
    %%capture
    %pip install -U bitsandbytes
    %pip install -U transformers
    %pip install -U peft
    %pip install -U accelerate
    %pip install -U trl
    ログイン後にコピー
    1. アダプターレイヤーの追加(PEFT):
    これにより、アダプターレイヤーのパラメーターのみを更新することで効率的な微調整が可能になります。
    # ... (Import statements as in original tutorial) ...
    ログイン後にコピー
    1. モデルのトレーニング
    トレーニングの議論:
    !huggingface-cli login --token $secret_hf
    # ... (wandb login as in original tutorial) ...
    ログイン後にコピー
    HyperParametersを構成します(詳細については、微調整Llama 2チュートリアルを参照してください)。

    1. sftトレーナー:hugging hugging faceのTRLライブラリを使用してトレーナーを作成します。
    base_model = "HuggingFaceH4/zephyr-7b-beta"
    dataset_name = "THUDM/AgentInstruct"
    new_model = "zephyr-7b-beta-Agent-Instruct"
    ログイン後にコピー
    1. トレーニングを開始:
    # ... (format_prompt function and dataset loading as in original tutorial) ...
    ログイン後にコピー
    1. 微調整されたモデルの保存と展開
    # ... (bnb_config and model loading as in original tutorial) ...
    ログイン後にコピー

    モデルを保存:Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

    1. 顔のハブを抱き締めるへのプッシュ:
    # ... (tokenizer loading and configuration as in original tutorial) ...
    ログイン後にコピー
    1. 微調整されたモデルのテスト
    さまざまなプロンプトでモデルのパフォーマンスをテストします。例は、元のチュートリアルで提供されています。
    # ... (peft_config and model preparation as in original tutorial) ...
    ログイン後にコピー

    Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning Comprehensive Guide to Zephyr-7B: Features, Usage, and Fine-tuning

    結論

    Zephyr-7b-betaは印象的な能力を示しています。このチュートリアルは、リソースに制約のあるGPUでさえ、この強力なLLMを利用および微調整するための包括的なガイドを提供します。 より深いLLM知識のためのマスターラージランゲージモデル(LLMS)コンセプトコースを検討してください。

以上がZephyr-7Bの包括的なガイド:機能、使用、微調整の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

10生成AIコーディング拡張機能とコードのコードを探る必要があります 10生成AIコーディング拡張機能とコードのコードを探る必要があります Apr 13, 2025 am 01:14 AM

ねえ、忍者をコーディング!その日はどのようなコーディング関連のタスクを計画していますか?このブログにさらに飛び込む前に、コーディング関連のすべての問題について考えてほしいです。 終わり? - &#8217を見てみましょう

GPT-4o vs Openai O1:新しいOpenaiモデルは誇大広告に値しますか? GPT-4o vs Openai O1:新しいOpenaiモデルは誇大広告に値しますか? Apr 13, 2025 am 10:18 AM

導入 Openaiは、待望の「Strawberry」アーキテクチャに基づいて新しいモデルをリリースしました。 O1として知られるこの革新的なモデルは、推論能力を強化し、問題を通じて考えられるようになりました

SQLに列を追加する方法は? - 分析Vidhya SQLに列を追加する方法は? - 分析Vidhya Apr 17, 2025 am 11:43 AM

SQLの変更テーブルステートメント:データベースに列を動的に追加する データ管理では、SQLの適応性が重要です。 その場でデータベース構造を調整する必要がありますか? Alter Tableステートメントはあなたの解決策です。このガイドの詳細は、コルを追加します

PIXTRAL -12B:Mistral AI'の最初のマルチモーダルモデル-Analytics Vidhya PIXTRAL -12B:Mistral AI'の最初のマルチモーダルモデル-Analytics Vidhya Apr 13, 2025 am 11:20 AM

導入 Mistralは、最初のマルチモーダルモデル、つまりPixtral-12B-2409をリリースしました。このモデルは、Mistralの120億個のパラメーターであるNemo 12bに基づいて構築されています。このモデルを際立たせるものは何ですか?これで、画像とTexの両方を採用できます

AGNOフレームワークを使用してマルチモーダルAIエージェントを構築する方法は? AGNOフレームワークを使用してマルチモーダルAIエージェントを構築する方法は? Apr 23, 2025 am 11:30 AM

エージェントAIに取り組んでいる間、開発者は速度、柔軟性、リソース効率の間のトレードオフをナビゲートすることがよくあります。私はエージェントAIフレームワークを探索していて、Agnoに出会いました(以前はPhi-でした。

ラマドラマを超えて:大規模な言語モデル用の4つの新しいベンチマーク ラマドラマを超えて:大規模な言語モデル用の4つの新しいベンチマーク Apr 14, 2025 am 11:09 AM

問題のあるベンチマーク:ラマのケーススタディ 2025年4月上旬、MetaはLlama 4スイートのモデルを発表し、GPT-4oやClaude 3.5 Sonnetなどの競合他社に対して好意的に位置付けた印象的なパフォーマンスメトリックを誇っています。ラウンクの中心

ADHDゲーム、ヘルスツール、AIチャットボットがグローバルヘルスを変える方法 ADHDゲーム、ヘルスツール、AIチャットボットがグローバルヘルスを変える方法 Apr 14, 2025 am 11:27 AM

ビデオゲームは不安を緩和したり、ADHDの子供を焦点を合わせたり、サポートしたりできますか? ヘルスケアの課題が世界的に急増しているため、特に若者の間では、イノベーターはありそうもないツールであるビデオゲームに目を向けています。現在、世界最大のエンターテイメントインダスの1つです

Andrew Ngによる埋め込みモデルに関する新しいショートコース Andrew Ngによる埋め込みモデルに関する新しいショートコース Apr 15, 2025 am 11:32 AM

埋め込みモデルのパワーのロックを解除する:Andrew Ngの新しいコースに深く飛び込む マシンがあなたの質問を完全に正確に理解し、応答する未来を想像してください。 これはサイエンスフィクションではありません。 AIの進歩のおかげで、それはRになりつつあります

See all articles