Zephyr-7Bの包括的なガイド:機能、使用、微調整
Zephyr-7Bを探索:強力なオープンソースLLM
Openai LLMリーダーボードは、GPT-4のライバルを目指した新しいオープンソースモデルで賑わっており、Zephyr-7Bは傑出した候補です。このチュートリアルでは、WebPilot.aiのこの最先端の言語モデルを調査し、トランスフォーマーパイプラインでの使用とエージェントインストラクションデータセットでの微調整を示しています。 AIは初めてですか? AIの基礎スキルトラックは素晴らしい出発点です。
Zephyr-7bを理解しています Zephyrシリーズの一部である
Zephyr-7Bは、役立つアシスタントとして機能するように訓練されています。その強みは、コヒーレントテキストの生成、言語の翻訳、情報の要約、センチメント分析、およびコンテキスト認識の質問にあります。Zephyr-7B-β:微調整されたマーベル
シリーズの2番目のモデルであるZephyr-7B-βは、微調整されたMistral-7Bモデルです。 公共および合成データセットのブレンドで直接優先最適化(DPO)を使用してトレーニングされ、複雑なクエリの解釈と長いテキストの要約に優れています。 そのリリースでは、MTベンチとアルパカエバルのベンチマークの7Bチャットモデルの中でトップの地位を保持しました。 Zephyr Chatで無料のデモでその機能をテストします。Zephyr Chatの画像
フェイストランスを抱きしめてZephyr-7Bにアクセス
このチュートリアルでは、簡単にアクセスできるようにフェイストランスを抱き締めます。 (読み込みの問題に遭遇した場合は、推論Kaggleノートブックを参照してください。)
ライブラリをインストール:
最新のバージョンがあることを確認してください:
- インポートライブラリ:
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
- パイプラインの作成:
import torch from transformers import pipeline
-
device_map="auto"
テキストの生成:torch.bfloat16
以下の例は、Pythonコードの生成を示しています
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
- システムのプロンプト:
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
-
カスタムデータセットで微調整するZephyr-7B
このセクションでは、Kaggleの無料GPU(約2時間)を使用して、カスタムデータセットで微調整するZephyr-7B-betaをガイドします。 (トラブルシューティングについては、微調整されたKaggleノートブックを参照してください。)
環境のセットアップと準備
- ライブラリをインストール:
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
ログイン後にコピーログイン後にコピー- インポートモジュール:
import torch from transformers import pipeline
ログイン後にコピーログイン後にコピー-
Kaggle Secrets(Kaggle Notebooksの場合):ハグの顔と重量とバイアスAPIキーを取得します。
-
顔と重量とバイアスの抱きしめログイン:
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
ログイン後にコピーログイン後にコピー- モデル名とデータセット名を定義します:
AgentInStruct DataSet Processingprompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
ログイン後にコピーログイン後にコピー関数は、データセットをZephyr-7Bのプロンプトスタイルに適応させます。
format_prompt
messages = [ { "role": "system", "content": "You are a skilled software engineer who consistently produces high-quality Python code.", }, { "role": "user", "content": "Write a Python code to display text in a star pattern.", }, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
ログイン後にコピーモデルの読み込みと準備
4ビット精度のロードモデル:
これは、vRAMが限られているGPUでの効率的なトレーニングに不可欠です。- ロードトークイザー:
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl
ログイン後にコピー- アダプターレイヤーの追加(PEFT):
# ... (Import statements as in original tutorial) ...
ログイン後にコピー- モデルのトレーニング
HyperParametersを構成します(詳細については、微調整Llama 2チュートリアルを参照してください)。!huggingface-cli login --token $secret_hf # ... (wandb login as in original tutorial) ...
ログイン後にコピー- sftトレーナー:hugging hugging faceのTRLライブラリを使用してトレーナーを作成します。
base_model = "HuggingFaceH4/zephyr-7b-beta" dataset_name = "THUDM/AgentInstruct" new_model = "zephyr-7b-beta-Agent-Instruct"
ログイン後にコピー- トレーニングを開始:
# ... (format_prompt function and dataset loading as in original tutorial) ...
ログイン後にコピー- 微調整されたモデルの保存と展開
# ... (bnb_config and model loading as in original tutorial) ...
ログイン後にコピーモデルを保存:
- 顔のハブを抱き締めるへのプッシュ:
# ... (tokenizer loading and configuration as in original tutorial) ...
ログイン後にコピー- 微調整されたモデルのテスト
# ... (peft_config and model preparation as in original tutorial) ...
ログイン後にコピー結論
Zephyr-7b-betaは印象的な能力を示しています。このチュートリアルは、リソースに制約のあるGPUでさえ、この強力なLLMを利用および微調整するための包括的なガイドを提供します。 より深いLLM知識のためのマスターラージランゲージモデル(LLMS)コンセプトコースを検討してください。
以上がZephyr-7Bの包括的なガイド:機能、使用、微調整の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











ねえ、忍者をコーディング!その日はどのようなコーディング関連のタスクを計画していますか?このブログにさらに飛び込む前に、コーディング関連のすべての問題について考えてほしいです。 終わり? - &#8217を見てみましょう

導入 Openaiは、待望の「Strawberry」アーキテクチャに基づいて新しいモデルをリリースしました。 O1として知られるこの革新的なモデルは、推論能力を強化し、問題を通じて考えられるようになりました

SQLの変更テーブルステートメント:データベースに列を動的に追加する データ管理では、SQLの適応性が重要です。 その場でデータベース構造を調整する必要がありますか? Alter Tableステートメントはあなたの解決策です。このガイドの詳細は、コルを追加します

導入 Mistralは、最初のマルチモーダルモデル、つまりPixtral-12B-2409をリリースしました。このモデルは、Mistralの120億個のパラメーターであるNemo 12bに基づいて構築されています。このモデルを際立たせるものは何ですか?これで、画像とTexの両方を採用できます

エージェントAIに取り組んでいる間、開発者は速度、柔軟性、リソース効率の間のトレードオフをナビゲートすることがよくあります。私はエージェントAIフレームワークを探索していて、Agnoに出会いました(以前はPhi-でした。

問題のあるベンチマーク:ラマのケーススタディ 2025年4月上旬、MetaはLlama 4スイートのモデルを発表し、GPT-4oやClaude 3.5 Sonnetなどの競合他社に対して好意的に位置付けた印象的なパフォーマンスメトリックを誇っています。ラウンクの中心

ビデオゲームは不安を緩和したり、ADHDの子供を焦点を合わせたり、サポートしたりできますか? ヘルスケアの課題が世界的に急増しているため、特に若者の間では、イノベーターはありそうもないツールであるビデオゲームに目を向けています。現在、世界最大のエンターテイメントインダスの1つです

埋め込みモデルのパワーのロックを解除する:Andrew Ngの新しいコースに深く飛び込む マシンがあなたの質問を完全に正確に理解し、応答する未来を想像してください。 これはサイエンスフィクションではありません。 AIの進歩のおかげで、それはRになりつつあります
