ホームページ テクノロジー周辺機器 AI 微調整Google Gemma:カスタマイズされた手順でLLMを強化します

微調整Google Gemma:カスタマイズされた手順でLLMを強化します

Mar 07, 2025 am 10:01 AM

Google Deepmind's Gemma:オープンソースLLMS

に深く潜ります

AIの風景は、特にオープンソースの大手言語モデル(LLMS)に関して、アクティビティで賑わっています。 Google、Meta、Twitterなどのハイテク大手は、オープンソースの開発をますます受け入れています。 Google Deepmindは最近、GoogleのGeminiモデルと同じ基礎的な研究と技術を使用して構築された軽量でオープンソースLLMのファミリーであるGemmaを発表しました。この記事では、クラウドGPUとTPUを介したアクセシビリティをGemmaモデルで説明し、ロールプレイングデータセットでGemma 7B-ITモデルを微調整するための段階的なガイドを提供します。

GoogleのGemmaを理解してください

gemma(ラテン語の「貴重な石」を意味する)は、主にGoogle Deepmindによって開発されたデコーダーのみのテキストからテキストのオープンモデルのファミリーです。 Geminiモデルに触発されたGemmaは、軽量操作と幅広いフレームワークの互換性のために設計されています。 Googleは、2つのGemmaサイズのモデル重量をリリースしました:2Bと7Bは、それぞれが事前に訓練された命令チューニングされたバリアント(Gemma 2B-ITおよびGemma 7B-ITなど)で利用できます。 Gemmaのパフォーマンスは他のオープンモデルに匹敵します。

画像ソースFine Tuning Google Gemma: Enhancing LLMs with Customized Instructions Gemmaの汎用性は、複数のフレームワーク(Keras 3.0、Pytorch、Jax、Hugging Face Transformers)および多様なハードウェア(ラップトップ、デスクトップ、IoTデバイス、モバイル、クラウド)のサポートにまで及びます。 人気のある機械学習フレームワークを使用して、推論と監視付き微調整(SFT)は、無料のクラウドTPUで可能です。 さらに、GoogleはGemmaと一緒に責任ある生成AIツールキットを提供し、開発者がより安全なAIアプリケーションを作成するためのガイダンスとツールを提供します。 AIおよびLLMSの初心者は、基礎知識のためにAIの基礎スキルトラックを探ることをお勧めします。 GoogleのGemmaモデルへのアクセス

ジェマへのアクセスは簡単です。 無料アクセスは、HuggingchatとPoeから入手できます。 また、顔を抱きしめ、GPT4allまたはLMStudioを利用してモデルの重みをダウンロードすることで、ローカルの使用も可能です。 このガイドは、推論のためにKaggleの無料GPUとTPUを使用することに焦点を当てています。 tpusでgemmaの推論を実行している

Kerasを使用してTPUでGemma推論を実行するには、次の手順に従ってください。
  1. keras/gemmaに移動し、「gemma_instruct_2b_en」モデルバリアントを選択し、「新しいノート」をクリックします。
  2. 右のパネルで、アクセラレータとして「TPU VM V3-8」を選択します。
  3. 必要なPythonライブラリをインストールする:
!pip install -q tensorflow-cpu
!pip install -q -U keras-nlp tensorflow-hub
!pip install -q -U keras>=3
!pip install -q -U tensorflow-text
ログイン後にコピー
  1. を使用してTPUの可用性を確認します jax.devices()kerasバックエンドとして
  2. を設定:
  3. jax os.environ["KERAS_BACKEND"] = "jax"
  4. を使用してモデルをロードし、
  5. 関数を使用してテキストを生成します。keras_nlp generate

画像ソースFine Tuning Google Gemma: Enhancing LLMs with Customized Instructions GPUでgemma推論を実行している

変圧器を使用したGPU推論については、次の手順に従います

Google/Gemmaに移動し、「トランス」を選択し、「7B-IT」バリアントを選択し、新しいノートを作成します。

AcceleratorとしてGPT T4 X2を選択します

必要なパッケージをインストールする:
  1. VRAM管理用のbitsandBytesを使用して4ビット量子化を使用してモデルをロードします。
  2. トークン剤をロードします。
  3. プロンプトを作成し、トークン化し、モデルに渡し、出力をデコードし、結果を表示します。
%%capture
%pip install -U bitsandbytes
%pip install -U transformers
%pip install -U accelerate
ログイン後にコピー
  1. 画像ソース
  2. GoogleのGemmaの微調整:ステップバイステップガイド
  3. このセクションでは、Kaggle P100 GPUを使用して、
  4. データセットで微調整されたgemma 7b-itを詳しく説明しています。
セットアップ

Fine Tuning Google Gemma: Enhancing LLMs with Customized Instructions 必要なパッケージをインストール:

必要なライブラリをインポートします。

hieunguyenminh/roleplayベースモデル、データセット、および微調整されたモデル名の変数を定義します。

APIキーを使用してFace CLIを抱き締めるためにログインします。

ウェイトとバイアス(W&B)ワークスペースを初期化します。

  1. データセットの読み込み
ロールプレイングデータセットの最初の1000行をロードします。
%%capture 
%pip install -U bitsandbytes 
%pip install -U transformers 
%pip install -U peft 
%pip install -U accelerate 
%pip install -U trl
%pip install -U datasets
ログイン後にコピー
    モデルとトークンザーのロード
  1. bitsandbytesを使用して4ビット精度を使用してGemma 7b-itモデルをロードします。トークン剤をロードし、パッドトークンを構成します
  2. アダプターレイヤーの追加
  3. ロラアダプターレイヤーを追加して、モデルを効率的に微調整します。
  4. モデルのトレーニング
  5. トレーニング引数(ハイパーパラメーター)を定義し、SFTTrainerを作成します。

を使用してモデルをトレーニングします

モデルの保存

微調整されたモデルをローカルに保存し、抱きしめる顔のハブに押し込みます。

モデル推論

微調整されたモデルを使用して応答を生成します ロールプレイアダプターを備えた

gemma 7b推論

このセクションでは、ベースモデルと訓練されたアダプターをロードし、それらをマージし、応答を生成する方法を示しています。

最終的な考え

GoogleのGemmaのリリースは、AIでのオープンソースコラボレーションへのシフトを意味します。 このチュートリアルは、オープンソースの開発とクラウドコンピューティングリソースの力を強調した、Gemmaモデルを使用および微調整するための包括的なガイドを提供しました。 次のステップは、Langchainなどのフレームワークを使用して独自のLLMベースのアプリケーションを構築することです。

以上が微調整Google Gemma:カスタマイズされた手順でLLMを強化しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Meta Llama 3.2を始めましょう - 分析Vidhya Meta Llama 3.2を始めましょう - 分析Vidhya Apr 11, 2025 pm 12:04 PM

メタのラマ3.2:マルチモーダルとモバイルAIの前進 メタは最近、ラマ3.2を発表しました。これは、モバイルデバイス向けに最適化された強力なビジョン機能と軽量テキストモデルを特徴とするAIの大幅な進歩です。 成功に基づいてo

10生成AIコーディング拡張機能とコードのコードを探る必要があります 10生成AIコーディング拡張機能とコードのコードを探る必要があります Apr 13, 2025 am 01:14 AM

ねえ、忍者をコーディング!その日はどのようなコーディング関連のタスクを計画していますか?このブログにさらに飛び込む前に、コーディング関連のすべての問題について考えてほしいです。 終わり? - &#8217を見てみましょう

AVバイト:Meta' s llama 3.2、GoogleのGemini 1.5など AVバイト:Meta' s llama 3.2、GoogleのGemini 1.5など Apr 11, 2025 pm 12:01 PM

今週のAIの風景:進歩、倫理的考慮、規制の議論の旋風。 Openai、Google、Meta、Microsoftのような主要なプレーヤーは、画期的な新しいモデルからLEの重要な変化まで、アップデートの急流を解き放ちました

従業員へのAI戦略の販売:Shopify CEOのマニフェスト 従業員へのAI戦略の販売:Shopify CEOのマニフェスト Apr 10, 2025 am 11:19 AM

Shopify CEOのTobiLütkeの最近のメモは、AIの能力がすべての従業員にとって基本的な期待であると大胆に宣言し、会社内の重大な文化的変化を示しています。 これはつかの間の傾向ではありません。これは、pに統合された新しい運用パラダイムです

GPT-4o vs Openai O1:新しいOpenaiモデルは誇大広告に値しますか? GPT-4o vs Openai O1:新しいOpenaiモデルは誇大広告に値しますか? Apr 13, 2025 am 10:18 AM

導入 Openaiは、待望の「Strawberry」アーキテクチャに基づいて新しいモデルをリリースしました。 O1として知られるこの革新的なモデルは、推論能力を強化し、問題を通じて考えられるようになりました

ビジョン言語モデル(VLM)の包括的なガイド ビジョン言語モデル(VLM)の包括的なガイド Apr 12, 2025 am 11:58 AM

導入 鮮やかな絵画や彫刻に囲まれたアートギャラリーを歩くことを想像してください。さて、各ピースに質問をして意味のある答えを得ることができたらどうでしょうか?あなたは尋ねるかもしれません、「あなたはどんな話を言っていますか?

最高の迅速なエンジニアリング技術の最新の年次編集 最高の迅速なエンジニアリング技術の最新の年次編集 Apr 10, 2025 am 11:22 AM

私のコラムに新しいかもしれない人のために、具体化されたAI、AI推論、AIのハイテクブレークスルー、AIの迅速なエンジニアリング、AIのトレーニング、AIのフィールディングなどのトピックなど、全面的なAIの最新の進歩を広く探求します。

SQLに列を追加する方法は? - 分析Vidhya SQLに列を追加する方法は? - 分析Vidhya Apr 17, 2025 am 11:43 AM

SQLの変更テーブルステートメント:データベースに列を動的に追加する データ管理では、SQLの適応性が重要です。 その場でデータベース構造を調整する必要がありますか? Alter Tableステートメントはあなたの解決策です。このガイドの詳細は、コルを追加します

See all articles