Jamba 1.5:ハイブリッドマンバトランスフォーマーアーキテクチャをフィーチャー
Jamba 1.5:長いコンテキスト処理のための強力なハイブリッド言語モデル
AI21 Labsの最先端の大規模な言語モデルであるJamba 1.5は、広範なテキストコンテキストを処理するための印象的な機能を誇っています。 Jamba 1.5の大規模なパラメーター(940億パラメーター)とJamba 1.5 Mini(120億パラメーター)の2つのバージョンがあります。これは、Mamba構造化状態空間モデル(SSM)と従来の変圧器アーキテクチャを組み合わせたユニークなハイブリッドアーキテクチャを活用しています。この革新的なアプローチにより、前例のない256K有効コンテキストウィンドウを処理することができます。これは、オープンソースモデルの大幅な飛躍です。
主な機能と機能:
- 大規模なコンテキストウィンドウ:最大256kのトークンを処理し、長いドキュメントや複雑なタスクに最適です。
- ハイブリッドアーキテクチャ:トランスモデルとMAMBAモデルの強度を組み合わせて、最適な効率とパフォーマンスを実現します。
- 効率的な量子化:メモリフットプリントを削減し、処理を速くするために、ExpertSINT8量子化を採用します。
- 多言語サポート: 9つの言語で効果的に機能します:英語、スペイン語、フランス語、ポルトガル語、イタリア語、オランダ語、ドイツ語、アラビア語、ヘブライ語。
- 汎用性の高いアプリケーション:質問の回答、要約、テキスト生成、分類など、幅広いNLPタスクに適しています。
- アクセス可能な展開: AI21のStudio API、Hugging Face、Cloud Partnersを介して利用できます。
アーキテクチャの詳細:
側面 | 詳細 |
---|---|
ベースアーキテクチャ | 混合物(MOE)モジュールを備えたハイブリッドトランスマンバアーキテクチャ |
モデルバリアント | Jamba-1.5-large(94bアクティブパラメーター、合計398b)およびJamba-1.5-mini(12bアクティブパラメーター、52b合計) |
層構成 | 9ブロック、それぞれ8層があります。 1:7トランスとマンバ層の比率 |
専門家の混合(MOE) | 16人の専門家、トークンあたり上位2を選択します |
隠された寸法 | 8192 |
注意ヘッド | 64クエリヘッド、8キー価値ヘッド |
コンテキストの長さ | 最大256Kトークン |
量子化技術 | MOEおよびMLPレイヤー用のExpertSINT8 |
アクティベーション機能 | 統合変圧器とMAMBAの活性化 |
効率 | 8x80GB GPUで高スループットと低レイテンシ向けに最適化されています |
Jamba 1.5へのアクセスと利用:
Jamba 1.5は、AI21のStudio APIと抱き合った顔を介してすぐにアクセスできます。このモデルは、特定のドメインがパフォーマンスをさらに向上させるために微調整できます。 AI21 APIを使用したPythonの例を以下に示します。
Pythonの例:
AI21からAI21Clientをインポートします ai21.models.chatからchatmessageをインポートします メッセージ= [chatmessage(content = "2〜3行のトークンザーとは?"、role = "user")]] client = ai21client(api_key = '')#apiキーに置き換えます Response = client.chat.completions.create( メッセージ=メッセージ、 Model = "Jamba-1.5-mini"、 ストリーム= true )) それに応じてチャンクの場合: print(chunk.choices [0] .delta.content、end = "")
結論:
Jamba 1.5は、大規模な言語モデルの大幅な進歩を表しており、力と効率の魅力的な融合を提供します。汎用性の高いアプリケーションとアクセス可能な展開オプションと相まって、非常に長いコンテキストを処理する能力は、幅広いNLPタスクにとって貴重なツールになります。
よくある質問(FAQ):(オリジナルに似ていますが、簡潔さのために言い換えられます)
- Q1:Jamba 1.5とは何ですか? A:94B(大)または12B(ミニ)パラメーターを備えたハイブリッドトランスマンバの大型言語モデル、指示のフォローおよび長いコンテキスト処理のために最適化されています。
- Q2:Jamba 1.5は長いコンテキストを効率的にどのように処理しますか? A:ハイブリッドアーキテクチャとExpertSINT8の量子化を通じて、メモリ使用量が減少した256Kトークンコンテキストウィンドウを可能にします。
- Q3:ExpertSINT8量子化とは何ですか? A:MOEでINT8精度を使用した圧縮技術とMLP層を使用して、効率を改善します。
- Q4:Jamba 1.5は公開されていますか? A:はい、Jamba Open Modelライセンスの下で、顔を抱きしめてアクセスできます。
以上がJamba 1.5:ハイブリッドマンバトランスフォーマーアーキテクチャをフィーチャーの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











エージェントAIに取り組んでいる間、開発者は速度、柔軟性、リソース効率の間のトレードオフをナビゲートすることがよくあります。私はエージェントAIフレームワークを探索していて、Agnoに出会いました(以前はPhi-でした。

このリリースには、GPT-4.1、GPT-4.1 MINI、およびGPT-4.1 NANOの3つの異なるモデルが含まれており、大規模な言語モデルのランドスケープ内のタスク固有の最適化への動きを示しています。これらのモデルは、ようなユーザー向けインターフェイスをすぐに置き換えません

SQLの変更テーブルステートメント:データベースに列を動的に追加する データ管理では、SQLの適応性が重要です。 その場でデータベース構造を調整する必要がありますか? Alter Tableステートメントはあなたの解決策です。このガイドの詳細は、コルを追加します

Rocketpy:A包括的なガイドでロケット発売をシミュレートします この記事では、強力なPythonライブラリであるRocketpyを使用して、高出力ロケット発売をシミュレートすることをガイドします。 ロケットコンポーネントの定義からシミュラの分析まで、すべてをカバーします

AIコミュニティの重要な開発において、Agenticaと一緒にAIは、DeepCoder-14Bという名前のオープンソースAIコーディングモデルをリリースしました。 Openaiのようなクローズドソースの競合他社と同等のコード生成機能を提供する

Chip Giant Nvidiaは、月曜日に、AI Supercomputersの製造を開始すると述べました。これは、大量のデータを処理して複雑なアルゴリズムを実行できるマシンを初めて初めて米国内で実行します。発表は、トランプSI大統領の後に行われます

映画業界は、デジタルマーケティングからソーシャルメディアまで、すべてのクリエイティブセクターとともに、技術的な岐路に立っています。人工知能が視覚的なストーリーテリングのあらゆる側面を再構築し始め、エンターテイメントの風景を変え始めたとき

Guy Periは、McCormickの最高情報およびデジタルオフィサーです。彼の役割からわずか7か月後ですが、ペリは同社のデジタル能力の包括的な変革を急速に進めています。データと分析に焦点を当てている彼のキャリアに焦点が当てられています
