Penalaan Google Gemma: Meningkatkan LLM dengan arahan yang disesuaikan
Google Deepmind's Gemma: menyelam mendalam ke dalam sumber terbuka LLMS
Landskap AI berdengung dengan aktiviti, terutamanya mengenai model bahasa besar sumber terbuka (LLMS). Gergasi teknologi seperti Google, Meta, dan Twitter semakin memeluk pembangunan sumber terbuka. Google DeepMind baru-baru ini melancarkan Gemma, sebuah keluarga LLMs yang ringan, sumber terbuka yang dibina menggunakan penyelidikan dan teknologi yang sama seperti model Gemini Google. Artikel ini meneroka model GEMMA, kebolehcapaian mereka melalui GPU Cloud dan TPU, dan menyediakan panduan langkah demi langkah untuk menyempurnakan model GEMMA 7B-IT pada dataset peranan.
Memahami Gemma Google
Gemma (yang bermaksud "batu berharga" dalam bahasa Latin) adalah keluarga model decoder-only, teks-ke-teks yang dibangunkan terutamanya oleh Google Deepmind. Diilhamkan oleh model Gemini, Gemma direka untuk operasi ringan dan keserasian rangka kerja yang luas. Google telah mengeluarkan berat model untuk dua saiz Gemma: 2b dan 7b, masing-masing boleh didapati dalam varian pra-terlatih dan pengajaran (mis., Gemma 2b-it dan Gemma 7b-it). Prestasi Gemma menyaingi model terbuka yang lain, terutamanya melebihi Llama-2 Meta di pelbagai tanda aras LLM.
Sumber Imej
kepelbagaian Gemma meliputi sokongannya untuk pelbagai kerangka (Keras 3.0, Pytorch, Jax, Transformers Face Hugging) dan perkakasan yang pelbagai (komputer riba, desktop, peranti IoT, mudah alih, dan awan). Kesimpulan dan Penyelidikan Fine-Tuning (SFT) boleh dilakukan pada TPU awan percuma menggunakan kerangka pembelajaran mesin popular. Selain itu, Google menyediakan toolkit AI generatif yang bertanggungjawab bersama Gemma, menawarkan bimbingan dan alat pemaju untuk membuat aplikasi AI yang lebih selamat. Pemula di AI dan LLMs digalakkan untuk meneroka trek kemahiran Fundamental AI untuk pengetahuan asas.
Mengakses Model Gemma Google
Mengakses Gemma adalah mudah. Akses percuma boleh didapati melalui Huggingchat dan Poe. Penggunaan tempatan juga mungkin dengan memuat turun berat model dari memeluk muka dan menggunakan gpt4All atau lmstudio. Panduan ini memberi tumpuan kepada menggunakan GPU dan TPU percuma Kaggle untuk kesimpulan.
Running Gemma Inference pada TPU
Untuk menjalankan kesimpulan Gemma pada TPU menggunakan keras, ikuti langkah -langkah ini:
- Navigasi ke Keras/Gemma, pilih varian model "Gemma_instruct_2b_en", dan klik "Notebook Baru."
- Pasang perpustakaan python yang diperlukan:
!pip install -q tensorflow-cpu !pip install -q -U keras-nlp tensorflow-hub !pip install -q -U keras>=3 !pip install -q -U tensorflow-text
- Sahkan ketersediaan TPU menggunakan
- .
jax.devices()
set - sebagai backend keras:
jax
os.environ["KERAS_BACKEND"] = "jax"
Muatkan model menggunakan - dan menghasilkan teks menggunakan fungsi
keras_nlp
.generate
Sumber Imej
Untuk kesimpulan GPU menggunakan transformer, ikuti langkah -langkah ini:
- Navigasi ke Google/Gemma, pilih "Transformers," pilih varian "7b-it", dan buat buku nota baru.
- Pilih GPT T4 X2 sebagai pemecut.
- Pasang pakej yang diperlukan:
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U accelerate
- Muatkan model menggunakan kuantisasi 4-bit dengan bitsandbytes untuk pengurusan VRAM.
- Muatkan tokenizer.
- 3
Fine-Tuning Gemma Google: Panduan Langkah demi Langkah
menggunakan Kaggle P100 GPU.
Menyediakan hieunguyenminh/roleplay
Pasang pakej yang diperlukan:
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl %pip install -U datasets
- Tentukan pembolehubah untuk model asas, dataset, dan nama model halus.
- Log masuk untuk memeluk Face CLI menggunakan kekunci API anda.
- Inisialisasi Berat & Bias (W & B) Ruang Kerja.
- Memuatkan dataset
Memuatkan model dan tokenizer
Muatkan model Gemma 7B-It menggunakan ketepatan 4-bit dengan Bitsandbytes. Muatkan tokenizer dan konfigurasikan token pad.
Menambah lapisan penyesuai
Tambahkan lapisan penyesuai LORA untuk menyempurnakan model dengan cekap.
Latihan model
Tentukan hujah latihan (hyperparameters) dan buat sfttrainer. Melatih model menggunakan
.
Menyimpan model .train()
kesimpulan model
menjana respons menggunakan model yang halus.
kesimpulan Gemma 7b dengan penyesuai permainan peranan
Bahagian ini menunjukkan cara memuatkan model asas dan penyesuai terlatih, menggabungkannya, dan menghasilkan respons.
Pemikiran Akhir
Pelepasan Google Gemma menandakan peralihan ke arah kerjasama sumber terbuka di AI. Tutorial ini menyediakan panduan yang komprehensif untuk menggunakan model Gemma dan penalaan yang baik, yang menonjolkan kuasa pembangunan sumber terbuka dan sumber pengkomputeran awan. Langkah seterusnya ialah membina aplikasi berasaskan LLM anda sendiri menggunakan rangka kerja seperti Langchain.
Atas ialah kandungan terperinci Penalaan Google Gemma: Meningkatkan LLM dengan arahan yang disesuaikan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas











Meta's Llama 3.2: Lompat ke hadapan dalam Multimodal dan Mobile AI META baru -baru ini melancarkan Llama 3.2, kemajuan yang ketara dalam AI yang memaparkan keupayaan penglihatan yang kuat dan model teks ringan yang dioptimumkan untuk peranti mudah alih. Membina kejayaan o

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let ’

Landskap AI minggu ini: Badai kemajuan, pertimbangan etika, dan perdebatan pengawalseliaan. Pemain utama seperti Openai, Google, Meta, dan Microsoft telah melepaskan kemas kini, dari model baru yang terobosan ke peralihan penting di LE

Memo CEO Shopify Tobi Lütke baru -baru ini dengan berani mengisytiharkan penguasaan AI sebagai harapan asas bagi setiap pekerja, menandakan peralihan budaya yang signifikan dalam syarikat. Ini bukan trend seketika; Ini adalah paradigma operasi baru yang disatukan ke p

Pengenalan OpenAI telah mengeluarkan model barunya berdasarkan seni bina "strawberi" yang sangat dijangka. Model inovatif ini, yang dikenali sebagai O1, meningkatkan keupayaan penalaran, yang membolehkannya berfikir melalui masalah MOR

Pengenalan Bayangkan berjalan melalui galeri seni, dikelilingi oleh lukisan dan patung yang terang. Sekarang, bagaimana jika anda boleh bertanya setiap soalan dan mendapatkan jawapan yang bermakna? Anda mungkin bertanya, "Kisah apa yang anda ceritakan?

Bagi anda yang mungkin baru dalam lajur saya, saya secara meluas meneroka kemajuan terkini di AI di seluruh papan, termasuk topik seperti yang terkandung AI, penaakulan AI, terobosan berteknologi tinggi di AI, kejuruteraan segera, latihan AI, Fielding of AI, AI Re Re,

Meta's Llama 3.2: Powerhouse AI Multimodal Model multimodal terbaru Meta, Llama 3.2, mewakili kemajuan yang ketara dalam AI, yang membanggakan pemahaman bahasa yang dipertingkatkan, ketepatan yang lebih baik, dan keupayaan penjanaan teks yang unggul. Keupayaannya t
