Rumah Peranti teknologi AI Penalaan Llama 2: Panduan Langkah demi Langkah untuk Menyesuaikan Model Bahasa Besar

Penalaan Llama 2: Panduan Langkah demi Langkah untuk Menyesuaikan Model Bahasa Besar

Mar 09, 2025 am 11:09 AM

Llama Meta mencetuskan lonjakan dalam pembangunan model bahasa besar (LLM), yang bertujuan untuk menyaingi model seperti GPT-3.5. Komuniti sumber terbuka dengan cepat menghasilkan model yang semakin kuat, tetapi kemajuan ini tidak tanpa cabaran. Banyak LLM sumber terbuka mempunyai lesen yang ketat (penggunaan penyelidikan sahaja), memerlukan belanjawan besar untuk penalaan halus, dan mahal untuk digunakan.

lelaran baru Llama menangani isu-isu ini dengan lesen komersial dan kaedah baru yang membolehkan penalaan halus pada GPU gred pengguna dengan memori terhad. Ini demokrasi AI, yang membolehkan organisasi yang lebih kecil membuat model yang disesuaikan.

Panduan ini menunjukkan penalaan Llama-2 di Google Colab, menggunakan teknik yang cekap untuk mengatasi kekangan sumber. Kami akan meneroka metodologi yang meminimumkan penggunaan memori dan mempercepatkan latihan.

Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model

imej yang dihasilkan oleh pengarang menggunakan dall-e 3

Fine-Tuning Llama-2: Panduan Langkah demi Langkah

Tutorial ini Fine-sees parameter 7 bilion model Llama-2 pada T4 GPU (tersedia di Google Colab atau Kaggle). VRAM 16GB T4 memerlukan penalaan halus yang cekap parameter, khususnya menggunakan Qlora (ketepatan 4-bit). Kami akan menggunakan ekosistem muka yang memeluk (Transformers, Mempercepatkan, PEFT, TRL, Bitsandbytes).

1. Persediaan:

Pasang perpustakaan yang diperlukan:

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>
Salin selepas log masuk
Salin selepas log masuk

Modul Import:

<code>import os
import torch
from datasets import load_dataset
from transformers import (
    AutoModelForCausalLM,
    AutoTokenizer,
    BitsAndBytesConfig,
    TrainingArguments,
    pipeline,
    logging,
)
from peft import LoraConfig
from trl import SFTTrainer</code>
Salin selepas log masuk

2. Pemilihan Model & Dataset:

Kami akan menggunakan NousResearch/Llama-2-7b-chat-hf (setara dengan mudah diakses dengan Llama-2 rasmi) sebagai model asas dan mlabonne/guanaco-llama2-1k sebagai dataset latihan kami yang lebih kecil.

<code>base_model = "NousResearch/Llama-2-7b-chat-hf"
guanaco_dataset = "mlabonne/guanaco-llama2-1k"
new_model = "llama-2-7b-chat-guanaco"</code>
Salin selepas log masuk
Imej

yang menggambarkan model muka dan dataset yang memeluk disertakan di sini, sama seperti asal.

3. Memuatkan Data & Model:

Muatkan dataset:

<code>dataset = load_dataset(guanaco_dataset, split="train")</code>
Salin selepas log masuk

Konfigurasi kuantisasi 4-bit menggunakan qlora:

<code>compute_dtype = getattr(torch, "float16")
quant_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=compute_dtype,
    bnb_4bit_use_double_quant=False,
)</code>
Salin selepas log masuk

Muatkan model Llama-2 dengan kuantisasi 4-bit:

<code>model = AutoModelForCausalLM.from_pretrained(
    base_model,
    quantization_config=quant_config,
    device_map={"": 0}
)
model.config.use_cache = False
model.config.pretraining_tp = 1</code>
Salin selepas log masuk

Muatkan tokenizer:

<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True)
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"</code>
Salin selepas log masuk

imej yang menggambarkan qlora disertakan di sini, sama seperti asal.

4. Konfigurasi PEFT:

Tentukan parameter PEFT untuk penalaan halus yang cekap:

<code>peft_params = LoraConfig(
    lora_alpha=16,
    lora_dropout=0.1,
    r=64,
    bias="none",
    task_type="CAUSAL_LM",
)</code>
Salin selepas log masuk

5. Parameter Latihan:

Tetapkan Hyperparameters Latihan (direktori output, zaman, saiz batch, kadar pembelajaran, dan lain -lain). Butiran sama dengan yang asal.

6. Fine-penalaan dengan SFT:

Gunakan SFTTrainer dari perpustakaan TRL untuk penalaan halus yang diselia:

<code>trainer = SFTTrainer(
    model=model,
    train_dataset=dataset,
    peft_config=peft_params,
    dataset_text_field="text",
    max_seq_length=None,
    tokenizer=tokenizer,
    args=training_params,
    packing=False,
)

trainer.train()
trainer.model.save_pretrained(new_model)
trainer.tokenizer.save_pretrained(new_model)</code>
Salin selepas log masuk
Tangkapan skrin

menunjukkan kemajuan latihan dan penjimatan model disertakan di sini, sama seperti asal.

7. Evaluasi:

Gunakan saluran paip transformers untuk menguji model halus. Contoh disediakan, sama seperti asal.

8. Visualisasi Tensorboard:

Pelancaran Tensorboard untuk memantau metrik latihan.

<code>%%capture
%pip install accelerate peft bitsandbytes transformers trl</code>
Salin selepas log masuk
Salin selepas log masuk

tangkapan skrin Tensorboard dimasukkan di sini, sama seperti asal.

Kesimpulan:

Panduan ini mempamerkan penalaan halus Llama-2 yang cekap pada perkakasan terhad. Penggunaan QLORA dan teknik lain menjadikan LLM canggih dapat diakses oleh khalayak yang lebih luas. Sumber -sumber dan laluan pembelajaran selanjutnya disebut pada akhirnya, sama seperti yang asal, tetapi tanpa panggilan pemasaran untuk tindakan.

Atas ialah kandungan terperinci Penalaan Llama 2: Panduan Langkah demi Langkah untuk Menyesuaikan Model Bahasa Besar. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

<🎜>: Bubble Gum Simulator Infinity - Cara Mendapatkan dan Menggunakan Kekunci Diraja
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Sistem Fusion, dijelaskan
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Cara Membuka Kunci Cangkuk Bergelut
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Tutorial Java
1666
14
Tutorial PHP
1273
29
Tutorial C#
1253
24
10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari 10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari Apr 13, 2025 am 01:14 AM

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let &#8217

GPT-4O vs OpenAI O1: Adakah model Openai baru bernilai gembar-gembur? GPT-4O vs OpenAI O1: Adakah model Openai baru bernilai gembar-gembur? Apr 13, 2025 am 10:18 AM

Pengenalan OpenAI telah mengeluarkan model barunya berdasarkan seni bina "strawberi" yang sangat dijangka. Model inovatif ini, yang dikenali sebagai O1, meningkatkan keupayaan penalaran, yang membolehkannya berfikir melalui masalah MOR

Panduan Komprehensif untuk Model Bahasa Visi (VLMS) Panduan Komprehensif untuk Model Bahasa Visi (VLMS) Apr 12, 2025 am 11:58 AM

Pengenalan Bayangkan berjalan melalui galeri seni, dikelilingi oleh lukisan dan patung yang terang. Sekarang, bagaimana jika anda boleh bertanya setiap soalan dan mendapatkan jawapan yang bermakna? Anda mungkin bertanya, "Kisah apa yang anda ceritakan?

Bagaimana untuk menambah lajur dalam SQL? - Analytics Vidhya Bagaimana untuk menambah lajur dalam SQL? - Analytics Vidhya Apr 17, 2025 am 11:43 AM

Pernyataan Jadual Alter SQL: Menambah lajur secara dinamik ke pangkalan data anda Dalam pengurusan data, kebolehsuaian SQL adalah penting. Perlu menyesuaikan struktur pangkalan data anda dengan cepat? Pernyataan Jadual ALTER adalah penyelesaian anda. Butiran panduan ini menambah colu

Pixtral -12b: Model Multimodal Pertama Mistral Ai ' Pixtral -12b: Model Multimodal Pertama Mistral Ai ' Apr 13, 2025 am 11:20 AM

Pengenalan Mistral telah mengeluarkan model multimodal yang pertama, iaitu Pixtral-12B-2409. Model ini dibina atas parameter 12 bilion Mistral, NEMO 12B. Apa yang membezakan model ini? Ia kini boleh mengambil kedua -dua gambar dan Tex

Bagaimana Membina Ejen AI Multimodal Menggunakan Rangka Kerja AGNO? Bagaimana Membina Ejen AI Multimodal Menggunakan Rangka Kerja AGNO? Apr 23, 2025 am 11:30 AM

Semasa bekerja pada AIS AI, pemaju sering mendapati diri mereka menavigasi perdagangan antara kelajuan, fleksibiliti, dan kecekapan sumber. Saya telah meneroka rangka kerja AI yang agentik dan menjumpai Agno (sebelum ini adalah Phi-

Beyond the Llama Drama: 4 Benchmarks Baru Untuk Model Bahasa Besar Beyond the Llama Drama: 4 Benchmarks Baru Untuk Model Bahasa Besar Apr 14, 2025 am 11:09 AM

Penanda Aras Bermasalah: Kajian Kes Llama Pada awal April 2025, Meta melancarkan model Llama 4 suite, dengan metrik prestasi yang mengagumkan yang meletakkan mereka dengan baik terhadap pesaing seperti GPT-4O dan Claude 3.5 sonnet. Pusat ke LAUNC

Bagaimana permainan ADHD, alat kesihatan & chatbots AI mengubah kesihatan global Bagaimana permainan ADHD, alat kesihatan & chatbots AI mengubah kesihatan global Apr 14, 2025 am 11:27 AM

Bolehkah permainan video meringankan kebimbangan, membina fokus, atau menyokong kanak -kanak dengan ADHD? Memandangkan cabaran penjagaan kesihatan melonjak di seluruh dunia - terutamanya di kalangan belia - inovator beralih kepada alat yang tidak mungkin: permainan video. Sekarang salah satu hiburan terbesar di dunia Indus

See all articles