微调美洲驼2:定制大语模型的分步指南
Meta的Llama引发了大型语言模型(LLM)开发的激增,旨在与GPT-3.5这样的模型竞争。 开源社区迅速产生了越来越强大的模型,但是这些进步并非没有挑战。 许多开源LLM具有限制性许可(仅研究),需要大量预算进行微调,并且部署昂贵。 Llama的新迭代通过商业许可证和新方法解决了这些问题,从而可以对消费级GPU进行微调,并且内存有限。这使AI民主化,甚至允许较小的组织创建量身定制的模型。
本指南在Google Colab上展示了微调Llama-2,利用有效的技术来克服资源限制。我们将探索最大程度地减少内存使用量并加速培训的方法。>
作者使用dall-e 3 生成的图像
> >微调乳拉拉玛-2:逐步指南
> 此教程微调T4 GPU上的70亿参数Llama-2模型(可在Google Colab或Kaggle上找到)。 T4的16GB VRAM需要使用Qlora(4位精度)进行参数有效的微调。我们将利用拥抱的面部生态系统(变形金刚,加速,PEFT,TRL,BITSANDBYTES)。
1。设置:
安装必要的库:
>导入模块:
<code>%%capture %pip install accelerate peft bitsandbytes transformers trl</code>
<code>import os import torch from datasets import load_dataset from transformers import ( AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig, TrainingArguments, pipeline, logging, ) from peft import LoraConfig from trl import SFTTrainer</code>
我们将使用(等效于官方Llama-2的易于访问)作为基本模型,将其作为我们较小的培训数据集。
>NousResearch/Llama-2-7b-chat-hf
>说明了拥抱面模型和数据集的图像,与原始图像相同。
mlabonne/guanaco-llama2-1k
<code>base_model = "NousResearch/Llama-2-7b-chat-hf" guanaco_dataset = "mlabonne/guanaco-llama2-1k" new_model = "llama-2-7b-chat-guanaco"</code>
> 加载数据集:
>使用Qlora配置4位量化:
>使用4位量化加载Llama-2模型:
<code>dataset = load_dataset(guanaco_dataset, split="train")</code>
<code>compute_dtype = getattr(torch, "float16") quant_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_compute_dtype=compute_dtype, bnb_4bit_use_double_quant=False, )</code>
<code>model = AutoModelForCausalLM.from_pretrained( base_model, quantization_config=quant_config, device_map={"": 0} ) model.config.use_cache = False model.config.pretraining_tp = 1</code>
4。 PEFT配置:
<code>tokenizer = AutoTokenizer.from_pretrained(base_model, trust_remote_code=True) tokenizer.pad_token = tokenizer.eos_token tokenizer.padding_side = "right"</code>
定义PEFT参数以进行有效的微调:>
5。训练参数:
设置训练超标仪(输出目录,时期,批量大小,学习率等)。 详细信息与原始。6。用SFT进行微调:
<code>peft_params = LoraConfig( lora_alpha=16, lora_dropout=0.1, r=64, bias="none", task_type="CAUSAL_LM", )</code>
>使用TRL库中的进行监督的微调:
>显示训练进度和模型节省的屏幕截图与原始相同。
7。评估:
>使用管道测试微调模型。提供了示例,与原始相同。transformers
>
8。张板可视化:
启动张板以监视培训指标。
<code>%%capture %pip install accelerate peft bitsandbytes transformers trl</code>
张量板的屏幕截图与原始板相同。
结论:
本指南在有限的硬件上展示了有效的Llama-2微调。 Qlora和其他技术的使用使更广泛的受众可以访问高级LLM。 最后提到了进一步的资源和学习路径,类似于原始的原始资源和学习路径,但没有营销呼吁采取行动。
以上是微调美洲驼2:定制大语模型的分步指南的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

Meta的Llama 3.2:多模式和移动AI的飞跃 Meta最近公布了Llama 3.2,这是AI的重大进步,具有强大的视觉功能和针对移动设备优化的轻量级文本模型。 以成功为基础

嘿,编码忍者!您当天计划哪些与编码有关的任务?在您进一步研究此博客之前,我希望您考虑所有与编码相关的困境,这是将其列出的。 完毕? - 让&#8217

本周的AI景观:进步,道德考虑和监管辩论的旋风。 OpenAI,Google,Meta和Microsoft等主要参与者已经释放了一系列更新,从开创性的新车型到LE的关键转变

Shopify首席执行官TobiLütke最近的备忘录大胆地宣布AI对每位员工的基本期望是公司内部的重大文化转变。 这不是短暂的趋势。这是整合到P中的新操作范式

介绍 Openai已根据备受期待的“草莓”建筑发布了其新模型。这种称为O1的创新模型增强了推理能力,使其可以通过问题进行思考

介绍 想象一下,穿过美术馆,周围是生动的绘画和雕塑。现在,如果您可以向每一部分提出一个问题并获得有意义的答案,该怎么办?您可能会问:“您在讲什么故事?

SQL的Alter表语句:动态地将列添加到数据库 在数据管理中,SQL的适应性至关重要。 需要即时调整数据库结构吗? Alter表语句是您的解决方案。本指南的详细信息添加了Colu

斯坦福大学以人为本人工智能研究所发布的《2025年人工智能指数报告》对正在进行的人工智能革命进行了很好的概述。让我们用四个简单的概念来解读它:认知(了解正在发生的事情)、欣赏(看到好处)、接纳(面对挑战)和责任(弄清我们的责任)。 认知:人工智能无处不在,并且发展迅速 我们需要敏锐地意识到人工智能发展和传播的速度有多快。人工智能系统正在不断改进,在数学和复杂思维测试中取得了优异的成绩,而就在一年前,它们还在这些测试中惨败。想象一下,人工智能解决复杂的编码问题或研究生水平的科学问题——自2023年
