这就是LLM分解语言的方式
揭示了大语言模型的秘密:深入探究令牌化
还记得2020年Openai的GPT-3周围的嗡嗡声吗? GPT-3的出色文本生成功能虽然不是第一个,但它使它成名。从那时起,就出现了无数的大型语言模型(LLM)。但是,LLMS如何像Chatgpt Decipher语言?答案在于一个称为令牌化的过程。
本文从Andrej Karpathy的洞察力YouTube系列中汲取了灵感,“深入研究LLM,例如Chatgpt,”,这是任何寻求更深入了解LLM的人的必看。 (强烈建议!)
在探索令牌化之前,让我们简要检查LLM的内部工作。如果您已经熟悉神经网络和LLM,则跳过前进。
大语言模型内部
llms利用变压器神经网络 - 复杂的数学公式。输入是通过嵌入层处理的令牌(单词,短语或字符)的序列,将其转换为数值表示。这些输入以及网络的参数(权重)被馈入大型数学方程。
现代神经网络拥有数十亿个参数,最初是随机设置的。该网络最初做出随机预测。训练迭代地调整了这些权重,以使网络的输出与培训数据中的模式保持一致。因此,培训涉及找到最佳反映培训数据的统计属性的最佳权重集。
vaswani等人在2017年论文“关注您需要的一切”中引入的变压器体系结构是一个专门为序列处理而设计的神经网络。它最初用于神经机器翻译,现在是LLM的基石。
以目视了解生产级变压器网络,请访问 https://www.php.cn/link/link/link/link/link/link/link/link/link/link/f45333333333333333333361f291b6c11b56.1b74d4d4d4d4d4d4d4d4d。该站点提供了GPT体系结构及其推理过程的交互式3D可视化。
Tokenization: Breaking Down Text
Training a cutting-edge LLM like ChatGPT or Claude involves several sequential stages. (有关培训管道的更多详细信息,请参见我的上一篇有关幻觉的文章。)
预处理,初始阶段,需要大量的高质量数据集(Terabytes)。这些数据集通常是专有的。作为一个例子,我们将使用拥抱面(在“开放数据共享归因许可证”下可用)的开源FineWeb数据集。 (有关FineWeb创建的更多详细信息。 src =“ https://img.php.cn/upload/article/000/000/000/000/174166081948412.jpg” alt =“这就是LLMS分解语言的方式”/> farce f ins from face f ince of file face f infine> src =“ https://img.php.cn/upload/article/000/000/000/174166082170272.jpg” alt =“这是LLMS分解语言的方式”/>我们的目标是我们的目标是训练神经网络以复制此文本。神经网络需要有限集的一维符号序列。这需要将文本转换为这样的序列。
我们从一维文本序列开始。 UTF-8编码将其转换为原始的位序列。
这些数字是任意的识别器。
bpe识别频繁的连续字节对,并用新符号替换它们。例如,如果经常出现“ 101 114”,则将其替换为新符号。这个过程重复,缩短顺序并扩展词汇。 GPT-4 uses BPE, resulting in a vocabulary of around 100,000 tokens.
Explore tokenization interactively with Tiktokenizer, which visualizes各种模型的令牌化。使用GPT-4的 cl100k_base 在前四个句子上编码:
<code> 11787,499,21815,369,90250,763,763,14689,14689,30,30,7694 701, 4832, 2457, 13, 9359, 1124, 323, 6642, 264, 3449, 709, 3010, 18396, 13, 1226, 617, 9214, 315, 1023, 3697, 430, 1120, 649, 10379, 83, 3868, 311, 3449, 18570, 1120, 1093,499,0 </code>
cl100k_base 。
令牌化对于LLMS至关重要,将原始文本转换为神经网络的结构化格式。平衡序列长度和词汇大小是计算效率的关键。像GPT这样的现代LLM使用BPE进行最佳性能。 Understanding tokenization provides valuable insights into the inner workings of LLMs.
Follow me on X (formerly Twitter) for more AI insights!
References
- Deep Dive into LLMs Like ChatGPT
- Andrej Karpathy
- Attention Is All You Need
- llm可视化(https://www.php.cn/link/f4a75336b061f291b6c11f5e4d6ebf7d)
- llm幻觉(link_to_to_hallucination_article)
- huggingfacefw/fineweb·hugging face的数据集(link_to_to_huggingface_fineweb)
- fineweb:fineweb:fine fineweb:在规模上脱下最佳的文本数据,以下是一个最佳的文本数据, (https://www.php.cn/link/271df68653f0b3c70d446bdcbc6a2715)
- Open Data Commons Attribution License (ODC-By) v1.0 – Open Data Commons: legal tools for open data (link_to_odc_by)
- Byte-Pair Encoding tokenization - 拥抱面孔NLP课程(link_to_huggingface_bpe)
- tiktokenizer(https://wwwwwwwww.php.cn/link/3b8d8348348318987a2f1a39d69d690463a8f)我试图根据要求维护原始格式和图像放置。
以上是这就是LLM分解语言的方式的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

Meta的Llama 3.2:多模式和移动AI的飞跃 Meta最近公布了Llama 3.2,这是AI的重大进步,具有强大的视觉功能和针对移动设备优化的轻量级文本模型。 以成功为基础

嘿,编码忍者!您当天计划哪些与编码有关的任务?在您进一步研究此博客之前,我希望您考虑所有与编码相关的困境,这是将其列出的。 完毕? - 让&#8217

本周的AI景观:进步,道德考虑和监管辩论的旋风。 OpenAI,Google,Meta和Microsoft等主要参与者已经释放了一系列更新,从开创性的新车型到LE的关键转变

Shopify首席执行官TobiLütke最近的备忘录大胆地宣布AI对每位员工的基本期望是公司内部的重大文化转变。 这不是短暂的趋势。这是整合到P中的新操作范式

介绍 Openai已根据备受期待的“草莓”建筑发布了其新模型。这种称为O1的创新模型增强了推理能力,使其可以通过问题进行思考

介绍 想象一下,穿过美术馆,周围是生动的绘画和雕塑。现在,如果您可以向每一部分提出一个问题并获得有意义的答案,该怎么办?您可能会问:“您在讲什么故事?

斯坦福大学以人为本人工智能研究所发布的《2025年人工智能指数报告》对正在进行的人工智能革命进行了很好的概述。让我们用四个简单的概念来解读它:认知(了解正在发生的事情)、欣赏(看到好处)、接纳(面对挑战)和责任(弄清我们的责任)。 认知:人工智能无处不在,并且发展迅速 我们需要敏锐地意识到人工智能发展和传播的速度有多快。人工智能系统正在不断改进,在数学和复杂思维测试中取得了优异的成绩,而就在一年前,它们还在这些测试中惨败。想象一下,人工智能解决复杂的编码问题或研究生水平的科学问题——自2023年

SQL的Alter表语句:动态地将列添加到数据库 在数据管理中,SQL的适应性至关重要。 需要即时调整数据库结构吗? Alter表语句是您的解决方案。本指南的详细信息添加了Colu
