這就是LLM分解語言的方式
揭示大型語言模型的秘密:深入探討令牌化
還記得2020年Openai的GPT-3周圍的嗡嗡聲嗎? GPT-3的出色文本生成功能雖然不是第一個,但它使它成名。從那時起,就出現了無數的大型語言模型(LLM)。但是,LLMS如何像Chatgpt Decipher語言?答案在於一個稱為令牌化的過程。
本文汲取了Andrej Karpathy洞察力的YouTube系列“深入研究Chatgpt之類的LLM”的靈感,這是對任何尋求對LLMS更深入了解的人必不可少的。 (強烈建議!)
在探索令牌化之前,讓我們簡要介紹LLM的內部工作。如果您已經熟悉神經網絡和LLM,則跳過前進。
內部大語言模型
LLM使用變壓器神經網絡 - 複雜的數學公式。輸入是通過嵌入層處理的代幣(單詞,短語或字符)的序列,將其轉換為數值表示。這些輸入以及網絡的參數(權重)被饋入大型數學方程。
現代神經網絡擁有數十億個參數,最初是隨機設置的。該網絡最初做出隨機預測。訓練迭代地調整了這些權重,以使網絡的輸出與培訓數據中的模式保持一致。因此,培訓涉及找到最佳反映培訓數據統計特性的最佳權重集。
Vaswani等人的2017年論文“注意力是您需要的全部”中引入的變壓器架構是一個專門為序列處理設計的神經網絡。最初用於神經機器翻譯,現在是LLM的基石。
要直觀地了解生產級變壓器網絡,請訪問https://www.php.cn/link/link/f4a75336b061f291b6c11f5e4d6ebf7d 。該站點提供了GPT體系結構及其推理過程的交互式3D可視化。
這種納米-GPT體系結構(約85,584個參數)顯示了通過層處理的輸入令牌序列,進行轉換(注意機制和饋送前進網絡),以預測下一個令牌。
令牌化:分解文字
培訓諸如Chatgpt或Claude之類的尖端LLM涉及幾個順序階段。 (有關培訓管道的更多詳細信息,請參見我上一篇有關幻覺的文章。)
預處理(初始階段)需要大量的高質量數據集(Terabytes)。這些數據集通常是專有的。作為一個例子,我們將使用擁抱面(在“開放數據共享歸因許可證”下可用)的開源FineWeb數據集。 (有關FineWeb創建的更多詳細信息)。
來自FineWeb的樣本(100個示例串聯)。
我們的目標是訓練神經網絡以復制該文本。神經網絡需要有限集的一維符號序列。這需要將文本轉換為這樣的序列。
我們從一維文本序列開始。 UTF-8編碼將其轉換為原始位序列。
前8位表示字母“ A”。
該二進制序列在技術上是一系列符號(0和1)的序列太長。我們需要具有更多符號的較短序列。將8位分組到一個字節中,使我們有256個可能的符號(0-255)。
字節表示。
這些數字是任意標識符。
這種轉換是令牌化。使用字節對編碼(BPE),最先進的模型進一步發展。
BPE識別頻繁的連續字節對,並用新符號代替它們。例如,如果經常出現“ 101 114”,則將其替換為新符號。這個過程重複,縮短順序並擴展詞彙。 GPT-4使用BPE,導致大約100,000個令牌的詞彙。
與Tiktokenizer交互性探索令牌化,該化量可視化各種模型的令牌化。在前四個句子上使用GPT-4的CL100K_BASE編碼器產生:
<code>11787, 499, 21815, 369, 90250, 763, 14689, 30, 7694, 1555, 279, 21542, 3770, 323, 499, 1253, 1120, 1518, 701, 4832, 2457, 13, 9359, 1124, 323, 6642, 264, 3449, 709, 3010, 18396, 13, 1226, 617, 9214, 315, 1023, 3697, 430, 1120, 649, 10379, 83, 3868, 311, 3449, 18570, 1120, 1093, 499, 0</code>
我們的整個示例數據集可以使用CL100K_BASE類似地將其化。
結論
令牌化對於LLMS至關重要,將原始文本轉換為神經網絡的結構化格式。平衡序列長度和詞彙大小是計算效率的關鍵。像GPT這樣的現代LLM使用BPE進行最佳性能。理解令牌化為LLM的內部運作提供了寶貴的見解。
在X(以前是Twitter)上關注我以獲取更多的AI見解!
參考
- 深入研究llms
- Andrej Karpathy
- 注意就是您所需要的
- LLM可視化( https://www.php.cn/link/f4a75336b061f291b6c11f5e4d6ebf7d )
- LLM幻覺(link_to_to_hallucination_article)
- huggingfacefw/fineweb·擁抱臉的數據集(link_to_to_huggingface_fineweb)
- FineWeb:為最細的文本數據倒出網絡 - …(https://www.php.cn/link/271DF68653F0B3C70B3C70D4446BDCBC6A2715)。
- 開放數據共享歸因許可證(ODC-BY)V1.0 - 開放數據共享:開放數據的法律工具(link_to_odc_by)
- 字節對編碼令牌化 - 擁抱臉部NLP課程(link_to_to_huggingface_bpe)
- tiktokenizer(https://www.php.cn/link/3b8d8348318987a2f1a39d690463a8f)
請用實際鏈接替換包圍的鏈接。我試圖根據要求維護原始格式和圖像放置。
以上是這就是LLM分解語言的方式的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

嘿,編碼忍者!您當天計劃哪些與編碼有關的任務?在您進一步研究此博客之前,我希望您考慮所有與編碼相關的困境,這是將其列出的。 完畢? - 讓&#8217

介紹 Openai已根據備受期待的“草莓”建築發布了其新模型。這種稱為O1的創新模型增強了推理能力,使其可以通過問題進行思考

介紹 想像一下,穿過美術館,周圍是生動的繪畫和雕塑。現在,如果您可以向每一部分提出一個問題並獲得有意義的答案,該怎麼辦?您可能會問:“您在講什麼故事?

SQL的Alter表語句:動態地將列添加到數據庫 在數據管理中,SQL的適應性至關重要。 需要即時調整數據庫結構嗎? Alter表語句是您的解決方案。本指南的詳細信息添加了Colu

介紹 Mistral發布了其第一個多模式模型,即Pixtral-12b-2409。該模型建立在Mistral的120億參數Nemo 12B之上。是什麼設置了該模型?現在可以拍攝圖像和Tex

在從事代理AI時,開發人員經常發現自己在速度,靈活性和資源效率之間進行權衡。我一直在探索代理AI框架,並遇到了Agno(以前是Phi-

陷入困境的基準:駱駝案例研究 2025年4月上旬,梅塔(Meta)揭開了其Llama 4套件的模特,擁有令人印象深刻的性能指標,使他們對GPT-4O和Claude 3.5 Sonnet等競爭對手的良好定位。倫斯的中心

視頻遊戲可以緩解焦慮,建立焦點或支持多動症的孩子嗎? 隨著醫療保健在全球範圍內挑戰,尤其是在青年中的挑戰,創新者正在轉向一種不太可能的工具:視頻遊戲。現在是世界上最大的娛樂印度河之一
