Rumah Peranti teknologi AI Ini adalah bagaimana llms memecah bahasa

Ini adalah bagaimana llms memecah bahasa

Mar 11, 2025 am 10:40 AM

Membentangkan Rahsia Model Bahasa Besar: menyelam yang mendalam ke dalam tokenisasi

Ingat buzz sekitar Openai's GPT-3 pada tahun 2020? Walaupun bukan yang pertama dalam barisannya, keupayaan penjanaan teks GPT-3 yang luar biasa meletupkannya. Sejak itu, model bahasa besar yang banyak (LLM) telah muncul. Tetapi bagaimana LLMs seperti bahasa chatgpt menguraikan bahasa? Jawapannya terletak pada proses yang dipanggil tokenisasi.

Artikel ini menarik inspirasi dari siri YouTube yang berwawasan Andrej Karpathy, "Deep Dive Into LLMS Like Chatgpt," yang mesti menonton bagi sesiapa yang mencari pemahaman yang lebih mendalam tentang LLM. (Sangat disyorkan!)

Sebelum meneroka tokenisasi, mari kita mengkaji secara ringkas kerja -kerja dalaman LLM. Langkau ke hadapan jika anda sudah biasa dengan rangkaian saraf dan LLMS.

Di dalam model bahasa besar

LLMS menggunakan rangkaian saraf pengubah - formula matematik yang kompleks. Input adalah urutan token (perkataan, frasa, atau aksara) yang diproses melalui lapisan penyembuhan, menukarnya ke dalam perwakilan berangka. Input ini, bersama dengan parameter rangkaian (berat), dimasukkan ke dalam persamaan matematik besar -besaran.

Rangkaian neural moden membanggakan berbilion parameter, pada mulanya ditetapkan secara rawak. Rangkaian pada mulanya membuat ramalan rawak. Latihan secara beransur -ansur menyesuaikan berat ini untuk menyelaraskan output rangkaian dengan corak dalam data latihan. Oleh itu, latihan melibatkan mencari set berat optimum yang paling mencerminkan sifat statistik data latihan.

Senibina Transformer, yang diperkenalkan dalam kertas 2017 "Perhatian adalah semua yang anda perlukan" oleh Vaswani et al., Adalah rangkaian saraf yang direka khusus untuk pemprosesan urutan. Pada mulanya digunakan untuk terjemahan mesin saraf, kini menjadi asas kepada LLMS.

Untuk pemahaman visual rangkaian pengubah peringkat pengeluaran, lawati https://www.php.cn/link/f4a75336b061f291b6c11f5e4d6ebf7d . Laman ini menawarkan visualisasi 3D interaktif arsitektur GPT dan proses kesimpulan mereka.

Ini adalah bagaimana llms memecah bahasa Senibina nano-GPT (kira-kira 85,584 parameter) menunjukkan urutan token input yang diproses melalui lapisan, menjalani transformasi (mekanisme perhatian dan rangkaian ke hadapan) untuk meramalkan token seterusnya.

Tokenisasi: memecahkan teks

Latihan LLM canggih seperti Chatgpt atau Claude melibatkan beberapa peringkat berurutan. (Lihat artikel saya sebelumnya mengenai halusinasi untuk maklumat lanjut mengenai saluran paip latihan.)

Pretraining, peringkat awal, memerlukan dataset berkualiti tinggi (terabytes). Dataset ini biasanya proprietari. Kami akan menggunakan dataset FineWeb sumber terbuka dari muka memeluk (tersedia di bawah Lesen Atribusi Data Terbuka Data) sebagai contoh. ( Maklumat lanjut mengenai penciptaan Fineweb di sini ).

Ini adalah bagaimana llms memecah bahasa Sampel dari FineWeb (100 contoh digabungkan).

Ini adalah bagaimana llms memecah bahasa Matlamat kami adalah untuk melatih rangkaian saraf untuk meniru teks ini. Rangkaian saraf memerlukan urutan satu dimensi simbol dari set terhingga. Ini memerlukan menukar teks ke dalam urutan sedemikian.

Kami bermula dengan urutan teks satu dimensi. Pengekodan UTF-8 menukarkannya menjadi urutan bit mentah.

Ini adalah bagaimana llms memecah bahasa 8 bit pertama mewakili huruf 'a'.

Urutan binari ini, sementara secara teknikal urutan simbol (0 dan 1), terlalu panjang. Kami memerlukan urutan yang lebih pendek dengan lebih banyak simbol. Mengumpulkan 8 bit ke dalam bait memberi kita urutan 256 simbol yang mungkin (0-255).

Ini adalah bagaimana llms memecah bahasa Perwakilan byte.

Ini adalah bagaimana llms memecah bahasa Nombor -nombor ini adalah pengecam sewenang -wenangnya.

Ini adalah bagaimana llms memecah bahasa Penukaran ini adalah tokenisasi. Model-model canggih pergi lebih jauh, menggunakan pengekodan pasangan byte (BPE).

BPE mengenal pasti pasangan byte berturut -turut dan menggantikannya dengan simbol baru. Sebagai contoh, jika "101 114" sering muncul, ia digantikan dengan simbol baru. Proses ini mengulangi, memendekkan urutan dan memperluaskan perbendaharaan kata. GPT-4 menggunakan BPE, mengakibatkan perbendaharaan kata sekitar 100,000 token.

Terokai tokenisasi secara interaktif dengan Tiktokenizer , yang menggambarkan tokenisasi untuk pelbagai model. Menggunakan pengekod CL100K_BASE GPT-4 pada empat ayat pertama menghasilkan:

 <code>11787, 499, 21815, 369, 90250, 763, 14689, 30, 7694, 1555, 279, 21542, 3770, 323, 499, 1253, 1120, 1518, 701, 4832, 2457, 13, 9359, 1124, 323, 6642, 264, 3449, 709, 3010, 18396, 13, 1226, 617, 9214, 315, 1023, 3697, 430, 1120, 649, 10379, 83, 3868, 311, 3449, 18570, 1120, 1093, 499, 0</code>
Salin selepas log masuk

Ini adalah bagaimana llms memecah bahasa

Keseluruhan dataset sampel kami juga boleh ditolak menggunakan CL100K_BASE .

Ini adalah bagaimana llms memecah bahasa

Kesimpulan

Tokenisasi adalah penting untuk LLMS, mengubah teks mentah menjadi format berstruktur untuk rangkaian saraf. Mengimbangi panjang urutan dan saiz perbendaharaan kata adalah kunci untuk kecekapan pengiraan. LLM moden seperti GPT menggunakan BPE untuk prestasi yang optimum. Memahami tokenisasi memberikan pandangan yang berharga ke dalam kerja dalaman LLM.

Ikuti saya di X (dahulunya Twitter) untuk lebih banyak pandangan AI!

Rujukan

  • Menyelam jauh ke LLM seperti chatgpt
  • Andrej Karpathy
  • Perhatian adalah semua yang anda perlukan
  • LLM Visualisasi ( https://www.php.cn/link/f4a75336b061f291b6c11f5e4d6ebf7d )
  • LLM Hallucinations (link_to_hallucination_article)
  • HuggingFaceFW/FineWeb · dataset di muka pelukan (link_to_huggingface_fineweb)
  • FINEWEB: Decanting web untuk data teks terbaik pada skala - ruang muka yang memeluk oleh ... (https://www.php.cn/link/271df68653f0b3c70d446bdcbc6a2715)
  • Buka Data Commons Attribusi Lesen (ODC-BY) v1.0-Terbuka Data Commons: Alat Undang-Undang untuk Data Terbuka (Link_TO_ODC_BY)
  • Tokenisasi Pengekodan Byte-pasangan-Memeluk Kursus NLP Face (link_to_huggingface_bpe)
  • Tiktokenizer (https://www.php.cn/link/3b8d83483189887a2f1a39d690463a8f)

Sila ganti pautan kurungan dengan pautan sebenar. Saya telah cuba mengekalkan pemformatan dan penempatan imej asal seperti yang diminta.

Atas ialah kandungan terperinci Ini adalah bagaimana llms memecah bahasa. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

<🎜>: Bubble Gum Simulator Infinity - Cara Mendapatkan dan Menggunakan Kekunci Diraja
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Sistem Fusion, dijelaskan
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Cara Membuka Kunci Cangkuk Bergelut
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Tutorial Java
1673
14
Tutorial PHP
1278
29
Tutorial C#
1257
24
Bagaimana Membina Ejen AI Multimodal Menggunakan Rangka Kerja AGNO? Bagaimana Membina Ejen AI Multimodal Menggunakan Rangka Kerja AGNO? Apr 23, 2025 am 11:30 AM

Semasa bekerja pada AIS AI, pemaju sering mendapati diri mereka menavigasi perdagangan antara kelajuan, fleksibiliti, dan kecekapan sumber. Saya telah meneroka rangka kerja AI yang agentik dan menjumpai Agno (sebelum ini adalah Phi-

Terbuka beralih fokus dengan GPT-4.1, mengutamakan pengekodan dan kecekapan kos Terbuka beralih fokus dengan GPT-4.1, mengutamakan pengekodan dan kecekapan kos Apr 16, 2025 am 11:37 AM

Pelepasan ini termasuk tiga model yang berbeza, GPT-4.1, GPT-4.1 Mini dan GPT-4.1 Nano, menandakan langkah ke arah pengoptimuman khusus tugas dalam landskap model bahasa yang besar. Model-model ini tidak segera menggantikan antara muka yang dihadapi pengguna seperti

Bagaimana untuk menambah lajur dalam SQL? - Analytics Vidhya Bagaimana untuk menambah lajur dalam SQL? - Analytics Vidhya Apr 17, 2025 am 11:43 AM

Pernyataan Jadual Alter SQL: Menambah lajur secara dinamik ke pangkalan data anda Dalam pengurusan data, kebolehsuaian SQL adalah penting. Perlu menyesuaikan struktur pangkalan data anda dengan cepat? Pernyataan Jadual ALTER adalah penyelesaian anda. Butiran panduan ini menambah colu

Kursus Pendek Baru mengenai Model Embedding oleh Andrew Ng Kursus Pendek Baru mengenai Model Embedding oleh Andrew Ng Apr 15, 2025 am 11:32 AM

Buka kunci kekuatan model embedding: menyelam jauh ke kursus baru Andrew Ng Bayangkan masa depan di mana mesin memahami dan menjawab soalan anda dengan ketepatan yang sempurna. Ini bukan fiksyen sains; Terima kasih kepada kemajuan dalam AI, ia menjadi R

Simulasi dan analisis pelancaran roket menggunakan Rocketpy - Analytics Vidhya Simulasi dan analisis pelancaran roket menggunakan Rocketpy - Analytics Vidhya Apr 19, 2025 am 11:12 AM

Simulasi Rocket dilancarkan dengan Rocketpy: Panduan Komprehensif Artikel ini membimbing anda melalui mensimulasikan pelancaran roket kuasa tinggi menggunakan Rocketpy, perpustakaan Python yang kuat. Kami akan merangkumi segala -galanya daripada menentukan komponen roket untuk menganalisis simula

Google melancarkan strategi ejen yang paling komprehensif di Cloud Seterusnya 2025 Google melancarkan strategi ejen yang paling komprehensif di Cloud Seterusnya 2025 Apr 15, 2025 am 11:14 AM

Gemini sebagai asas strategi AI Google Gemini adalah asas kepada strategi ejen AI Google, memanfaatkan keupayaan multimodalnya untuk memproses dan menjana respons di seluruh teks, imej, audio, video dan kod. Dibangunkan oleh DeepM

Robot Humanoid Sumber Terbuka yang Anda Boleh Mencetak Diri 3D: Memeluk Wajah Membeli Robotik Debunga Robot Humanoid Sumber Terbuka yang Anda Boleh Mencetak Diri 3D: Memeluk Wajah Membeli Robotik Debunga Apr 15, 2025 am 11:25 AM

"Super gembira untuk mengumumkan bahawa kami memperoleh robotik debunga untuk membawa robot sumber terbuka ke dunia," kata Hugging Face pada X. "Sejak Remi Cadene menyertai kami dari Tesla, kami telah menjadi platform perisian yang paling banyak digunakan untuk robot terbuka terima kasih

DeepCoder-14b: Pertandingan sumber terbuka untuk O3-Mini dan O1 DeepCoder-14b: Pertandingan sumber terbuka untuk O3-Mini dan O1 Apr 26, 2025 am 09:07 AM

Dalam perkembangan penting bagi komuniti AI, Agentica dan bersama-sama AI telah mengeluarkan model pengekodan AI sumber terbuka bernama DeepCoder-14b. Menawarkan keupayaan penjanaan kod setanding dengan pesaing sumber tertutup seperti OpenAI

See all articles