Rumah pembangunan bahagian belakang Tutorial Python Memahami Tokenisasi: Menyelam Lebih Dalam ke dalam Tokenizer dengan Muka Memeluk

Memahami Tokenisasi: Menyelam Lebih Dalam ke dalam Tokenizer dengan Muka Memeluk

Jan 05, 2025 pm 07:25 PM

Understanding Tokenization: A Deep Dive into Tokenizers with Hugging Face

Tokenisasi ialah konsep asas dalam pemprosesan bahasa semula jadi (NLP), terutamanya apabila berurusan dengan model bahasa. Dalam artikel ini, kami akan meneroka perkara yang dilakukan oleh tokenizer, cara ia berfungsi dan cara kami boleh memanfaatkannya menggunakan perpustakaan transformer Hugging Face [https://huggingface.co/docs/transformers/index] untuk pelbagai aplikasi.

Apa itu Tokenizer?

Pada terasnya, tokenizer memecahkan teks mentah kepada unit yang lebih kecil yang dipanggil token. Token ini boleh mewakili perkataan, subkata atau aksara, bergantung pada jenis tokenizer yang digunakan. Matlamat tokenisasi adalah untuk menukar teks yang boleh dibaca manusia kepada bentuk yang lebih boleh ditafsir oleh model pembelajaran mesin.

Tokenisasi adalah kritikal kerana kebanyakan model tidak memahami teks secara langsung. Sebaliknya, mereka memerlukan nombor untuk membuat ramalan, di mana tokenizer masuk. Ia mengambil teks, memprosesnya dan mengeluarkan perwakilan matematik yang boleh digunakan oleh model.

Dalam siaran ini, kami akan membincangkan cara tokenisasi berfungsi menggunakan model terlatih daripada Hugging Face, meneroka kaedah berbeza yang tersedia dalam perpustakaan transformer dan melihat cara tokenisasi mempengaruhi tugas hiliran seperti analisis sentimen.

Menyediakan Model dan Tokenizer

Pertama, mari kita mengimport perpustakaan yang diperlukan daripada pakej transformer dan memuatkan model terlatih. Kami akan menggunakan model "DistilBERT" yang diperhalusi untuk analisis sentimen.

from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForSequenceClassification

# Load the pre-trained model and tokenizer
model_name = "distilbert-base-uncased-finetuned-sst-2-english"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Create the classifier pipeline
classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)
Salin selepas log masuk
Salin selepas log masuk

Teks Tokenizing

Dengan model dan tokenizer disediakan, kita boleh mula tokenizing ayat mudah. Berikut adalah contoh ayat:

sentence = "I love you! I love you! I love you!"
Salin selepas log masuk
Salin selepas log masuk

Mari kita pecahkan proses tokenisasi langkah demi langkah:

1. Output Tokenizer: ID Input dan Topeng Perhatian

Apabila anda memanggil tokenizer secara terus, ia memproses teks dan mengeluarkan beberapa komponen utama:

  • input_id: Senarai ID integer yang mewakili token. Setiap token sepadan dengan entri dalam perbendaharaan kata model.
  • topeng_perhatian: Senarai satu dan sifar yang menunjukkan token mana yang perlu dijaga oleh model. Ini amat berguna apabila berurusan dengan padding.
res = tokenizer(sentence)
print(res)
Salin selepas log masuk
Salin selepas log masuk

Output:

from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForSequenceClassification

# Load the pre-trained model and tokenizer
model_name = "distilbert-base-uncased-finetuned-sst-2-english"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Create the classifier pipeline
classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)
Salin selepas log masuk
Salin selepas log masuk
  • input_id: Integer mewakili token. Contohnya, 1045 sepadan dengan "Saya", 2293 untuk "cinta", dan 999 untuk "!".
  • topeng_perhatian: Yang menunjukkan bahawa semua token perlu diberi perhatian. Jika terdapat token pelapik, anda akan melihat sifar dalam senarai ini, menunjukkan ia harus diabaikan.

2. Tokenisasi

Jika anda ingin tahu tentang cara tokenizer membahagikan ayat kepada token individu, anda boleh menggunakan kaedah tokenize(). Ini akan memberi anda senarai token tanpa ID asas:

sentence = "I love you! I love you! I love you!"
Salin selepas log masuk
Salin selepas log masuk

Output:

res = tokenizer(sentence)
print(res)
Salin selepas log masuk
Salin selepas log masuk

Perhatikan bahawa tokenisasi melibatkan pemecahan ayat kepada unit bermakna yang lebih kecil. Tokenizer juga menukar semua aksara kepada huruf kecil, kerana kami menggunakan model distilbert-base-uncased, yang tidak peka huruf besar-kecil.

3. Menukar Token kepada ID

Sebaik sahaja kami mempunyai token, langkah seterusnya ialah menukarnya kepada ID integer yang sepadan menggunakan kaedah convert_tokens_to_ids():

{
    'input_ids': [101, 1045, 2293, 2017, 999, 1045, 2293, 2017, 999, 1045, 2293, 2017, 999, 102],
    'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
}
Salin selepas log masuk

Output:

tokens = tokenizer.tokenize(sentence)
print(tokens)
Salin selepas log masuk

Setiap token mempunyai ID integer unik yang mewakilinya dalam perbendaharaan kata model. ID ini ialah input sebenar yang digunakan oleh model untuk pemprosesan.

4. Menyahkod ID Kembali ke Teks

Akhir sekali, anda boleh menyahkod ID token kembali ke dalam rentetan yang boleh dibaca manusia menggunakan kaedah nyahkod():

['i', 'love', 'you', '!', 'i', 'love', 'you', '!', 'i', 'love', 'you', '!']
Salin selepas log masuk

Output:

ids = tokenizer.convert_tokens_to_ids(tokens)
print(ids)
Salin selepas log masuk

Perhatikan bahawa rentetan yang dinyahkod adalah sangat hampir dengan input asal, kecuali untuk mengalih keluar huruf besar, yang merupakan tingkah laku standard untuk model "tidak berselubung".

Memahami Token Khas

Dalam output input_id, anda mungkin perasan dua token khas: 101 dan 102. Token ini ialah penanda khas yang digunakan oleh banyak model untuk menandakan permulaan dan akhir ayat. Khususnya:

  • 101: Menandakan permulaan ayat.
  • 102: Menandai penghujung ayat.

Token khas ini membantu model memahami sempadan teks input.

Topeng Perhatian

Seperti yang dinyatakan sebelum ini, attention_mask membantu model membezakan antara token sebenar dan token padding. Dalam kes ini, attention_mask ialah senarai yang, menunjukkan bahawa semua token harus dijaga. Jika terdapat token pelapik, anda akan melihat sifar dalam topeng untuk mengarahkan model mengabaikannya.

Ringkasan Tokenizer

Untuk meringkaskan, tokenisasi ialah langkah penting dalam menukar teks kepada bentuk yang boleh diproses oleh model pembelajaran mesin. Tokenizer Peluk Wajah mengendalikan pelbagai tugas seperti:

  • Menukar teks kepada token.
  • Memetakan token kepada ID integer unik.
  • Menjana topeng perhatian untuk model mengetahui token yang penting.

Kesimpulan

Memahami cara tokenizer berfungsi adalah kunci untuk memanfaatkan model pra-latihan dengan berkesan. Dengan memecahkan teks kepada token yang lebih kecil, kami membolehkan model memproses input dengan cara yang berstruktur dan cekap. Sama ada anda menggunakan model untuk analisis sentimen, penjanaan teks atau sebarang tugas NLP lain, tokenizer ialah alat penting dalam perancangan.

Atas ialah kandungan terperinci Memahami Tokenisasi: Menyelam Lebih Dalam ke dalam Tokenizer dengan Muka Memeluk. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

<🎜>: Bubble Gum Simulator Infinity - Cara Mendapatkan dan Menggunakan Kekunci Diraja
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Sistem Fusion, dijelaskan
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Cara Membuka Kunci Cangkuk Bergelut
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Tutorial Java
1670
14
Tutorial PHP
1276
29
Tutorial C#
1256
24
Python vs C: Lengkung pembelajaran dan kemudahan penggunaan Python vs C: Lengkung pembelajaran dan kemudahan penggunaan Apr 19, 2025 am 12:20 AM

Python lebih mudah dipelajari dan digunakan, manakala C lebih kuat tetapi kompleks. 1. Sintaks Python adalah ringkas dan sesuai untuk pemula. Penaipan dinamik dan pengurusan memori automatik menjadikannya mudah digunakan, tetapi boleh menyebabkan kesilapan runtime. 2.C menyediakan kawalan peringkat rendah dan ciri-ciri canggih, sesuai untuk aplikasi berprestasi tinggi, tetapi mempunyai ambang pembelajaran yang tinggi dan memerlukan memori manual dan pengurusan keselamatan jenis.

Python dan Masa: Memanfaatkan masa belajar anda Python dan Masa: Memanfaatkan masa belajar anda Apr 14, 2025 am 12:02 AM

Untuk memaksimumkan kecekapan pembelajaran Python dalam masa yang terhad, anda boleh menggunakan modul, masa, dan modul Python. 1. Modul DateTime digunakan untuk merakam dan merancang masa pembelajaran. 2. Modul Masa membantu menetapkan kajian dan masa rehat. 3. Modul Jadual secara automatik mengatur tugas pembelajaran mingguan.

Python vs C: Meneroka Prestasi dan Kecekapan Python vs C: Meneroka Prestasi dan Kecekapan Apr 18, 2025 am 12:20 AM

Python lebih baik daripada C dalam kecekapan pembangunan, tetapi C lebih tinggi dalam prestasi pelaksanaan. 1. Sintaks ringkas Python dan perpustakaan yang kaya meningkatkan kecekapan pembangunan. 2. Ciri-ciri jenis kompilasi dan kawalan perkakasan meningkatkan prestasi pelaksanaan. Apabila membuat pilihan, anda perlu menimbang kelajuan pembangunan dan kecekapan pelaksanaan berdasarkan keperluan projek.

Pembelajaran Python: Adakah 2 jam kajian harian mencukupi? Pembelajaran Python: Adakah 2 jam kajian harian mencukupi? Apr 18, 2025 am 12:22 AM

Adakah cukup untuk belajar Python selama dua jam sehari? Ia bergantung pada matlamat dan kaedah pembelajaran anda. 1) Membangunkan pelan pembelajaran yang jelas, 2) Pilih sumber dan kaedah pembelajaran yang sesuai, 3) mengamalkan dan mengkaji semula dan menyatukan amalan tangan dan mengkaji semula dan menyatukan, dan anda secara beransur-ansur boleh menguasai pengetahuan asas dan fungsi lanjutan Python dalam tempoh ini.

Python vs C: Memahami perbezaan utama Python vs C: Memahami perbezaan utama Apr 21, 2025 am 12:18 AM

Python dan C masing -masing mempunyai kelebihan sendiri, dan pilihannya harus berdasarkan keperluan projek. 1) Python sesuai untuk pembangunan pesat dan pemprosesan data kerana sintaks ringkas dan menaip dinamik. 2) C sesuai untuk prestasi tinggi dan pengaturcaraan sistem kerana menaip statik dan pengurusan memori manual.

Yang merupakan sebahagian daripada Perpustakaan Standard Python: Senarai atau Array? Yang merupakan sebahagian daripada Perpustakaan Standard Python: Senarai atau Array? Apr 27, 2025 am 12:03 AM

Pythonlistsarepartofthestandardlibrary, sementara

Python: Automasi, skrip, dan pengurusan tugas Python: Automasi, skrip, dan pengurusan tugas Apr 16, 2025 am 12:14 AM

Python cemerlang dalam automasi, skrip, dan pengurusan tugas. 1) Automasi: Sandaran fail direalisasikan melalui perpustakaan standard seperti OS dan Shutil. 2) Penulisan Skrip: Gunakan Perpustakaan Psutil untuk memantau sumber sistem. 3) Pengurusan Tugas: Gunakan perpustakaan jadual untuk menjadualkan tugas. Kemudahan penggunaan Python dan sokongan perpustakaan yang kaya menjadikannya alat pilihan di kawasan ini.

Python untuk Pembangunan Web: Aplikasi Utama Python untuk Pembangunan Web: Aplikasi Utama Apr 18, 2025 am 12:20 AM

Aplikasi utama Python dalam pembangunan web termasuk penggunaan kerangka Django dan Flask, pembangunan API, analisis data dan visualisasi, pembelajaran mesin dan AI, dan pengoptimuman prestasi. 1. Rangka Kerja Django dan Flask: Django sesuai untuk perkembangan pesat aplikasi kompleks, dan Flask sesuai untuk projek kecil atau sangat disesuaikan. 2. Pembangunan API: Gunakan Flask atau DjangorestFramework untuk membina Restfulapi. 3. Analisis Data dan Visualisasi: Gunakan Python untuk memproses data dan memaparkannya melalui antara muka web. 4. Pembelajaran Mesin dan AI: Python digunakan untuk membina aplikasi web pintar. 5. Pengoptimuman Prestasi: Dioptimumkan melalui pengaturcaraan, caching dan kod tak segerak

See all articles