


Memahami Tokenisasi: Menyelam Lebih Dalam ke dalam Tokenizer dengan Muka Memeluk
Tokenisasi ialah konsep asas dalam pemprosesan bahasa semula jadi (NLP), terutamanya apabila berurusan dengan model bahasa. Dalam artikel ini, kami akan meneroka perkara yang dilakukan oleh tokenizer, cara ia berfungsi dan cara kami boleh memanfaatkannya menggunakan perpustakaan transformer Hugging Face [https://huggingface.co/docs/transformers/index] untuk pelbagai aplikasi.
Apa itu Tokenizer?
Pada terasnya, tokenizer memecahkan teks mentah kepada unit yang lebih kecil yang dipanggil token. Token ini boleh mewakili perkataan, subkata atau aksara, bergantung pada jenis tokenizer yang digunakan. Matlamat tokenisasi adalah untuk menukar teks yang boleh dibaca manusia kepada bentuk yang lebih boleh ditafsir oleh model pembelajaran mesin.
Tokenisasi adalah kritikal kerana kebanyakan model tidak memahami teks secara langsung. Sebaliknya, mereka memerlukan nombor untuk membuat ramalan, di mana tokenizer masuk. Ia mengambil teks, memprosesnya dan mengeluarkan perwakilan matematik yang boleh digunakan oleh model.
Dalam siaran ini, kami akan membincangkan cara tokenisasi berfungsi menggunakan model terlatih daripada Hugging Face, meneroka kaedah berbeza yang tersedia dalam perpustakaan transformer dan melihat cara tokenisasi mempengaruhi tugas hiliran seperti analisis sentimen.
Menyediakan Model dan Tokenizer
Pertama, mari kita mengimport perpustakaan yang diperlukan daripada pakej transformer dan memuatkan model terlatih. Kami akan menggunakan model "DistilBERT" yang diperhalusi untuk analisis sentimen.
from transformers import pipeline from transformers import AutoTokenizer, AutoModelForSequenceClassification # Load the pre-trained model and tokenizer model_name = "distilbert-base-uncased-finetuned-sst-2-english" model = AutoModelForSequenceClassification.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) # Create the classifier pipeline classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)
Teks Tokenizing
Dengan model dan tokenizer disediakan, kita boleh mula tokenizing ayat mudah. Berikut adalah contoh ayat:
sentence = "I love you! I love you! I love you!"
Mari kita pecahkan proses tokenisasi langkah demi langkah:
1. Output Tokenizer: ID Input dan Topeng Perhatian
Apabila anda memanggil tokenizer secara terus, ia memproses teks dan mengeluarkan beberapa komponen utama:
- input_id: Senarai ID integer yang mewakili token. Setiap token sepadan dengan entri dalam perbendaharaan kata model.
- topeng_perhatian: Senarai satu dan sifar yang menunjukkan token mana yang perlu dijaga oleh model. Ini amat berguna apabila berurusan dengan padding.
res = tokenizer(sentence) print(res)
Output:
from transformers import pipeline from transformers import AutoTokenizer, AutoModelForSequenceClassification # Load the pre-trained model and tokenizer model_name = "distilbert-base-uncased-finetuned-sst-2-english" model = AutoModelForSequenceClassification.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) # Create the classifier pipeline classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)
- input_id: Integer mewakili token. Contohnya, 1045 sepadan dengan "Saya", 2293 untuk "cinta", dan 999 untuk "!".
- topeng_perhatian: Yang menunjukkan bahawa semua token perlu diberi perhatian. Jika terdapat token pelapik, anda akan melihat sifar dalam senarai ini, menunjukkan ia harus diabaikan.
2. Tokenisasi
Jika anda ingin tahu tentang cara tokenizer membahagikan ayat kepada token individu, anda boleh menggunakan kaedah tokenize(). Ini akan memberi anda senarai token tanpa ID asas:
sentence = "I love you! I love you! I love you!"
Output:
res = tokenizer(sentence) print(res)
Perhatikan bahawa tokenisasi melibatkan pemecahan ayat kepada unit bermakna yang lebih kecil. Tokenizer juga menukar semua aksara kepada huruf kecil, kerana kami menggunakan model distilbert-base-uncased, yang tidak peka huruf besar-kecil.
3. Menukar Token kepada ID
Sebaik sahaja kami mempunyai token, langkah seterusnya ialah menukarnya kepada ID integer yang sepadan menggunakan kaedah convert_tokens_to_ids():
{ 'input_ids': [101, 1045, 2293, 2017, 999, 1045, 2293, 2017, 999, 1045, 2293, 2017, 999, 102], 'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1] }
Output:
tokens = tokenizer.tokenize(sentence) print(tokens)
Setiap token mempunyai ID integer unik yang mewakilinya dalam perbendaharaan kata model. ID ini ialah input sebenar yang digunakan oleh model untuk pemprosesan.
4. Menyahkod ID Kembali ke Teks
Akhir sekali, anda boleh menyahkod ID token kembali ke dalam rentetan yang boleh dibaca manusia menggunakan kaedah nyahkod():
['i', 'love', 'you', '!', 'i', 'love', 'you', '!', 'i', 'love', 'you', '!']
Output:
ids = tokenizer.convert_tokens_to_ids(tokens) print(ids)
Perhatikan bahawa rentetan yang dinyahkod adalah sangat hampir dengan input asal, kecuali untuk mengalih keluar huruf besar, yang merupakan tingkah laku standard untuk model "tidak berselubung".
Memahami Token Khas
Dalam output input_id, anda mungkin perasan dua token khas: 101 dan 102. Token ini ialah penanda khas yang digunakan oleh banyak model untuk menandakan permulaan dan akhir ayat. Khususnya:
- 101: Menandakan permulaan ayat.
- 102: Menandai penghujung ayat.
Token khas ini membantu model memahami sempadan teks input.
Topeng Perhatian
Seperti yang dinyatakan sebelum ini, attention_mask membantu model membezakan antara token sebenar dan token padding. Dalam kes ini, attention_mask ialah senarai yang, menunjukkan bahawa semua token harus dijaga. Jika terdapat token pelapik, anda akan melihat sifar dalam topeng untuk mengarahkan model mengabaikannya.
Ringkasan Tokenizer
Untuk meringkaskan, tokenisasi ialah langkah penting dalam menukar teks kepada bentuk yang boleh diproses oleh model pembelajaran mesin. Tokenizer Peluk Wajah mengendalikan pelbagai tugas seperti:
- Menukar teks kepada token.
- Memetakan token kepada ID integer unik.
- Menjana topeng perhatian untuk model mengetahui token yang penting.
Kesimpulan
Memahami cara tokenizer berfungsi adalah kunci untuk memanfaatkan model pra-latihan dengan berkesan. Dengan memecahkan teks kepada token yang lebih kecil, kami membolehkan model memproses input dengan cara yang berstruktur dan cekap. Sama ada anda menggunakan model untuk analisis sentimen, penjanaan teks atau sebarang tugas NLP lain, tokenizer ialah alat penting dalam perancangan.
Atas ialah kandungan terperinci Memahami Tokenisasi: Menyelam Lebih Dalam ke dalam Tokenizer dengan Muka Memeluk. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas











Python lebih mudah dipelajari dan digunakan, manakala C lebih kuat tetapi kompleks. 1. Sintaks Python adalah ringkas dan sesuai untuk pemula. Penaipan dinamik dan pengurusan memori automatik menjadikannya mudah digunakan, tetapi boleh menyebabkan kesilapan runtime. 2.C menyediakan kawalan peringkat rendah dan ciri-ciri canggih, sesuai untuk aplikasi berprestasi tinggi, tetapi mempunyai ambang pembelajaran yang tinggi dan memerlukan memori manual dan pengurusan keselamatan jenis.

Untuk memaksimumkan kecekapan pembelajaran Python dalam masa yang terhad, anda boleh menggunakan modul, masa, dan modul Python. 1. Modul DateTime digunakan untuk merakam dan merancang masa pembelajaran. 2. Modul Masa membantu menetapkan kajian dan masa rehat. 3. Modul Jadual secara automatik mengatur tugas pembelajaran mingguan.

Python lebih baik daripada C dalam kecekapan pembangunan, tetapi C lebih tinggi dalam prestasi pelaksanaan. 1. Sintaks ringkas Python dan perpustakaan yang kaya meningkatkan kecekapan pembangunan. 2. Ciri-ciri jenis kompilasi dan kawalan perkakasan meningkatkan prestasi pelaksanaan. Apabila membuat pilihan, anda perlu menimbang kelajuan pembangunan dan kecekapan pelaksanaan berdasarkan keperluan projek.

Adakah cukup untuk belajar Python selama dua jam sehari? Ia bergantung pada matlamat dan kaedah pembelajaran anda. 1) Membangunkan pelan pembelajaran yang jelas, 2) Pilih sumber dan kaedah pembelajaran yang sesuai, 3) mengamalkan dan mengkaji semula dan menyatukan amalan tangan dan mengkaji semula dan menyatukan, dan anda secara beransur-ansur boleh menguasai pengetahuan asas dan fungsi lanjutan Python dalam tempoh ini.

Python dan C masing -masing mempunyai kelebihan sendiri, dan pilihannya harus berdasarkan keperluan projek. 1) Python sesuai untuk pembangunan pesat dan pemprosesan data kerana sintaks ringkas dan menaip dinamik. 2) C sesuai untuk prestasi tinggi dan pengaturcaraan sistem kerana menaip statik dan pengurusan memori manual.

Pythonlistsarepartofthestandardlibrary, sementara

Python cemerlang dalam automasi, skrip, dan pengurusan tugas. 1) Automasi: Sandaran fail direalisasikan melalui perpustakaan standard seperti OS dan Shutil. 2) Penulisan Skrip: Gunakan Perpustakaan Psutil untuk memantau sumber sistem. 3) Pengurusan Tugas: Gunakan perpustakaan jadual untuk menjadualkan tugas. Kemudahan penggunaan Python dan sokongan perpustakaan yang kaya menjadikannya alat pilihan di kawasan ini.

Aplikasi utama Python dalam pembangunan web termasuk penggunaan kerangka Django dan Flask, pembangunan API, analisis data dan visualisasi, pembelajaran mesin dan AI, dan pengoptimuman prestasi. 1. Rangka Kerja Django dan Flask: Django sesuai untuk perkembangan pesat aplikasi kompleks, dan Flask sesuai untuk projek kecil atau sangat disesuaikan. 2. Pembangunan API: Gunakan Flask atau DjangorestFramework untuk membina Restfulapi. 3. Analisis Data dan Visualisasi: Gunakan Python untuk memproses data dan memaparkannya melalui antara muka web. 4. Pembelajaran Mesin dan AI: Python digunakan untuk membina aplikasi web pintar. 5. Pengoptimuman Prestasi: Dioptimumkan melalui pengaturcaraan, caching dan kod tak segerak
