Menyempurnakan model di platform terbuka untuk sokongan pelanggan
Model Bahasa Besar (LLMS) adalah penting untuk mengoptimumkan prestasi mereka dalam tugas-tugas tertentu. OpenAI menyediakan rangka kerja yang mantap untuk model GPT penalaan halus, yang membolehkan organisasi menyesuaikan tingkah laku AI berdasarkan keperluan khusus domain. Proses ini memainkan peranan penting dalam penyesuaian LLM, membolehkan model untuk menghasilkan tindak balas yang lebih tepat, relevan, dan konteks. Mereka juga boleh digunakan dalam pembangunan perisian untuk penjanaan kod dan debugging, dan bantuan undang -undang untuk semakan kontrak dan analisis undang -undang kes. Dalam panduan ini, kami akan berjalan melalui proses penalaan yang baik menggunakan platform Openai dan menilai prestasi model yang disesuaikan dengan aplikasi dunia nyata.
- Apakah platform terbuka? Preprocessing data
-
- Langkah 4: Penalaan halus pada platform openai
GPT-4O vs finetuned GPT-4O CHECKE Analisis -
- Soalan -soalan yang sering ditanya
- Apakah platform terbuka?
- Platform OpenAI menyediakan alat berasaskan web yang menjadikannya mudah untuk merapatkan model, membiarkan pengguna menyesuaikannya untuk tugas-tugas tertentu. Ia menyediakan arahan langkah demi langkah untuk menyediakan data, model latihan, dan menilai hasil. Di samping itu, platform menyokong integrasi lancar dengan API, membolehkan pengguna menggunakan model yang disempurnakan dengan cepat dan cekap. Ia juga menawarkan pemantauan versi dan pemantauan model automatik untuk memastikan model -model yang dilakukan secara optimum dari masa ke masa, dengan keupayaan untuk mengemas kini mereka sebagai data baru tersedia.
- inilah berapa kos untuk melatih model di platform terbuka.
Model Pricing Pricing with Batch API Training Pricing gpt-4o-2024-08-06 .750 / 1M input tokens.000 / 1M output tokens .875 / 1M input tokens.500 / 1M output tokens .000 / 1M training tokens gpt-4o-mini-2024-07-18 .300 / 1M input tokens.200 / 1M output tokens .150 / 1M input tokens.600 / 1M output tokens .000 / 1M training tokens gpt-3.5-turbo .000 / 1M training tokens.000 / 1M output tokens .500 / 1M input tokens.000 / 1M output tokens .000 / 1M training tokens Untuk maklumat lanjut, lawati halaman ini: https://openai.com/api/pricing/
penalaan halus model pada platform terbuka
Fine-penalaan model membolehkan pengguna menyesuaikan model untuk kes penggunaan tertentu, meningkatkan ketepatan, kaitan, dan kebolehsuaian mereka. Dalam panduan ini, kami memberi tumpuan kepada tindak balas yang lebih diperibadikan, tepat, dan konteks terhadap interaksi perkhidmatan pelanggan.
Dengan menala dengan baik model pada pertanyaan dan interaksi pelanggan sebenar, perniagaan dapat meningkatkan kualiti tindak balas, mengurangkan salah faham, dan meningkatkan kepuasan pengguna secara keseluruhan.
Juga baca: Panduan Pemula untuk Finetuning Model Bahasa Besar (LLMS)
Sekarang mari kita lihat bagaimana kita dapat melatih model menggunakan platform OpenAI. Kami akan melakukan ini dalam 4 langkah:
- Mengenal pasti dataset
- memuat turun data dfinetuning
- mengimport dan memproses data
- penalaan halus di platform terbuka
mari kita mulakan!
Langkah 1: Mengenal pasti dataset
Untuk menyesuaikan model, kita mula-mula memerlukan dataset berkualiti tinggi yang disesuaikan dengan kes penggunaan kami. Untuk proses penalaan yang baik ini, saya memuat turun dataset dari Hugging Face, platform popular untuk dataset dan model AI. Anda boleh menemui pelbagai jenis dataset yang sesuai untuk penalaan halus dengan melawat dataset muka yang memeluk. Cukup cari dataset yang relevan, muat turun, dan pra -prosesnya seperti yang diperlukan untuk memastikan ia sejajar dengan keperluan khusus anda.
Langkah 2: Muat turun dataset untuk finetuning
Data perkhidmatan pelanggan untuk proses penalaan halus diambil dari memeluk dataset muka. Anda boleh mengaksesnya dari sini.
LLMS memerlukan data untuk berada dalam format khusus untuk penalaan halus. Berikut adalah format sampel untuk GPT-4O, GPT-4O-MINI, dan GPT-3.5-Turbo.
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
Salin selepas log masukSalin selepas log masukSekarang dalam langkah seterusnya, kami akan menyemak apa data kami kelihatan dan membuat pelarasan yang diperlukan jika tidak dalam format yang diperlukan.
import pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
Salin selepas log masukSalin selepas log masukdi sini kita mempunyai 6 lajur yang berbeza. Tetapi kita hanya memerlukan dua - "arahan" dan "tindak balas" kerana ini adalah lajur yang mempunyai pertanyaan pelanggan dan respons relatif di dalamnya.
Sekarang kita boleh menggunakan fail CSV di atas untuk membuat fail JSONL seperti yang diperlukan untuk penalaan halus.
import json messages = pd.read_csv("training_data") with open("query_dataset.jsonl", "w", encoding='utf-8') as jsonl_file: for _, row in messages.iterrows(): user_content = row['instruction'] assintant_content = row['response'] jsonl_entry = { "messages":[ {"role": "system", "content": "You are an assistant who writes in a clear, informative, and engaging style."}, {"role": "user", "content": user_content}, {"role": "assistant", "content": assintant_content} ] } jsonl_file.write(json.dumps(jsonl_entry) + '\n')
Salin selepas log masukdi sini kami menyimpan data kami dalam format fail JSONL yang sedikit berbeza dari JSON.
JSON menyimpan data sebagai struktur hierarki (objek dan tatasusunan) dalam satu fail, menjadikannya sesuai untuk data berstruktur dengan bersarang. Berikut adalah contoh format fail JSON.
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
Salin selepas log masukSalin selepas log masukjsonl terdiri daripada pelbagai objek JSON, masing -masing pada baris berasingan, tanpa array atau struktur bersarang. Format ini lebih cekap untuk streaming, memproses dataset besar, dan mengendalikan garis data mengikut line.below adalah contoh format fail JSONL .
import pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
Salin selepas log masukSalin selepas log masukLangkah 4: Penalaan halus pada platform terbuka
Sekarang, kami akan menggunakan 'query_dataset' ini untuk menyempurnakan GPT-4O LLM. Untuk melakukan ini, ikuti langkah -langkah di bawah.
1. Pergi ke laman web ini dan log masuk jika anda belum mendaftar masuk. Sebaik sahaja log masuk, klik pada "Ketahui lebih lanjut" untuk mengetahui lebih lanjut mengenai proses penalaan halus.
Berikut adalah pecahan hiperparameter dalam imej di atas:
Saiz batch:
Ini merujuk kepada bilangan contoh latihan (titik data) yang digunakan dalam satu pas (atau langkah) sebelum mengemas kini berat model. Daripada memproses semua data sekaligus, model memproses ketulan kecil (batch) pada satu masa. Saiz batch yang lebih kecil akan mengambil lebih banyak masa tetapi boleh membuat model yang lebih baik. Anda perlu mencari keseimbangan yang betul di sini. Walaupun yang lebih besar mungkin lebih stabil tetapi lebih cepat.Pengganda Kadar Pembelajaran:
Ini adalah faktor yang menyesuaikan berapa banyak berat model berubah selepas setiap kemas kini. Sekiranya ia ditetapkan tinggi, model mungkin belajar lebih cepat tetapi boleh melampaui penyelesaian terbaik. Jika ia rendah, model akan belajar lebih perlahan tetapi mungkin lebih tepat.Bilangan zaman:
"Epoch" adalah satu lulus lengkap melalui keseluruhan dataset latihan. Bilangan zaman memberitahu anda berapa kali model akan belajar dari keseluruhan dataset. Lebih banyak zaman biasanya membenarkan model belajar lebih baik, tetapi terlalu banyak yang boleh menyebabkan overfitting.3. Pilih kaedah sebagai 'diselia' dan 'model asas' pilihan anda. Saya telah memilih GPT-4O.
5. Tambahkan 'akhiran' yang berkaitan dengan tugas yang anda mahu lakukan untuk menyesuaikan model.
6. Pilih parameter hyper atau biarkan mereka ke nilai lalai.
7. Sekarang klik pada 'Buat' dan penalaan halus akan bermula.
8. Setelah penalaan halus selesai, ia akan menunjukkan seperti berikut:
9. Sekarang kita dapat membandingkan model yang disesuaikan dengan model yang sedia ada dengan mengklik pada 'taman permainan' di sudut kanan bawah.
Nota Penting:
Tempoh penalaan dan kos bergantung kepada saiz dataset dan kerumitan model. Satu dataset yang lebih kecil, seperti 100 sampel, kos yang jauh lebih rendah tetapi mungkin tidak dapat menyesuaikan model dengan cukup, sementara dataset yang lebih besar memerlukan lebih banyak sumber dari segi masa dan wang. Dalam kes saya, dataset mempunyai kira-kira 24k sampel, jadi penalaan halus mengambil masa sekitar 7 hingga 8 jam dan menelan kos kira-kira $ 700.berhati -hati
Memandangkan kos yang tinggi, disyorkan untuk memulakan dengan dataset yang lebih kecil untuk ujian awal sebelum berskala. Memastikan dataset berstruktur dengan baik dan relevan dapat membantu mengoptimumkan prestasi dan kecekapan kos.pertanyaan: "Bantu saya menyerahkan alamat penghantaran baru"
Response oleh model GPT-4O finetuned:
Analisis perbandingan
Model yang disesuaikan dengan baik menyampaikan tindak balas yang lebih terperinci dan berpusatkan pengguna berbanding dengan GPT-4O standard. Walaupun GPT-4O menyediakan panduan langkah demi langkah yang berfungsi, model yang disesuaikan dengan baik meningkatkan kejelasan dengan membezakan secara jelas antara menambah dan mengedit alamat. Ia lebih menarik dan meyakinkan kepada pengguna dan menawarkan bantuan proaktif. Ini menunjukkan keupayaan unggul model yang disesuaikan untuk diselaraskan dengan amalan terbaik perkhidmatan pelanggan. Oleh itu, model yang disempurnakan adalah pilihan yang lebih kuat untuk tugas-tugas yang memerlukan respons mesra pengguna, berstruktur, dan sokongan.pertanyaan:
"Saya memerlukan bantuan untuk menukar ke akaun kategori akaun" Response oleh model GPT-4O finetuned:
Response oleh GPT-4O:
Analisis perbandingan
Model yang disesuaikan dengan baik meningkatkan penglibatan dan kejelasan pengguna berbanding dengan model asas. Walaupun GPT-4O memberikan tindak balas yang berstruktur namun generik, versi yang disempurnakan mengamalkan nada yang lebih perbualan dan sokongan, menjadikan interaksi berasa lebih semula jadi.
Query 3
pertanyaan: "Saya tidak tahu bagaimana untuk mengemas kini maklumat peribadi saya"
Response oleh model GPT-4O finetuned:
Response oleh GPT-4O:
Analisis perbandingan
Model yang disesuaikan dengan baik mengatasi GPT-4O standard dengan memberikan respons yang lebih tepat dan berstruktur. Walaupun GPT-4O menawarkan jawapan yang berfungsi, model yang disempurnakan dengan baik meningkatkan kejelasan dengan secara eksplisit menangani perbezaan utama dan menyampaikan maklumat dengan cara yang lebih koheren. Di samping itu, ia menyesuaikan diri dengan lebih baik dalam konteks, memastikan tindak balas yang lebih relevan dan halus.
Analisis perbandingan keseluruhan
Kesimpulan
Dalam kes ini, penalaan model untuk bertindak balas dengan lebih baik kepada pertanyaan pelanggan keberkesanannya. Ia menjadikan interaksi berasa lebih peribadi, mesra, dan menyokong, yang membawa kepada sambungan yang lebih kuat dan kepuasan pengguna yang lebih tinggi. Walaupun model asas memberikan maklumat yang jelas dan tepat, mereka dapat merasakan robot dan kurang menarik. Penalaan halus model melalui platform web OpenAI yang mudah adalah cara terbaik untuk membina model bahasa besar yang tersuai untuk tugas -tugas khusus domain.
Soalan Lazim
Q1. Apakah penalaan halus dalam model AI?a. Penalaan halus adalah proses menyesuaikan model AI yang terlatih untuk melaksanakan tugas tertentu atau mempamerkan tingkah laku tertentu dengan melatihnya lebih lanjut pada dataset khusus yang lebih kecil. Ini membolehkan model lebih memahami nuansa tugas dan menghasilkan hasil yang lebih tepat atau disesuaikan.
Q2. Bagaimanakah penalaan halus meningkatkan prestasi model AI? a. Penalaan halus meningkatkan prestasi model dengan mengajarnya untuk mengendalikan keperluan khusus tugas, seperti menambah empati dalam interaksi pelanggan. Ia membantu model memberikan lebih banyak respons yang diperibadikan, konteks yang menyedari, menjadikan interaksi berasa lebih seperti manusia dan menarik.Q3. Adakah model yang disesuaikan dengan lebih mahal untuk digunakan?Q4. Bolehkah saya menyempurnakan model saya sendiri?
a. Ya, jika anda mempunyai data dan kepakaran teknikal yang diperlukan, anda boleh menyempurnakan model menggunakan rangka kerja pembelajaran mesin seperti memeluk wajah, terbuka, atau yang lain. Walau bagaimanapun, ia biasanya memerlukan pemahaman yang kuat tentang AI, penyediaan data, dan proses latihan.Q5. Berapa lama masa yang diperlukan untuk menyempurnakan model?
Atas ialah kandungan terperinci Menyempurnakan model di platform terbuka untuk sokongan pelanggan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas











Meta's Llama 3.2: Lompat ke hadapan dalam Multimodal dan Mobile AI META baru -baru ini melancarkan Llama 3.2, kemajuan yang ketara dalam AI yang memaparkan keupayaan penglihatan yang kuat dan model teks ringan yang dioptimumkan untuk peranti mudah alih. Membina kejayaan o

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let ’

Landskap AI minggu ini: Badai kemajuan, pertimbangan etika, dan perdebatan pengawalseliaan. Pemain utama seperti Openai, Google, Meta, dan Microsoft telah melepaskan kemas kini, dari model baru yang terobosan ke peralihan penting di LE

Memo CEO Shopify Tobi Lütke baru -baru ini dengan berani mengisytiharkan penguasaan AI sebagai harapan asas bagi setiap pekerja, menandakan peralihan budaya yang signifikan dalam syarikat. Ini bukan trend seketika; Ini adalah paradigma operasi baru yang disatukan ke p

Pengenalan Bayangkan berjalan melalui galeri seni, dikelilingi oleh lukisan dan patung yang terang. Sekarang, bagaimana jika anda boleh bertanya setiap soalan dan mendapatkan jawapan yang bermakna? Anda mungkin bertanya, "Kisah apa yang anda ceritakan?

Pengenalan OpenAI telah mengeluarkan model barunya berdasarkan seni bina "strawberi" yang sangat dijangka. Model inovatif ini, yang dikenali sebagai O1, meningkatkan keupayaan penalaran, yang membolehkannya berfikir melalui masalah MOR

Pernyataan Jadual Alter SQL: Menambah lajur secara dinamik ke pangkalan data anda Dalam pengurusan data, kebolehsuaian SQL adalah penting. Perlu menyesuaikan struktur pangkalan data anda dengan cepat? Pernyataan Jadual ALTER adalah penyelesaian anda. Butiran panduan ini menambah colu

Bagi anda yang mungkin baru dalam lajur saya, saya secara meluas meneroka kemajuan terkini di AI di seluruh papan, termasuk topik seperti yang terkandung AI, penaakulan AI, terobosan berteknologi tinggi di AI, kejuruteraan segera, latihan AI, Fielding of AI, AI Re Re,
