Jadual Kandungan
penalaan halus model pada platform terbuka
Langkah 1: Mengenal pasti dataset
Langkah 2: Muat turun dataset untuk finetuning
Langkah 4: Penalaan halus pada platform terbuka
pertanyaan:
Analisis perbandingan
Query 3
Model yang disesuaikan dengan baik mengatasi GPT-4O standard dengan memberikan respons yang lebih tepat dan berstruktur. Walaupun GPT-4O menawarkan jawapan yang berfungsi, model yang disempurnakan dengan baik meningkatkan kejelasan dengan secara eksplisit menangani perbezaan utama dan menyampaikan maklumat dengan cara yang lebih koheren. Di samping itu, ia menyesuaikan diri dengan lebih baik dalam konteks, memastikan tindak balas yang lebih relevan dan halus.
Kesimpulan
Soalan Lazim
Rumah Peranti teknologi AI Menyempurnakan model di platform terbuka untuk sokongan pelanggan

Menyempurnakan model di platform terbuka untuk sokongan pelanggan

Mar 04, 2025 am 10:07 AM

Model Bahasa Besar (LLMS) adalah penting untuk mengoptimumkan prestasi mereka dalam tugas-tugas tertentu. OpenAI menyediakan rangka kerja yang mantap untuk model GPT penalaan halus, yang membolehkan organisasi menyesuaikan tingkah laku AI berdasarkan keperluan khusus domain. Proses ini memainkan peranan penting dalam penyesuaian LLM, membolehkan model untuk menghasilkan tindak balas yang lebih tepat, relevan, dan konteks. Mereka juga boleh digunakan dalam pembangunan perisian untuk penjanaan kod dan debugging, dan bantuan undang -undang untuk semakan kontrak dan analisis undang -undang kes. Dalam panduan ini, kami akan berjalan melalui proses penalaan yang baik menggunakan platform Openai dan menilai prestasi model yang disesuaikan dengan aplikasi dunia nyata.

Jadual Kandungan

    Apakah platform terbuka? Preprocessing data
    • Langkah 4: Penalaan halus pada platform openai
  • GPT-4O vs finetuned GPT-4O CHECKE Analisis
    • Soalan -soalan yang sering ditanya
    • Apakah platform terbuka?
    • Platform OpenAI menyediakan alat berasaskan web yang menjadikannya mudah untuk merapatkan model, membiarkan pengguna menyesuaikannya untuk tugas-tugas tertentu. Ia menyediakan arahan langkah demi langkah untuk menyediakan data, model latihan, dan menilai hasil. Di samping itu, platform menyokong integrasi lancar dengan API, membolehkan pengguna menggunakan model yang disempurnakan dengan cepat dan cekap. Ia juga menawarkan pemantauan versi dan pemantauan model automatik untuk memastikan model -model yang dilakukan secara optimum dari masa ke masa, dengan keupayaan untuk mengemas kini mereka sebagai data baru tersedia.
    Kos kesimpulan
  • inilah berapa kos untuk melatih model di platform terbuka.
      Model Pricing Pricing with Batch API Training Pricing
      gpt-4o-2024-08-06 .750 / 1M input tokens.000 / 1M output tokens .875 / 1M input tokens.500 / 1M output tokens .000 / 1M training tokens
      gpt-4o-mini-2024-07-18 .300 / 1M input tokens.200 / 1M output tokens .150 / 1M input tokens.600 / 1M output tokens .000 / 1M training tokens
      gpt-3.5-turbo .000 / 1M training tokens.000 / 1M output tokens .500 / 1M input tokens.000 / 1M output tokens .000 / 1M training tokens

      Untuk maklumat lanjut, lawati halaman ini: https://openai.com/api/pricing/

      penalaan halus model pada platform terbuka

      Fine-penalaan model membolehkan pengguna menyesuaikan model untuk kes penggunaan tertentu, meningkatkan ketepatan, kaitan, dan kebolehsuaian mereka. Dalam panduan ini, kami memberi tumpuan kepada tindak balas yang lebih diperibadikan, tepat, dan konteks terhadap interaksi perkhidmatan pelanggan.

      Dengan menala dengan baik model pada pertanyaan dan interaksi pelanggan sebenar, perniagaan dapat meningkatkan kualiti tindak balas, mengurangkan salah faham, dan meningkatkan kepuasan pengguna secara keseluruhan.

      Juga baca: Panduan Pemula untuk Finetuning Model Bahasa Besar (LLMS)

      Sekarang mari kita lihat bagaimana kita dapat melatih model menggunakan platform OpenAI. Kami akan melakukan ini dalam 4 langkah:

    1. Mengenal pasti dataset
    2. memuat turun data dfinetuning
    3. mengimport dan memproses data
    4. penalaan halus di platform terbuka

    mari kita mulakan!

    Langkah 1: Mengenal pasti dataset

    Untuk menyesuaikan model, kita mula-mula memerlukan dataset berkualiti tinggi yang disesuaikan dengan kes penggunaan kami. Untuk proses penalaan yang baik ini, saya memuat turun dataset dari Hugging Face, platform popular untuk dataset dan model AI. Anda boleh menemui pelbagai jenis dataset yang sesuai untuk penalaan halus dengan melawat dataset muka yang memeluk. Cukup cari dataset yang relevan, muat turun, dan pra -prosesnya seperti yang diperlukan untuk memastikan ia sejajar dengan keperluan khusus anda.

    Langkah 2: Muat turun dataset untuk finetuning

    Data perkhidmatan pelanggan untuk proses penalaan halus diambil dari memeluk dataset muka. Anda boleh mengaksesnya dari sini.

    LLMS memerlukan data untuk berada dalam format khusus untuk penalaan halus. Berikut adalah format sampel untuk GPT-4O, GPT-4O-MINI, dan GPT-3.5-Turbo.

    {"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available	1 24/7. How else may I assist you?"}]}
    Salin selepas log masuk
    Salin selepas log masuk

    Sekarang dalam langkah seterusnya, kami akan menyemak apa data kami kelihatan dan membuat pelarasan yang diperlukan jika tidak dalam format yang diperlukan.

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Langkah 3: Mengimport dan memproses data

    Sekarang kita akan mengimport data dan pra -proses ke format yang diperlukan.

    untuk melakukan ini kita akan mengikuti langkah -langkah ini:

    1. Sekarang kita akan memuatkan data dalam buku nota Jupyter dan mengubah suai untuk memadankan format yang diperlukan.

    import pandas as pd
    splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'}
    df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
    Salin selepas log masuk
    Salin selepas log masuk

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan di sini kita mempunyai 6 lajur yang berbeza. Tetapi kita hanya memerlukan dua - "arahan" dan "tindak balas" kerana ini adalah lajur yang mempunyai pertanyaan pelanggan dan respons relatif di dalamnya.

    Sekarang kita boleh menggunakan fail CSV di atas untuk membuat fail JSONL seperti yang diperlukan untuk penalaan halus.

    Seperti yang ditunjukkan di atas, kita boleh melangkah melalui bingkai data untuk membuat fail JSONL.
    import json
    messages = pd.read_csv("training_data")
    with open("query_dataset.jsonl", "w", encoding='utf-8') as jsonl_file:
       for _, row in messages.iterrows():
           user_content = row['instruction']
           assintant_content = row['response']      
           jsonl_entry = {
               "messages":[
                   {"role": "system", "content": "You are an assistant who writes in a clear, informative, and engaging style."},
                   {"role": "user", "content": user_content},
                   {"role": "assistant", "content": assintant_content}
               ]
           }    
           jsonl_file.write(json.dumps(jsonl_entry) + '\n')
    Salin selepas log masuk

    di sini kami menyimpan data kami dalam format fail JSONL yang sedikit berbeza dari JSON.

    JSON menyimpan data sebagai struktur hierarki (objek dan tatasusunan) dalam satu fail, menjadikannya sesuai untuk data berstruktur dengan bersarang. Berikut adalah contoh format fail JSON.

    {"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available	1 24/7. How else may I assist you?"}]}
    Salin selepas log masuk
    Salin selepas log masuk

    jsonl terdiri daripada pelbagai objek JSON, masing -masing pada baris berasingan, tanpa array atau struktur bersarang. Format ini lebih cekap untuk streaming, memproses dataset besar, dan mengendalikan garis data mengikut line.below adalah contoh format fail JSONL .

    import pandas as pd
    splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'}
    df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
    Salin selepas log masuk
    Salin selepas log masuk

    Langkah 4: Penalaan halus pada platform terbuka

    Sekarang, kami akan menggunakan 'query_dataset' ini untuk menyempurnakan GPT-4O LLM. Untuk melakukan ini, ikuti langkah -langkah di bawah.

    1. Pergi ke laman web ini dan log masuk jika anda belum mendaftar masuk. Sebaik sahaja log masuk, klik pada "Ketahui lebih lanjut" untuk mengetahui lebih lanjut mengenai proses penalaan halus.

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    2. Klik pada 'Buat' dan tetingkap kecil akan muncul.

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Berikut adalah pecahan hiperparameter dalam imej di atas: Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Saiz batch:

    Ini merujuk kepada bilangan contoh latihan (titik data) yang digunakan dalam satu pas (atau langkah) sebelum mengemas kini berat model. Daripada memproses semua data sekaligus, model memproses ketulan kecil (batch) pada satu masa. Saiz batch yang lebih kecil akan mengambil lebih banyak masa tetapi boleh membuat model yang lebih baik. Anda perlu mencari keseimbangan yang betul di sini. Walaupun yang lebih besar mungkin lebih stabil tetapi lebih cepat.

    Pengganda Kadar Pembelajaran:

    Ini adalah faktor yang menyesuaikan berapa banyak berat model berubah selepas setiap kemas kini. Sekiranya ia ditetapkan tinggi, model mungkin belajar lebih cepat tetapi boleh melampaui penyelesaian terbaik. Jika ia rendah, model akan belajar lebih perlahan tetapi mungkin lebih tepat.

    Bilangan zaman:

    "Epoch" adalah satu lulus lengkap melalui keseluruhan dataset latihan. Bilangan zaman memberitahu anda berapa kali model akan belajar dari keseluruhan dataset. Lebih banyak zaman biasanya membenarkan model belajar lebih baik, tetapi terlalu banyak yang boleh menyebabkan overfitting.

    3. Pilih kaedah sebagai 'diselia' dan 'model asas' pilihan anda. Saya telah memilih GPT-4O.

    4. Muat naik fail JSON untuk data latihan.

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan 5. Tambahkan 'akhiran' yang berkaitan dengan tugas yang anda mahu lakukan untuk menyesuaikan model.

    6. Pilih parameter hyper atau biarkan mereka ke nilai lalai.

    7. Sekarang klik pada 'Buat' dan penalaan halus akan bermula.

    8. Setelah penalaan halus selesai, ia akan menunjukkan seperti berikut:

    9. Sekarang kita dapat membandingkan model yang disesuaikan dengan model yang sedia ada dengan mengklik pada 'taman permainan' di sudut kanan bawah.

    Nota Penting:

    Tempoh penalaan dan kos bergantung kepada saiz dataset dan kerumitan model. Satu dataset yang lebih kecil, seperti 100 sampel, kos yang jauh lebih rendah tetapi mungkin tidak dapat menyesuaikan model dengan cukup, sementara dataset yang lebih besar memerlukan lebih banyak sumber dari segi masa dan wang. Dalam kes saya, dataset mempunyai kira-kira 24k sampel, jadi penalaan halus mengambil masa sekitar 7 hingga 8 jam dan menelan kos kira-kira $ 700.

    berhati -hati

    Memandangkan kos yang tinggi, disyorkan untuk memulakan dengan dataset yang lebih kecil untuk ujian awal sebelum berskala. Memastikan dataset berstruktur dengan baik dan relevan dapat membantu mengoptimumkan prestasi dan kecekapan kos.

    gpt-4o vs finetuned gpt-4o check prestasi

    Sekarang kita telah menunaikan model, kita akan membandingkan prestasinya dengan asas GPT-4O dan menganalisis respons dari kedua-dua model untuk melihat sama ada terdapat peningkatan ketepatan, kejelasan, pemahaman, dan kaitan. Ini akan membantu kita menentukan sama ada model yang disempurnakan memenuhi keperluan khusus kita dan melakukan lebih baik dalam tugas-tugas yang dimaksudkan. Untuk keringkasan saya menunjukkan kepada anda hasil sampel 3 arahan membentuk kedua-dua model GPT-4O yang halus dan standard.

    pertanyaan 1

    pertanyaan: "Bantu saya menyerahkan alamat penghantaran baru"

    Response oleh model GPT-4O finetuned:

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Response oleh GPT-4O:

    Analisis perbandingan Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Model yang disesuaikan dengan baik menyampaikan tindak balas yang lebih terperinci dan berpusatkan pengguna berbanding dengan GPT-4O standard. Walaupun GPT-4O menyediakan panduan langkah demi langkah yang berfungsi, model yang disesuaikan dengan baik meningkatkan kejelasan dengan membezakan secara jelas antara menambah dan mengedit alamat. Ia lebih menarik dan meyakinkan kepada pengguna dan menawarkan bantuan proaktif. Ini menunjukkan keupayaan unggul model yang disesuaikan untuk diselaraskan dengan amalan terbaik perkhidmatan pelanggan. Oleh itu, model yang disempurnakan adalah pilihan yang lebih kuat untuk tugas-tugas yang memerlukan respons mesra pengguna, berstruktur, dan sokongan.

    query 2

    pertanyaan:

    "Saya memerlukan bantuan untuk menukar ke akaun kategori akaun" Response oleh model GPT-4O finetuned:

    Response oleh GPT-4O: Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Analisis perbandingan

    Model yang disesuaikan dengan baik meningkatkan penglibatan dan kejelasan pengguna berbanding dengan model asas. Walaupun GPT-4O memberikan tindak balas yang berstruktur namun generik, versi yang disempurnakan mengamalkan nada yang lebih perbualan dan sokongan, menjadikan interaksi berasa lebih semula jadi.

    Query 3

    pertanyaan: "Saya tidak tahu bagaimana untuk mengemas kini maklumat peribadi saya"

    Response oleh model GPT-4O finetuned:

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan

    Response oleh GPT-4O:

    Menyempurnakan model di platform terbuka untuk sokongan pelanggan Analisis perbandingan

    Model yang disesuaikan dengan baik mengatasi GPT-4O standard dengan memberikan respons yang lebih tepat dan berstruktur. Walaupun GPT-4O menawarkan jawapan yang berfungsi, model yang disempurnakan dengan baik meningkatkan kejelasan dengan secara eksplisit menangani perbezaan utama dan menyampaikan maklumat dengan cara yang lebih koheren. Di samping itu, ia menyesuaikan diri dengan lebih baik dalam konteks, memastikan tindak balas yang lebih relevan dan halus.

    Analisis perbandingan keseluruhan

    Kesimpulan

    Dalam kes ini, penalaan model untuk bertindak balas dengan lebih baik kepada pertanyaan pelanggan keberkesanannya. Ia menjadikan interaksi berasa lebih peribadi, mesra, dan menyokong, yang membawa kepada sambungan yang lebih kuat dan kepuasan pengguna yang lebih tinggi. Walaupun model asas memberikan maklumat yang jelas dan tepat, mereka dapat merasakan robot dan kurang menarik. Penalaan halus model melalui platform web OpenAI yang mudah adalah cara terbaik untuk membina model bahasa besar yang tersuai untuk tugas -tugas khusus domain.

    Soalan Lazim

    Q1. Apakah penalaan halus dalam model AI?

    a. Penalaan halus adalah proses menyesuaikan model AI yang terlatih untuk melaksanakan tugas tertentu atau mempamerkan tingkah laku tertentu dengan melatihnya lebih lanjut pada dataset khusus yang lebih kecil. Ini membolehkan model lebih memahami nuansa tugas dan menghasilkan hasil yang lebih tepat atau disesuaikan.

    Q2. Bagaimanakah penalaan halus meningkatkan prestasi model AI? a.  Penalaan halus meningkatkan prestasi model dengan mengajarnya untuk mengendalikan keperluan khusus tugas, seperti menambah empati dalam interaksi pelanggan. Ia membantu model memberikan lebih banyak respons yang diperibadikan, konteks yang menyedari, menjadikan interaksi berasa lebih seperti manusia dan menarik.

    Q3. Adakah model yang disesuaikan dengan lebih mahal untuk digunakan?

    a. Model penalaan boleh memerlukan sumber dan latihan tambahan, yang boleh meningkatkan kos. Walau bagaimanapun, manfaat model yang lebih berkesan, mesra pengguna sering melebihi pelaburan awal, terutamanya untuk tugas yang melibatkan interaksi pelanggan atau penyelesaian masalah yang kompleks.

    Q4. Bolehkah saya menyempurnakan model saya sendiri?

    a. Ya, jika anda mempunyai data dan kepakaran teknikal yang diperlukan, anda boleh menyempurnakan model menggunakan rangka kerja pembelajaran mesin seperti memeluk wajah, terbuka, atau yang lain. Walau bagaimanapun, ia biasanya memerlukan pemahaman yang kuat tentang AI, penyediaan data, dan proses latihan. Q5. Berapa lama masa yang diperlukan untuk menyempurnakan model?

    a. Masa yang diperlukan untuk menyesuaikan model bergantung kepada saiz dataset, kerumitan tugas, dan sumber pengiraan yang tersedia. Ia boleh mengambil masa mana saja dari beberapa jam hingga beberapa hari atau lebih untuk model yang lebih besar dengan dataset yang luas.

Atas ialah kandungan terperinci Menyempurnakan model di platform terbuka untuk sokongan pelanggan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Tutorial Java
1655
14
Tutorial PHP
1253
29
Tutorial C#
1227
24
Bermula dengan Meta Llama 3.2 - Analytics Vidhya Bermula dengan Meta Llama 3.2 - Analytics Vidhya Apr 11, 2025 pm 12:04 PM

Meta's Llama 3.2: Lompat ke hadapan dalam Multimodal dan Mobile AI META baru -baru ini melancarkan Llama 3.2, kemajuan yang ketara dalam AI yang memaparkan keupayaan penglihatan yang kuat dan model teks ringan yang dioptimumkan untuk peranti mudah alih. Membina kejayaan o

10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari 10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari Apr 13, 2025 am 01:14 AM

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let &#8217

AV Bytes: Meta ' s llama 3.2, Google's Gemini 1.5, dan banyak lagi AV Bytes: Meta ' s llama 3.2, Google's Gemini 1.5, dan banyak lagi Apr 11, 2025 pm 12:01 PM

Landskap AI minggu ini: Badai kemajuan, pertimbangan etika, dan perdebatan pengawalseliaan. Pemain utama seperti Openai, Google, Meta, dan Microsoft telah melepaskan kemas kini, dari model baru yang terobosan ke peralihan penting di LE

Menjual Strategi AI kepada Pekerja: Manifesto CEO Shopify Menjual Strategi AI kepada Pekerja: Manifesto CEO Shopify Apr 10, 2025 am 11:19 AM

Memo CEO Shopify Tobi Lütke baru -baru ini dengan berani mengisytiharkan penguasaan AI sebagai harapan asas bagi setiap pekerja, menandakan peralihan budaya yang signifikan dalam syarikat. Ini bukan trend seketika; Ini adalah paradigma operasi baru yang disatukan ke p

Panduan Komprehensif untuk Model Bahasa Visi (VLMS) Panduan Komprehensif untuk Model Bahasa Visi (VLMS) Apr 12, 2025 am 11:58 AM

Pengenalan Bayangkan berjalan melalui galeri seni, dikelilingi oleh lukisan dan patung yang terang. Sekarang, bagaimana jika anda boleh bertanya setiap soalan dan mendapatkan jawapan yang bermakna? Anda mungkin bertanya, "Kisah apa yang anda ceritakan?

GPT-4O vs OpenAI O1: Adakah model Openai baru bernilai gembar-gembur? GPT-4O vs OpenAI O1: Adakah model Openai baru bernilai gembar-gembur? Apr 13, 2025 am 10:18 AM

Pengenalan OpenAI telah mengeluarkan model barunya berdasarkan seni bina "strawberi" yang sangat dijangka. Model inovatif ini, yang dikenali sebagai O1, meningkatkan keupayaan penalaran, yang membolehkannya berfikir melalui masalah MOR

Bagaimana untuk menambah lajur dalam SQL? - Analytics Vidhya Bagaimana untuk menambah lajur dalam SQL? - Analytics Vidhya Apr 17, 2025 am 11:43 AM

Pernyataan Jadual Alter SQL: Menambah lajur secara dinamik ke pangkalan data anda Dalam pengurusan data, kebolehsuaian SQL adalah penting. Perlu menyesuaikan struktur pangkalan data anda dengan cepat? Pernyataan Jadual ALTER adalah penyelesaian anda. Butiran panduan ini menambah colu

Penyusunan Tahunan Terkini Teknik Kejuruteraan Terbaik Penyusunan Tahunan Terkini Teknik Kejuruteraan Terbaik Apr 10, 2025 am 11:22 AM

Bagi anda yang mungkin baru dalam lajur saya, saya secara meluas meneroka kemajuan terkini di AI di seluruh papan, termasuk topik seperti yang terkandung AI, penaakulan AI, terobosan berteknologi tinggi di AI, kejuruteraan segera, latihan AI, Fielding of AI, AI Re Re,

See all articles