在OpenAI平台上微調模型以供客戶支持
>微調大語言模型(LLMS)對於優化其在特定任務中的性能至關重要。 OpenAI為微調GPT模型提供了一個強大的框架,使組織可以根據特定領域的要求量身定制AI行為。該過程在LLM自定義中起著至關重要的作用,使模型能夠生成更準確,相關和上下文感知的響應。
>微調的LLM可以在各種情況下應用,例如財務分析,用於風險評估,針對個性化響應的客戶支持以及用於輔助診斷的醫學研究。它們還可以用於軟件開發中,用於代碼生成和調試,以及合同審查和判例法分析的法律幫助。在本指南中,我們將使用OpenAI的平台瀏覽微調過程,並評估微型模型在現實世界應用中的性能。
>
- 什麼是openai平台?預處理數據
-
- 步驟4:在OpenAI平台上進行微調
-
- gpt-4o vs finetuned gpt-4o gpt-4O性能檢查
- 質量1
分析 -
- 經常詢問的問題
- 什麼是OpenAi平台?
- > OpenAI平台提供了一種基於Web的工具,該工具使您可以易於微調模型,從而使用戶將其自定義用於特定任務。它提供了準備數據,培訓模型和評估結果的分步說明。此外,該平台支持與API的無縫集成,使用戶能夠快速有效地部署微調模型。它還提供自動版本控制和模型監視,以確保模型隨著時間的推移最佳性能,並且能夠隨著新數據的可用性進行更新。 推理成本
這是在OpenAI平台上培訓模型的成本。 - 下載dfineTuning數據
- 導入和預處理數據 Openai平台上的微調
- >讓我們開始!
Model | Pricing | Pricing with Batch API | Training Pricing |
gpt-4o-2024-08-06 | .750 / 1M input tokens.000 / 1M output tokens | .875 / 1M input tokens.500 / 1M output tokens | .000 / 1M training tokens |
gpt-4o-mini-2024-07-18 | .300 / 1M input tokens.200 / 1M output tokens | .150 / 1M input tokens.600 / 1M output tokens | .000 / 1M training tokens |
gpt-3.5-turbo | .000 / 1M training tokens.000 / 1M output tokens | .500 / 1M input tokens.000 / 1M output tokens | .000 / 1M training tokens |
有關更多信息,請訪問此頁面:https://openai.com/api/pricing/
>在OpenAI平台上微調模型
微調模型允許用戶自定義特定用例的模型,從而提高其準確性,相關性和適應性。在本指南中,我們專注於對客戶服務互動的更個性化,準確和上下文感知的響應。
通過對實際客戶查詢和互動進行微調模型,企業可以提高響應質量,減少誤解並提高整體用戶滿意度。 >也請閱讀:鑑定大型語言模型的初學者指南(LLMS)> >現在讓我們看看如何使用OpenAI平台訓練模型。我們將以4個步驟進行操作:
識別數據集
為了微調模型,我們首先需要針對我們用例的高質量數據集。對於這個微調過程,我從擁抱面上下載了數據集,該數據集是一個流行的AI數據集和模型的平台。您可以通過訪問擁抱面部數據集找到適合微調的廣泛數據集。只需搜索相關數據集,下載並根據需要進行預處理,以確保其與您的特定要求保持一致。
>步驟2:下載finetuning的數據集
微調過程的客戶服務數據來自擁抱面部數據集。您可以從這裡訪問它。
LLMS需要以特定格式進行微調。這是GPT-4O,GPT-4O-Mini和GPT-3.5-Turbo。
現在,在下一步中,我們將檢查我們的數據的樣子,並進行必要的調整(如果不需要的格式)。
>步驟3:導入和預處理數據
現在,我們將將數據和預處理導入到所需的格式中。
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
現在,我們可以根據需要使用上述CSV文件來創建一個jsonl文件以進行微調。
>>如上所示,我們可以通過數據框進行迭代以創建JSONL文件。
在這裡,我們以JSONL文件格式存儲我們的數據,該格式與JSON略有不同。
>json將數據存儲為單個文件中的層次結構(對象和數組),使其適用於帶有嵌套的結構化數據。以下是JSON文件格式的示例。
>{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
JSONL 由多個JSON對象組成,每個對像都在單獨的線上,沒有數組或嵌套結構。這種格式更有效地用於流,處理大數據集和按行處理數據集。 BELOW是JSONL文件格式。
步驟4:OpenAI平台上的微調import pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
現在,我們將使用此“ query_dataset”來微調GPT-4O LLM。為此,請按照以下步驟進行操作。
1。如果您尚未簽名,請訪問此網站並登錄。登錄後,單擊“了解更多”以了解有關微調過程的更多信息。
>
2。單擊“創建”,將彈出一個小窗口。
這是上圖中的超參數的崩潰:
批量尺寸:
學習率乘數:
3。選擇該方法作為“監督”和您選擇的“基本模型”。我選擇了gpt-4o。
4。上傳培訓數據的JSON文件。
5。添加與要微調模型的任務相關的“後綴”。6。選擇超參數或將它們留在默認值中。
>7。現在單擊“創建”,微調開始。 >
9。現在,我們可以通過單擊右下角的“遊樂場”來比較細調模型與已存在的模型。
>重要說明:
>微調持續時間和成本取決於數據集的大小和模型複雜性。一個較小的數據集,例如100個樣本,成本要少得多,但可能無法充分微調模型,而較大的數據集則需要更多的時間和金錢資源。就我而言,數據集的樣本約為24K,因此微調大約需要7到8個小時,大約花費了700美元。
>小心
給定成本高,建議從較小的數據集開始,以便在擴展之前進行初始測試。確保數據集結構良好,相關可以幫助優化性能和成本效率。> gpt-4O vs Fineted GPT-4O性能檢查
>現在我們已經對模型進行了微調,我們將其性能與基本GPT-4O進行比較,並分析兩個模型的響應,以查看準確性,清晰度,理解和相關性的改善。這將有助於我們確定微型模型是否滿足我們的特定需求,並在預期的任務中表現更好。簡而
>查詢1
查詢:
“幫助我提交新的送貨地址”
通過FINETUNED GPT-4O模型的響應:
GPT-4O:
>
比較分析
與標準的GPT-4O相比,微型模型
>
查詢2
查詢:
“我需要幫助才能更改為帳戶類別帳戶”
通過FINETUNED GPT-4O模型的響應:
GPT-4O:>
顯著增強了用戶的參與度和清晰度。雖然GPT-4O提供了結構化但通用的響應,但微調版本採用了更具對話和支持性的語氣,使互動感覺更自然。 QUERY:>“我不知道如何更新我的個人信息”
>
在這種情況下,對模型進行微調以更好地響應客戶查詢其有效性。它使互動感覺更加個人化,友好和支持,從而帶來更強的聯繫和更高的用戶滿意度。儘管基本模型提供了清晰準確的信息,但它們會感覺到機器人和吸引力較小。通過OpenAI方便的Web平台對模型進行微調是為域特定任務構建自定義大語模型的一種好方法。
比較分析
與基本模型相比,微調模型>查詢3
>
比較分析
總體比較分析
結論
> Q1。 AI模型中的微調是什麼?微調是調整預先訓練的AI模型來執行特定任務或通過在較小的特定任務數據集上訓練特定行為的過程。這使模型可以更好地理解任務的細微差別並產生更準確或更量身定制的結果。微調如何改善AI模型的性能? 微調通過教導模型的性能來增強模型的性能,以更好地處理任務的特定要求,例如在客戶互動中增加同理心。它有助於該模型提供更個性化的,上下文感知的響應,從而使互動感覺更像人性化和引人入勝。微調模型使用更昂貴嗎?微調模型可能需要其他資源和培訓,這可能會增加成本。但是,更有效,用戶友好的模型的好處通常超過初始投資,尤其是對於涉及客戶互動或解決問題的任務。我可以自己微調一個模型嗎?是的,如果您擁有必要的數據和技術專長,則可以使用Hugging Face,OpenAI或其他其他機器學習框架微調模型。但是,通常需要對AI,數據準備和培訓過程有深入的了解。微調模型需要多長時間?微調一個模型所需的時間取決於數據集的大小,任務的複雜性以及可用的計算資源。對於具有龐大數據集的較大型號,它可能需要幾個小時到幾天或更長時間。
以上是在OpenAI平台上微調模型以供客戶支持的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

Meta的Llama 3.2:多模式和移動AI的飛躍 Meta最近公佈了Llama 3.2,這是AI的重大進步,具有強大的視覺功能和針對移動設備優化的輕量級文本模型。 以成功為基礎

嘿,編碼忍者!您當天計劃哪些與編碼有關的任務?在您進一步研究此博客之前,我希望您考慮所有與編碼相關的困境,這是將其列出的。 完畢? - 讓&#8217

本週的AI景觀:進步,道德考慮和監管辯論的旋風。 OpenAI,Google,Meta和Microsoft等主要參與者已經釋放了一系列更新,從開創性的新車型到LE的關鍵轉變

Shopify首席執行官TobiLütke最近的備忘錄大膽地宣布AI對每位員工的基本期望是公司內部的重大文化轉變。 這不是短暫的趨勢。這是整合到P中的新操作範式

介紹 想像一下,穿過美術館,周圍是生動的繪畫和雕塑。現在,如果您可以向每一部分提出一個問題並獲得有意義的答案,該怎麼辦?您可能會問:“您在講什麼故事?

介紹 Openai已根據備受期待的“草莓”建築發布了其新模型。這種稱為O1的創新模型增強了推理能力,使其可以通過問題進行思考

SQL的Alter表語句:動態地將列添加到數據庫 在數據管理中,SQL的適應性至關重要。 需要即時調整數據庫結構嗎? Alter表語句是您的解決方案。本指南的詳細信息添加了Colu

斯坦福大學以人為本人工智能研究所發布的《2025年人工智能指數報告》對正在進行的人工智能革命進行了很好的概述。讓我們用四個簡單的概念來解讀它:認知(了解正在發生的事情)、欣賞(看到好處)、接納(面對挑戰)和責任(弄清我們的責任)。 認知:人工智能無處不在,並且發展迅速 我們需要敏銳地意識到人工智能發展和傳播的速度有多快。人工智能係統正在不斷改進,在數學和復雜思維測試中取得了優異的成績,而就在一年前,它們還在這些測試中慘敗。想像一下,人工智能解決複雜的編碼問題或研究生水平的科學問題——自2023年
