


Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport
Feinabstimmungsmodelle (LLMs) sind für die Optimierung ihrer Leistung in bestimmten Aufgaben von wesentlicher Bedeutung. OpenAI bietet einen robusten Rahmen für Feinabstimmung GPT-Modelle, mit dem Unternehmen das Verhalten von AI anhand der domänenspezifischen Anforderungen an die Annäherung an domänenspezifische Anforderungen anpassen können. Dieser Prozess spielt eine entscheidende Rolle bei der LLM-Anpassung und ermöglicht es, Modelle genauere, relevantere und kontextbezogene Antworten zu generieren. Sie können auch in der Softwareentwicklung für die Erzeugung und das Debuggen von Code sowie für die Rechtshilfe für die Überprüfung der Vertragsrechnung und die Analyse der Rechtsprechung verwendet werden. In diesem Leitfaden werden wir mithilfe der OpenAI-Plattform den Feinabstimmungsprozess durchlaufen und die Leistung des Feinabstimmungsmodells in realen Anwendungen bewerten.
- Was ist OpenAI -Plattform? Vorbereitung der Daten
-
- Schritt 4: Feinabstimmung auf der OpenAI-Plattform
GPT-4O vs finatuned GPT-4O-Leistungsprüfung -
- Abfrage 1
- Abfrage 2
- query 3
- Insgesamt Vergleiche 2
- Analyse
- Häufig gestellte Fragen
- Was ist OpenAI -Plattform?
- Die OpenAI-Plattform bietet ein webbasiertes Tool, mit dem die Feinabstimmung von Modellen einfach eingestuft werden kann, sodass Benutzer sie für bestimmte Aufgaben anpassen können. Es enthält schrittweise Anweisungen zur Vorbereitung von Daten, Trainingsmodellen und zur Bewertung der Ergebnisse. Darüber hinaus unterstützt die Plattform eine nahtlose Integration in APIs, sodass Benutzer fein abgestimmte Modelle schnell und effizient bereitstellen können. Es bietet auch eine automatische Versioning- und Modellüberwachung, um sicherzustellen, dass Modelle im Laufe der Zeit optimal funktionieren, um sie zu aktualisieren, wenn neue Daten verfügbar sind.
- Kosten für Inferenz
- Hier ist, wie viel es kostet, Modelle auf der OpenAI -Plattform zu trainieren.
Model Pricing Pricing with Batch API Training Pricing gpt-4o-2024-08-06 .750 / 1M input tokens.000 / 1M output tokens .875 / 1M input tokens.500 / 1M output tokens .000 / 1M training tokens gpt-4o-mini-2024-07-18 .300 / 1M input tokens.200 / 1M output tokens .150 / 1M input tokens.600 / 1M output tokens .000 / 1M training tokens gpt-3.5-turbo .000 / 1M training tokens.000 / 1M output tokens .500 / 1M input tokens.000 / 1M output tokens .000 / 1M training tokens Weitere Informationen finden Sie auf dieser Seite: https://openai.com/api/pricing/
Feinabstimmung eines Modells auf der OpenAI -Plattform
MitEinstimmung mit einem Modell können Benutzer Modelle für bestimmte Anwendungsfälle anpassen und ihre Genauigkeit, Relevanz und Anpassungsfähigkeit verbessern. In diesem Leitfaden konzentrieren wir uns auf personalisiertere, genauere und kontextbezogene Antworten auf den Kundendienstinteraktionen.
Durch Feinabstimmung eines Modells über echte Kundenfragen und -interaktionen können die Unternehmen die Reaktionsqualität verbessern, Missverständnisse reduzieren und die allgemeine Benutzerzufriedenheit verbessern.
Lesen Sie auch: Anfängerleitfaden zur Finetuning Großsprachenmodelle (LLMs)
Lassen Sie uns nun sehen, wie wir ein Modell mit der OpenAI -Plattform trainieren können. Wir werden dies in 4 Schritten tun:
- Identifizieren des Datensatzes
- Herunterladen der Dfinetuning -Daten
- Importieren und Vorverarbeitung der Daten
- Feinabstimmung auf der OpenAI-Plattform
Beginnen wir!
Schritt 1: Identifizierung des Datensatzes
Um das Modell zu optimieren, benötigen wir zunächst einen hochwertigen Datensatz, der auf unseren Anwendungsfall zugeschnitten ist. Für diesen Feinabstimmungsprozess habe ich den Datensatz von Sugging Face, einer beliebten Plattform für KI -Datensätze und -modelle, heruntergeladen. Sie finden eine breite Palette von Datensätzen, die für die Feinabstimmung geeignet sind, indem Sie umarmende Gesichtsdatensätze besuchen. Suchen Sie einfach nach einem relevanten Datensatz, laden Sie ihn herunter und werden nach Bedarf vorverarbeitet, um sicherzustellen, dass sie mit Ihren spezifischen Anforderungen übereinstimmen.
Schritt 2: Herunterladen des Datensatzes für die Finetuning
Die Kundendienstdaten für den Feinabstimmungsprozess stammen aus dem Umarmungsdatensätzen. Sie können hier von hier aus zugreifen.
llms benötigen Daten, um eine bestimmte Einstellung in einem bestimmten Format zu finden. Hier ist ein Beispielformat für GPT-4O, GPT-4O-Mini und GPT-3,5-Turbo.
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
Nach dem Login kopierenNach dem Login kopierenJetzt werden wir im nächsten Schritt überprüfen, wie unsere Daten aussehen, und die erforderlichen Anpassungen vornehmen, wenn sie sich nicht in der erforderlichen Form befinden.
Schritt 3: Importieren und Vorverarbeitung der Daten
Jetzt werden wir die Daten und die Vorverarbeitung in das erforderliche Format importieren.
, um dies zu tun, werden wir folgende Schritte befolgen:
1. Jetzt laden wir die Daten im Jupyter -Notizbuch und ändern sie so dem erforderlichen Format.
import pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
Nach dem Login kopierenNach dem Login kopierenHier haben wir 6 verschiedene Spalten. Wir brauchen jedoch nur zwei - „Anweisungen“ und „Antwort“, da dies die Spalten sind, die Kundenfragen und die relativen Antworten enthält.
Jetzt können wir die obige CSV-Datei verwenden, um eine JSONL-Datei nach Bedarf für die Feinabstimmung zu erstellen.
import json messages = pd.read_csv("training_data") with open("query_dataset.jsonl", "w", encoding='utf-8') as jsonl_file: for _, row in messages.iterrows(): user_content = row['instruction'] assintant_content = row['response'] jsonl_entry = { "messages":[ {"role": "system", "content": "You are an assistant who writes in a clear, informative, and engaging style."}, {"role": "user", "content": user_content}, {"role": "assistant", "content": assintant_content} ] } jsonl_file.write(json.dumps(jsonl_entry) + '\n')
Nach dem Login kopierenWie oben gezeigt, können wir den Datenrahmen durchführen, um die JSONL -Datei zu erstellen.
Hier speichern wir unsere Daten in einem JSONL -Dateiformat, das sich geringfügig von JSON unterscheidet.
json speichert Daten als hierarchische Struktur (Objekte und Arrays) in einer einzelnen Datei, wodurch sie für strukturierte Daten mit Verschachtelung geeignet sind. Unten finden Sie ein Beispiel für das JSON -Dateiformat.
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
Nach dem Login kopierenNach dem Login kopierenJSONL besteht aus mehreren JSON -Objekten, die jeweils auf einer separaten Zeile ohne Arrays oder verschachtelte Strukturen sind. Dieses Format ist effizienter für das Streaming, die Verarbeitung großer Datensätze und die Handhabung von Datenzeilen nach Line.Below ist ein Beispiel für das JSONL -Dateiformat .
Schritt 4: Feinabstimmung auf der OpenAI-Plattformimport pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
Nach dem Login kopierenNach dem Login kopierenJetzt werden wir dieses "query_dataset" verwenden, um das GPT-4O LLM zu optimieren. Befolgen Sie dazu die folgenden Schritte.
1. Gehen Sie zu dieser Website und melden Sie sich an, wenn Sie sich noch nicht angemeldet haben. Wenn Sie sich angemeldet haben, klicken Sie auf „More“, um mehr über den Feinabstimmungsvorgang zu erfahren.
2. Klicken Sie auf "Erstellen" und ein kleines Fenster wird angezeigt.
Hier ist eine Aufschlüsselung der Hyperparameter im obigen Bild:
Dies bezieht sich auf die Anzahl der Schulungsbeispiele (Datenpunkte), die in einem Pass (oder Schritt) verwendet werden, bevor die Gewichte des Modells aktualisiert werden. Anstatt alle Daten gleichzeitig zu verarbeiten, verarbeitet das Modell gleichzeitig kleine Stücke (Chargen). Eine kleinere Chargengröße dauert mehr Zeit, kann aber bessere Modelle erzeugen. Hier müssen Sie das richtige Gleichgewicht finden. Während ein größerer stabiler, aber viel schneller sein mag.
Multiplikator für Lernrate:Dies ist ein Faktor, der anpasst, wie stark sich die Gewichte des Modells nach jedem Update ändern. Wenn es hoch ist, könnte das Modell schneller lernen, aber die beste Lösung überschreiten. Wenn es niedrig ist, wird das Modell langsamer lernen, aber genauer sein.
Anzahl der Epochen:Eine „Epoche“ ist ein vollständiger Durchgang im gesamten Trainingsdatensatz. Die Anzahl der Epochen zeigt, wie oft das Modell aus dem gesamten Datensatz lernt. Mehr Epochen ermöglichen das Modell normalerweise, besser zu lernen, aber zu viele können zu Überanpassungen führen. 3. Wählen Sie die Methode als "beaufsichtigt" und das "Basismodell" Ihrer Wahl aus. Ich habe GPT-4O ausgewählt.
4. Laden Sie die JSON -Datei für die Trainingsdaten hoch.
5. Fügen Sie ein "Suffix" hinzu, das für die Aufgabe relevant ist, bei der Sie das Modell fein abstellen möchten.
6. Wählen Sie die Hyperparameter oder überlassen Sie sie den Standardwerten.
7. Klicken Sie nun auf "Erstellen" und die Feinabstimmung beginnt.
8. Sobald die Feinabstimmung abgeschlossen ist, wird er wie folgt angezeigt:
9. Jetzt können wir das feinstimmige Modell mit dem bereits bestehenden Modell vergleichen, indem wir in der unteren rechten Ecke auf den Spielplatz klicken.
Wichtiger Hinweis:
Dauer und Kosten für Feinabstimmungen hängen von der Datensatzgröße und der Modellkomplexität ab. Ein kleinerer Datensatz, wie 100 Proben, kostet erheblich weniger, kann das Modell möglicherweise nicht ausreichend einstellen, während größere Datensätze sowohl Zeit als auch Geld mehr Ressourcen benötigen. In meinem Fall hatte der Datensatz ungefähr 24.000 Proben, sodass die Feinabstimmung ungefähr 7 bis 8 Stunden dauerte und ungefähr 700 US-Dollar kostete.
Vorsicht
Angesichts der hohen Kosten wird empfohlen, mit einem kleineren Datensatz für Ersttests vor dem Skalieren zu beginnen. Sicherstellen, dass der Datensatz gut strukturiert und relevant ist, kann dazu beitragen, sowohl die Leistung als auch die Kosteneffizienz zu optimieren.
GPT-4O gegen finetuned GPT-4O-Leistungsprüfung
Jetzt, da wir das Modell fein abgestimmt haben, werden wir seine Leistung mit dem Basis-GPT-4O vergleichen und Antworten aus beiden Modellen analysieren, um festzustellen, ob sich die Genauigkeit, Klarheit, Verständnis und Relevanz verbessert. Dies hilft uns, festzustellen, ob das fein abgestimmte Modell unsere spezifischen Anforderungen entspricht und in den beabsichtigten Aufgaben besser abschneidet. Für die Kürze zeige ich Ihnen Beispielergebnisse von 3 Eingabeaufforderungen bilden sowohl das feinstürfende als auch das Standard-GPT-4O-Modell.
Abfrage 1
Abfrage: „Helfen Sie mir, die neue Lieferadresse einzureichen“
Antwort durch finatuned GPT-4O-Modell:
Antwort von GPT-4O:
Vergleichende Analyse
Das fein abgestimmte Modell liefert im Vergleich zum Standard-GPT-4O eine detailliertere und benutzerzentriertere Antwort. Während GPT-4O eine funktionale Schritt-für-Schritt-Anleitung bietet, verbessert das fein abgestimmte Modell die Klarheit, indem sie explizit zwischen Hinzufügen und Bearbeiten einer Adresse unterscheidet. Es ist ansprechender und beruhigender für den Benutzer und bietet proaktive Unterstützung. Dies zeigt die überlegene Fähigkeit des fein abgestimmten Modells, sich an den Best Practices für den Kundenservice auszurichten. Das fein abgestimmte Modell ist daher eine stärkere Wahl für Aufgaben, die benutzerfreundliche, strukturierte und unterstützende Antworten erforderlich sind.
Abfrage 2
Abfrage: „Ich brauche Unterstützung, um das Kontokategoriekonto zu ändern“
Antwort durch finatuned GPT-4O-Modell:
Antwort von GPT-4O:
Vergleichende Analyse
Das fein abgestimmte Modell verbessert das Engagement und die Klarheit des Benutzers im Vergleich zum Basismodell erheblich. Während GPT-4O eine strukturierte und dennoch generische Reaktion liefert, nimmt die fein abgestimmte Version einen gesprächigeren und unterstützenderen Ton an, wodurch sich die Interaktionen natürlicher anfühlen.
Abfrage 3
Abfrage: „Ich weiß nicht, wie ich meine persönlichen Informationen aktualisieren kann“
Antwort durch finatuned GPT-4O-Modell:
Antwort von GPT-4O:
Vergleichende Analyse
Das fein abgestimmte Modell übertrifft den Standard-GPT-4O, indem sie eine präzisere und strukturiertere Reaktion liefert. Während GPT-4O eine funktionale Antwort bietet, verbessert das fein abgestimmte Modell die Klarheit, indem sie explizit wichtige Unterscheidungen angeht und Informationen in kohärenterer Weise präsentiert. Zusätzlich passt es sich besser an den Kontext an und gewährleistet eine relevantere und raffiniertere Antwort.
Gesamtvergleichsanalyse
Feature Fine-Tuned GPT-4o GPT-4o (Base Model) Empathy & Engagement High – offers reassurance, warmth, and a personalized touch Low – neutral and formal tone, lacks emotional depth User Support & Understanding Strong – makes users feel supported and valued Moderate – provides clear guidance but lacks emotional connection Tone & Personalization Warm and engaging Professional and neutral Efficiency in Information Delivery Clear instructions with added emotional intelligence Highly efficient but lacks warmth Overall User Experience More engaging, comfortable, and memorable Functional but impersonal and transactional Impact on Interaction Quality Enhances both effectiveness and emotional resonance Focuses on delivering information without emotional engagement Schlussfolgerung
In diesem Fall fein abfragt die Modelle, um besser auf den Kunden zu reagieren, ihre Effektivität. Es macht Interaktionen persönlicher, freundlicher und unterstützender, was zu stärkeren Verbindungen und höherer Benutzerzufriedenheit führt. Während Basismodelle klare und genaue Informationen liefern, können sie sich roboter und weniger ansprechend fühlen. Die Feinabstimmung der Modelle über die praktische Webplattform von OpenAI ist eine großartige Möglichkeit, maßgeschneiderte großsprachige Modelle für domänenspezifische Aufgaben zu erstellen.
häufig gestellte Fragen
Q1. Was ist Feinabstimmung in AI-Modellen?a. Feinabstimmung ist der Prozess der Anpassung eines vorgebliebenen KI-Modells, um eine bestimmte Aufgabe auszuführen oder ein bestimmtes Verhalten zu zeigen, indem es es weiter in einem kleineren, aufgabenspezifischen Datensatz trainiert. Auf diese Weise kann das Modell die Nuancen der Aufgabe besser verstehen und genauere oder maßgeschneiderte Ergebnisse erzielen.
Q2. Wie verbessert die Feinabstimmung die Leistung eines KI-Modells?a. Die Feinabstimmung verbessert die Leistung eines Modells, indem er es lehrt, die spezifischen Anforderungen einer Aufgabe besser zu erfüllen, z. B. das Hinzufügen von Empathie in Kundeninteraktionen. Es hilft dem Modell, personalisiertere, kontextbewusste Reaktionen zu liefern und die Interaktionen menschlicher und ansprechender zu machen.
Q3. Sind fein abgestimmte Modelle teurer zu bedienen?a. Feinabstimmungsmodelle können zusätzliche Ressourcen und Schulungen erfordern, die die Kosten erhöhen können. Die Vorteile eines effektiveren, benutzerfreundlicheren Modells überwiegen jedoch häufig die anfängliche Investition, insbesondere für Aufgaben, die Kundeninteraktion oder komplexe Problemlösung beinhalten.
Q4. Kann ich ein Modell alleine gut abschneiden?a. Ja, wenn Sie über die erforderlichen Daten und technischen Fachkenntnisse verfügen, können Sie ein Modell mit maschinellem Lernrahmen wie Umarmung von Gesicht, OpenAI oder anderen fein stimmen. Es erfordert jedoch typischerweise ein starkes Verständnis der KI, Datenvorbereitung und Schulungsprozesse.
Q5. Wie lange dauert es, ein Modell zu optimieren?a. Die Zeit, die für die Feinabstimmung eines Modells erforderlich ist, hängt von der Größe des Datensatzes, der Komplexität der Aufgabe und den verfügbaren Rechenressourcen ab. Für größere Modelle mit riesigen Datensätzen kann es zwischen einigen Stunden und mehreren Tagen oder mehr dauern.
Das obige ist der detaillierte Inhalt vonFeinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Während der Arbeit an Agentic AI navigieren Entwickler häufig die Kompromisse zwischen Geschwindigkeit, Flexibilität und Ressourceneffizienz. Ich habe den Agenten-KI-Framework untersucht und bin auf Agno gestoßen (früher war es phi-

Die Veröffentlichung umfasst drei verschiedene Modelle, GPT-4.1, GPT-4.1 Mini und GPT-4.1-Nano, die einen Zug zu aufgabenspezifischen Optimierungen innerhalb der Landschaft des Großsprachenmodells signalisieren. Diese Modelle ersetzen nicht sofort benutzergerichtete Schnittstellen wie

SQL -Änderungstabellanweisung: Dynamisches Hinzufügen von Spalten zu Ihrer Datenbank Im Datenmanagement ist die Anpassungsfähigkeit von SQL von entscheidender Bedeutung. Müssen Sie Ihre Datenbankstruktur im laufenden Flug anpassen? Die Änderungstabelleerklärung ist Ihre Lösung. Diese Anleitung Details Hinzufügen von Colu

Schalte die Kraft des Einbettungsmodelle frei: einen tiefen Eintauchen in den neuen Kurs von Andrew Ng Stellen Sie sich eine Zukunft vor, in der Maschinen Ihre Fragen mit perfekter Genauigkeit verstehen und beantworten. Dies ist keine Science -Fiction; Dank der Fortschritte in der KI wird es zu einem R

Simulieren Raketenstarts mit Rocketpy: Eine umfassende Anleitung Dieser Artikel führt Sie durch die Simulation von Rocketpy-Starts mit hoher Leistung mit Rocketpy, einer leistungsstarken Python-Bibliothek. Wir werden alles abdecken, von der Definition von Raketenkomponenten bis zur Analyse von Simula

Gemini als Grundlage der KI -Strategie von Google Gemini ist der Eckpfeiler der AI -Agentenstrategie von Google und nutzt seine erweiterten multimodalen Funktionen, um Antworten auf Text, Bilder, Audio, Video und Code zu verarbeiten und zu generieren. Entwickelt von Deepm

"Super froh, Ihnen mitteilen zu können, dass wir Pollenroboter erwerben, um Open-Source-Roboter in die Welt zu bringen", sagte Hugging Face auf X.

In einer bedeutenden Entwicklung für die KI-Community haben Agentica und gemeinsam KI ein Open-Source-KI-Codierungsmodell namens DeepCoder-14b veröffentlicht. Angebotsfunktionen der Codegenerierung mit geschlossenen Wettbewerbern wie OpenAI,
