Inhaltsverzeichnis
Feinabstimmung eines Modells auf der OpenAI -Plattform
Schritt 1: Identifizierung des Datensatzes
Schritt 2: Herunterladen des Datensatzes für die Finetuning
Schritt 3: Importieren und Vorverarbeitung der Daten
Jetzt werden wir dieses "query_dataset" verwenden, um das GPT-4O LLM zu optimieren. Befolgen Sie dazu die folgenden Schritte.
Wichtiger Hinweis:
GPT-4O gegen finetuned GPT-4O-Leistungsprüfung
Abfrage 3
Vergleichende Analyse
Gesamtvergleichsanalyse
Schlussfolgerung
häufig gestellte Fragen
Heim Technologie-Peripheriegeräte KI Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

Mar 04, 2025 am 10:07 AM

Feinabstimmungsmodelle (LLMs) sind für die Optimierung ihrer Leistung in bestimmten Aufgaben von wesentlicher Bedeutung. OpenAI bietet einen robusten Rahmen für Feinabstimmung GPT-Modelle, mit dem Unternehmen das Verhalten von AI anhand der domänenspezifischen Anforderungen an die Annäherung an domänenspezifische Anforderungen anpassen können. Dieser Prozess spielt eine entscheidende Rolle bei der LLM-Anpassung und ermöglicht es, Modelle genauere, relevantere und kontextbezogene Antworten zu generieren. Sie können auch in der Softwareentwicklung für die Erzeugung und das Debuggen von Code sowie für die Rechtshilfe für die Überprüfung der Vertragsrechnung und die Analyse der Rechtsprechung verwendet werden. In diesem Leitfaden werden wir mithilfe der OpenAI-Plattform den Feinabstimmungsprozess durchlaufen und die Leistung des Feinabstimmungsmodells in realen Anwendungen bewerten.

Inhaltsverzeichnis

    Was ist OpenAI -Plattform? Vorbereitung der Daten
    • Schritt 4: Feinabstimmung auf der OpenAI-Plattform
  • GPT-4O vs finatuned GPT-4O-Leistungsprüfung
    • Abfrage 1
    • Abfrage 2
    • query 3
    • Insgesamt Vergleiche 2
    • Analyse
  • Häufig gestellte Fragen
    • Was ist OpenAI -Plattform?
    • Die OpenAI-Plattform bietet ein webbasiertes Tool, mit dem die Feinabstimmung von Modellen einfach eingestuft werden kann, sodass Benutzer sie für bestimmte Aufgaben anpassen können. Es enthält schrittweise Anweisungen zur Vorbereitung von Daten, Trainingsmodellen und zur Bewertung der Ergebnisse. Darüber hinaus unterstützt die Plattform eine nahtlose Integration in APIs, sodass Benutzer fein abgestimmte Modelle schnell und effizient bereitstellen können. Es bietet auch eine automatische Versioning- und Modellüberwachung, um sicherzustellen, dass Modelle im Laufe der Zeit optimal funktionieren, um sie zu aktualisieren, wenn neue Daten verfügbar sind.
    • Kosten für Inferenz
    • Hier ist, wie viel es kostet, Modelle auf der OpenAI -Plattform zu trainieren.
    Model Pricing Pricing with Batch API Training Pricing
    gpt-4o-2024-08-06 .750 / 1M input tokens.000 / 1M output tokens .875 / 1M input tokens.500 / 1M output tokens .000 / 1M training tokens
    gpt-4o-mini-2024-07-18 .300 / 1M input tokens.200 / 1M output tokens .150 / 1M input tokens.600 / 1M output tokens .000 / 1M training tokens
    gpt-3.5-turbo .000 / 1M training tokens.000 / 1M output tokens .500 / 1M input tokens.000 / 1M output tokens .000 / 1M training tokens

    Weitere Informationen finden Sie auf dieser Seite: https://openai.com/api/pricing/

    Feinabstimmung eines Modells auf der OpenAI -Plattform

    Mit

    Einstimmung mit einem Modell können Benutzer Modelle für bestimmte Anwendungsfälle anpassen und ihre Genauigkeit, Relevanz und Anpassungsfähigkeit verbessern. In diesem Leitfaden konzentrieren wir uns auf personalisiertere, genauere und kontextbezogene Antworten auf den Kundendienstinteraktionen.

    Durch Feinabstimmung eines Modells über echte Kundenfragen und -interaktionen können die Unternehmen die Reaktionsqualität verbessern, Missverständnisse reduzieren und die allgemeine Benutzerzufriedenheit verbessern.

    Lesen Sie auch: Anfängerleitfaden zur Finetuning Großsprachenmodelle (LLMs)

    Lassen Sie uns nun sehen, wie wir ein Modell mit der OpenAI -Plattform trainieren können. Wir werden dies in 4 Schritten tun:

    1. Identifizieren des Datensatzes
    2. Herunterladen der Dfinetuning -Daten
    3. Importieren und Vorverarbeitung der Daten
    4. Feinabstimmung auf der OpenAI-Plattform

    Beginnen wir!

    Schritt 1: Identifizierung des Datensatzes

    Um das Modell zu optimieren, benötigen wir zunächst einen hochwertigen Datensatz, der auf unseren Anwendungsfall zugeschnitten ist. Für diesen Feinabstimmungsprozess habe ich den Datensatz von Sugging Face, einer beliebten Plattform für KI -Datensätze und -modelle, heruntergeladen. Sie finden eine breite Palette von Datensätzen, die für die Feinabstimmung geeignet sind, indem Sie umarmende Gesichtsdatensätze besuchen. Suchen Sie einfach nach einem relevanten Datensatz, laden Sie ihn herunter und werden nach Bedarf vorverarbeitet, um sicherzustellen, dass sie mit Ihren spezifischen Anforderungen übereinstimmen.

    Schritt 2: Herunterladen des Datensatzes für die Finetuning

    Die Kundendienstdaten für den Feinabstimmungsprozess stammen aus dem Umarmungsdatensätzen. Sie können hier von hier aus zugreifen.

    llms benötigen Daten, um eine bestimmte Einstellung in einem bestimmten Format zu finden. Hier ist ein Beispielformat für GPT-4O, GPT-4O-Mini und GPT-3,5-Turbo.

    {"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available	1 24/7. How else may I assist you?"}]}
    Nach dem Login kopieren
    Nach dem Login kopieren

    Jetzt werden wir im nächsten Schritt überprüfen, wie unsere Daten aussehen, und die erforderlichen Anpassungen vornehmen, wenn sie sich nicht in der erforderlichen Form befinden.

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

    Schritt 3: Importieren und Vorverarbeitung der Daten

    Jetzt werden wir die Daten und die Vorverarbeitung in das erforderliche Format importieren.

    , um dies zu tun, werden wir folgende Schritte befolgen:

    1. Jetzt laden wir die Daten im Jupyter -Notizbuch und ändern sie so dem erforderlichen Format.

    import pandas as pd
    splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'}
    df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
    Nach dem Login kopieren
    Nach dem Login kopieren

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

    Hier haben wir 6 verschiedene Spalten. Wir brauchen jedoch nur zwei - „Anweisungen“ und „Antwort“, da dies die Spalten sind, die Kundenfragen und die relativen Antworten enthält.

    Jetzt können wir die obige CSV-Datei verwenden, um eine JSONL-Datei nach Bedarf für die Feinabstimmung zu erstellen.

    import json
    messages = pd.read_csv("training_data")
    with open("query_dataset.jsonl", "w", encoding='utf-8') as jsonl_file:
       for _, row in messages.iterrows():
           user_content = row['instruction']
           assintant_content = row['response']      
           jsonl_entry = {
               "messages":[
                   {"role": "system", "content": "You are an assistant who writes in a clear, informative, and engaging style."},
                   {"role": "user", "content": user_content},
                   {"role": "assistant", "content": assintant_content}
               ]
           }    
           jsonl_file.write(json.dumps(jsonl_entry) + '\n')
    Nach dem Login kopieren

    Wie oben gezeigt, können wir den Datenrahmen durchführen, um die JSONL -Datei zu erstellen.

    Hier speichern wir unsere Daten in einem JSONL -Dateiformat, das sich geringfügig von JSON unterscheidet.

    json speichert Daten als hierarchische Struktur (Objekte und Arrays) in einer einzelnen Datei, wodurch sie für strukturierte Daten mit Verschachtelung geeignet sind. Unten finden Sie ein Beispiel für das JSON -Dateiformat.

    {"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available	1 24/7. How else may I assist you?"}]}
    Nach dem Login kopieren
    Nach dem Login kopieren

    JSONL besteht aus mehreren JSON -Objekten, die jeweils auf einer separaten Zeile ohne Arrays oder verschachtelte Strukturen sind. Dieses Format ist effizienter für das Streaming, die Verarbeitung großer Datensätze und die Handhabung von Datenzeilen nach Line.Below ist ein Beispiel für das JSONL -Dateiformat .

    Schritt 4: Feinabstimmung auf der OpenAI-Plattform
    import pandas as pd
    splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'}
    df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])
    Nach dem Login kopieren
    Nach dem Login kopieren

    Jetzt werden wir dieses "query_dataset" verwenden, um das GPT-4O LLM zu optimieren. Befolgen Sie dazu die folgenden Schritte.

    1. Gehen Sie zu dieser Website und melden Sie sich an, wenn Sie sich noch nicht angemeldet haben. Wenn Sie sich angemeldet haben, klicken Sie auf „More“, um mehr über den Feinabstimmungsvorgang zu erfahren.

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport 2. Klicken Sie auf "Erstellen" und ein kleines Fenster wird angezeigt.

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport Hier ist eine Aufschlüsselung der Hyperparameter im obigen Bild:

    Stapelgröße:

    Dies bezieht sich auf die Anzahl der Schulungsbeispiele (Datenpunkte), die in einem Pass (oder Schritt) verwendet werden, bevor die Gewichte des Modells aktualisiert werden. Anstatt alle Daten gleichzeitig zu verarbeiten, verarbeitet das Modell gleichzeitig kleine Stücke (Chargen). Eine kleinere Chargengröße dauert mehr Zeit, kann aber bessere Modelle erzeugen. Hier müssen Sie das richtige Gleichgewicht finden. Während ein größerer stabiler, aber viel schneller sein mag.

    Multiplikator für Lernrate:

    Dies ist ein Faktor, der anpasst, wie stark sich die Gewichte des Modells nach jedem Update ändern. Wenn es hoch ist, könnte das Modell schneller lernen, aber die beste Lösung überschreiten. Wenn es niedrig ist, wird das Modell langsamer lernen, aber genauer sein.

    Anzahl der Epochen:

    Eine „Epoche“ ist ein vollständiger Durchgang im gesamten Trainingsdatensatz. Die Anzahl der Epochen zeigt, wie oft das Modell aus dem gesamten Datensatz lernt. Mehr Epochen ermöglichen das Modell normalerweise, besser zu lernen, aber zu viele können zu Überanpassungen führen. 3. Wählen Sie die Methode als "beaufsichtigt" und das "Basismodell" Ihrer Wahl aus. Ich habe GPT-4O ausgewählt.

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport 4. Laden Sie die JSON -Datei für die Trainingsdaten hoch.

    5. Fügen Sie ein "Suffix" hinzu, das für die Aufgabe relevant ist, bei der Sie das Modell fein abstellen möchten.

    6. Wählen Sie die Hyperparameter oder überlassen Sie sie den Standardwerten.

    7. Klicken Sie nun auf "Erstellen" und die Feinabstimmung beginnt.

    8. Sobald die Feinabstimmung abgeschlossen ist, wird er wie folgt angezeigt:

    9. Jetzt können wir das feinstimmige Modell mit dem bereits bestehenden Modell vergleichen, indem wir in der unteren rechten Ecke auf den Spielplatz klicken.

    Wichtiger Hinweis:

    Dauer und Kosten für Feinabstimmungen hängen von der Datensatzgröße und der Modellkomplexität ab. Ein kleinerer Datensatz, wie 100 Proben, kostet erheblich weniger, kann das Modell möglicherweise nicht ausreichend einstellen, während größere Datensätze sowohl Zeit als auch Geld mehr Ressourcen benötigen. In meinem Fall hatte der Datensatz ungefähr 24.000 Proben, sodass die Feinabstimmung ungefähr 7 bis 8 Stunden dauerte und ungefähr 700 US-Dollar kostete.

    Vorsicht

    Angesichts der hohen Kosten wird empfohlen, mit einem kleineren Datensatz für Ersttests vor dem Skalieren zu beginnen. Sicherstellen, dass der Datensatz gut strukturiert und relevant ist, kann dazu beitragen, sowohl die Leistung als auch die Kosteneffizienz zu optimieren.

    GPT-4O gegen finetuned GPT-4O-Leistungsprüfung

    Jetzt, da wir das Modell fein abgestimmt haben, werden wir seine Leistung mit dem Basis-GPT-4O vergleichen und Antworten aus beiden Modellen analysieren, um festzustellen, ob sich die Genauigkeit, Klarheit, Verständnis und Relevanz verbessert. Dies hilft uns, festzustellen, ob das fein abgestimmte Modell unsere spezifischen Anforderungen entspricht und in den beabsichtigten Aufgaben besser abschneidet. Für die Kürze zeige ich Ihnen Beispielergebnisse von 3 Eingabeaufforderungen bilden sowohl das feinstürfende als auch das Standard-GPT-4O-Modell.

    Abfrage 1

    Abfrage: „Helfen Sie mir, die neue Lieferadresse einzureichen“

    Antwort durch finatuned GPT-4O-Modell:

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

    Antwort von GPT-4O:

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

    Vergleichende Analyse

    Das fein abgestimmte Modell liefert im Vergleich zum Standard-GPT-4O eine detailliertere und benutzerzentriertere Antwort. Während GPT-4O eine funktionale Schritt-für-Schritt-Anleitung bietet, verbessert das fein abgestimmte Modell die Klarheit, indem sie explizit zwischen Hinzufügen und Bearbeiten einer Adresse unterscheidet. Es ist ansprechender und beruhigender für den Benutzer und bietet proaktive Unterstützung. Dies zeigt die überlegene Fähigkeit des fein abgestimmten Modells, sich an den Best Practices für den Kundenservice auszurichten. Das fein abgestimmte Modell ist daher eine stärkere Wahl für Aufgaben, die benutzerfreundliche, strukturierte und unterstützende Antworten erforderlich sind.

    Abfrage 2

    Abfrage: „Ich brauche Unterstützung, um das Kontokategoriekonto zu ändern“

    Antwort durch finatuned GPT-4O-Modell:

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

    Antwort von GPT-4O:

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

    Vergleichende Analyse

    Das fein abgestimmte Modell verbessert das Engagement und die Klarheit des Benutzers im Vergleich zum Basismodell erheblich. Während GPT-4O eine strukturierte und dennoch generische Reaktion liefert, nimmt die fein abgestimmte Version einen gesprächigeren und unterstützenderen Ton an, wodurch sich die Interaktionen natürlicher anfühlen.

    Abfrage 3

    Abfrage: „Ich weiß nicht, wie ich meine persönlichen Informationen aktualisieren kann“

    Antwort durch finatuned GPT-4O-Modell:

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

    Antwort von GPT-4O:

    Feinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport

    Vergleichende Analyse

    Das fein abgestimmte Modell übertrifft den Standard-GPT-4O, indem sie eine präzisere und strukturiertere Reaktion liefert. Während GPT-4O eine funktionale Antwort bietet, verbessert das fein abgestimmte Modell die Klarheit, indem sie explizit wichtige Unterscheidungen angeht und Informationen in kohärenterer Weise präsentiert. Zusätzlich passt es sich besser an den Kontext an und gewährleistet eine relevantere und raffiniertere Antwort.

    Gesamtvergleichsanalyse

    Feature Fine-Tuned GPT-4o GPT-4o (Base Model)
    Empathy & Engagement High – offers reassurance, warmth, and a personalized touch Low – neutral and formal tone, lacks emotional depth
    User Support & Understanding Strong – makes users feel supported and valued Moderate – provides clear guidance but lacks emotional connection
    Tone & Personalization Warm and engaging Professional and neutral
    Efficiency in Information Delivery Clear instructions with added emotional intelligence Highly efficient but lacks warmth
    Overall User Experience More engaging, comfortable, and memorable Functional but impersonal and transactional
    Impact on Interaction Quality Enhances both effectiveness and emotional resonance Focuses on delivering information without emotional engagement

    Schlussfolgerung

    In diesem Fall fein abfragt die Modelle, um besser auf den Kunden zu reagieren, ihre Effektivität. Es macht Interaktionen persönlicher, freundlicher und unterstützender, was zu stärkeren Verbindungen und höherer Benutzerzufriedenheit führt. Während Basismodelle klare und genaue Informationen liefern, können sie sich roboter und weniger ansprechend fühlen. Die Feinabstimmung der Modelle über die praktische Webplattform von OpenAI ist eine großartige Möglichkeit, maßgeschneiderte großsprachige Modelle für domänenspezifische Aufgaben zu erstellen.

    häufig gestellte Fragen

    Q1. Was ist Feinabstimmung in AI-Modellen?

    a. Feinabstimmung ist der Prozess der Anpassung eines vorgebliebenen KI-Modells, um eine bestimmte Aufgabe auszuführen oder ein bestimmtes Verhalten zu zeigen, indem es es weiter in einem kleineren, aufgabenspezifischen Datensatz trainiert. Auf diese Weise kann das Modell die Nuancen der Aufgabe besser verstehen und genauere oder maßgeschneiderte Ergebnisse erzielen.

    Q2. Wie verbessert die Feinabstimmung die Leistung eines KI-Modells?

    a.  Die Feinabstimmung verbessert die Leistung eines Modells, indem er es lehrt, die spezifischen Anforderungen einer Aufgabe besser zu erfüllen, z. B. das Hinzufügen von Empathie in Kundeninteraktionen. Es hilft dem Modell, personalisiertere, kontextbewusste Reaktionen zu liefern und die Interaktionen menschlicher und ansprechender zu machen.

    Q3. Sind fein abgestimmte Modelle teurer zu bedienen?

    a. Feinabstimmungsmodelle können zusätzliche Ressourcen und Schulungen erfordern, die die Kosten erhöhen können. Die Vorteile eines effektiveren, benutzerfreundlicheren Modells überwiegen jedoch häufig die anfängliche Investition, insbesondere für Aufgaben, die Kundeninteraktion oder komplexe Problemlösung beinhalten.

    Q4. Kann ich ein Modell alleine gut abschneiden?

    a. Ja, wenn Sie über die erforderlichen Daten und technischen Fachkenntnisse verfügen, können Sie ein Modell mit maschinellem Lernrahmen wie Umarmung von Gesicht, OpenAI oder anderen fein stimmen. Es erfordert jedoch typischerweise ein starkes Verständnis der KI, Datenvorbereitung und Schulungsprozesse.

    Q5. Wie lange dauert es, ein Modell zu optimieren?

    a. Die Zeit, die für die Feinabstimmung eines Modells erforderlich ist, hängt von der Größe des Datensatzes, der Komplexität der Aufgabe und den verfügbaren Rechenressourcen ab. Für größere Modelle mit riesigen Datensätzen kann es zwischen einigen Stunden und mehreren Tagen oder mehr dauern.

Das obige ist der detaillierte Inhalt vonFeinabstimmung eines Modells auf der OpenAI-Plattform für den Kundensupport. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1675
14
PHP-Tutorial
1278
29
C#-Tutorial
1257
24
Wie baue ich multimodale KI -Agenten mit AGNO -Framework auf? Wie baue ich multimodale KI -Agenten mit AGNO -Framework auf? Apr 23, 2025 am 11:30 AM

Während der Arbeit an Agentic AI navigieren Entwickler häufig die Kompromisse zwischen Geschwindigkeit, Flexibilität und Ressourceneffizienz. Ich habe den Agenten-KI-Framework untersucht und bin auf Agno gestoßen (früher war es phi-

OpenAI-Verschiebungen Fokus mit GPT-4.1, priorisiert die Codierung und Kosteneffizienz OpenAI-Verschiebungen Fokus mit GPT-4.1, priorisiert die Codierung und Kosteneffizienz Apr 16, 2025 am 11:37 AM

Die Veröffentlichung umfasst drei verschiedene Modelle, GPT-4.1, GPT-4.1 Mini und GPT-4.1-Nano, die einen Zug zu aufgabenspezifischen Optimierungen innerhalb der Landschaft des Großsprachenmodells signalisieren. Diese Modelle ersetzen nicht sofort benutzergerichtete Schnittstellen wie

Wie füge ich eine Spalte in SQL hinzu? - Analytics Vidhya Wie füge ich eine Spalte in SQL hinzu? - Analytics Vidhya Apr 17, 2025 am 11:43 AM

SQL -Änderungstabellanweisung: Dynamisches Hinzufügen von Spalten zu Ihrer Datenbank Im Datenmanagement ist die Anpassungsfähigkeit von SQL von entscheidender Bedeutung. Müssen Sie Ihre Datenbankstruktur im laufenden Flug anpassen? Die Änderungstabelleerklärung ist Ihre Lösung. Diese Anleitung Details Hinzufügen von Colu

Neuer kurzer Kurs zum Einbetten von Modellen von Andrew NG Neuer kurzer Kurs zum Einbetten von Modellen von Andrew NG Apr 15, 2025 am 11:32 AM

Schalte die Kraft des Einbettungsmodelle frei: einen tiefen Eintauchen in den neuen Kurs von Andrew Ng Stellen Sie sich eine Zukunft vor, in der Maschinen Ihre Fragen mit perfekter Genauigkeit verstehen und beantworten. Dies ist keine Science -Fiction; Dank der Fortschritte in der KI wird es zu einem R

Raketenstartsimulation und -analyse unter Verwendung von Rocketpy - Analytics Vidhya Raketenstartsimulation und -analyse unter Verwendung von Rocketpy - Analytics Vidhya Apr 19, 2025 am 11:12 AM

Simulieren Raketenstarts mit Rocketpy: Eine umfassende Anleitung Dieser Artikel führt Sie durch die Simulation von Rocketpy-Starts mit hoher Leistung mit Rocketpy, einer leistungsstarken Python-Bibliothek. Wir werden alles abdecken, von der Definition von Raketenkomponenten bis zur Analyse von Simula

Google enthüllt die umfassendste Agentenstrategie bei Cloud nächsten 2025 Google enthüllt die umfassendste Agentenstrategie bei Cloud nächsten 2025 Apr 15, 2025 am 11:14 AM

Gemini als Grundlage der KI -Strategie von Google Gemini ist der Eckpfeiler der AI -Agentenstrategie von Google und nutzt seine erweiterten multimodalen Funktionen, um Antworten auf Text, Bilder, Audio, Video und Code zu verarbeiten und zu generieren. Entwickelt von Deepm

Open Source Humanoide Roboter, die Sie 3D selbst ausdrucken können: Umarme Gesicht kauft Pollenroboter Open Source Humanoide Roboter, die Sie 3D selbst ausdrucken können: Umarme Gesicht kauft Pollenroboter Apr 15, 2025 am 11:25 AM

"Super froh, Ihnen mitteilen zu können, dass wir Pollenroboter erwerben, um Open-Source-Roboter in die Welt zu bringen", sagte Hugging Face auf X.

DeepCoder-14b: Der Open-Source-Wettbewerb mit O3-Mini und O1 DeepCoder-14b: Der Open-Source-Wettbewerb mit O3-Mini und O1 Apr 26, 2025 am 09:07 AM

In einer bedeutenden Entwicklung für die KI-Community haben Agentica und gemeinsam KI ein Open-Source-KI-Codierungsmodell namens DeepCoder-14b veröffentlicht. Angebotsfunktionen der Codegenerierung mit geschlossenen Wettbewerbern wie OpenAI,

See all articles