Inhaltsverzeichnis
Lernziele
Inhaltsverzeichnis
Warum Autorag?
Schlüsselfunktionen
Bereitstellung der besten Lag -Pipeline
Warum Autorag verwenden?
Erste Schritte
Schritt für Schritt Walkthrough des Autorag
Schritt 1: Geben Sie Ihren OpenAI -API -Schlüssel
Schritt 2: Analysieren Sie Ihre PDF -Dateien
Schritt 4: Erstellen Sie einen QA -Datensatz aus Corpus.Parquet
Schritt 6: Treten Sie der Data Creation Studio Wartelist (optional)
Schlussfolgerung
Heim Technologie-Peripheriegeräte KI Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

Mar 07, 2025 am 09:09 AM

In den letzten Monaten ist die Retrieval-Augmented-Generation (RAG) als leistungsstarke Technik zur Kombination großer Sprachmodelle mit externen Kenntnissen in die Popularität eingegangen. Die Auswahl der richtigen Lag -Pipeline - Indexing, Einbettungsmodelle, Chunking -Methode, Fragenbeantwortungsansatz - kann jedoch entmutigend sein. Wie können Sie bei unzähligen möglichen Konfigurationen sicher sein, welche Pipeline für Ihre Daten und Ihren Anwendungsfall am besten geeignet ist? Hier kommt Autorag ins Spiel.

Lernziele

  • Verstehen Sie die Grundlagen von Autorag und wie es die Optimierung der RAG -Pipeline automatisiert.
  • Erfahren Sie, wie Autorag verschiedene Lag -Konfigurationen für Ihre Daten systematisch bewertet.
  • Erforschen Sie die wichtigsten Merkmale von Autorag, einschließlich Datenerstellung, Pipeline -Experimentieren und Bereitstellung.
  • sammeln Sie praktische Erfahrungen mit einer Schritt-für-Schritt-Anleitung zum Einrichten und Verwenden von Autorag.
  • Ermitteln Sie, wie Sie die beste Lag-Pipeline mit dem automatisierten Workflow von Autorag bereitstellen.

Dieser Artikel wurde als Teil des Data Science -Blogathon veröffentlicht.

Inhaltsverzeichnis

  • Was ist Autorag? Autorag
  • Schlussfolgerung
  • Häufig gestellte Fragen
  • Was ist Autorag?
  • Autorag ist ein Open-Source-Tool (automatisiertes maschinelles Lernen), das sich auf Lappen konzentriert. Es wird systematisch verschiedene Lag -Pipeline -Komponenten in Ihrem eigenen Datensatz getestet und bewertet, um zu bestimmen, welche Konfiguration für Ihren Anwendungsfall am besten ausgeführt wird. Durch automatische Ausführung von Experimenten (und Aufgaben wie Datenerstellung, Chunking, QA -Datensatzgenerierung und Pipeline -Bereitstellungen) spart Autorag Zeit und Ärger.
  • Warum Autorag?

    • zahlreiche Lag -Pipelines und -Module : Es gibt viele Möglichkeiten, ein Lappensystem zu konfigurieren - differenzierende Textchunkinggrößen, Einbettungen, Eingabeaufforderung Vorlagen, Retriever -Module usw.
    • zeitaufwändiges Experimentieren : Es ist umständlich, jede Pipeline auf Ihren eigenen Daten manuell zu testen. Die meisten Menschen tun es nie, was bedeutet, dass sie eine bessere Leistung oder eine schnellere Inferenz verpassen könnten.
    • maßgeschneidert auf Ihre Daten und Anwendungsfall : Generische Benchmarks spiegeln möglicherweise nicht wider, wie gut eine Pipeline auf Ihrem eindeutigen Korpus funktioniert. Autorag beseitigt das Vermutung, indem Sie reale oder synthetische QS -Paare bewerten können, die aus Ihren eigenen Daten stammen.

    Schlüsselfunktionen

    • Datenerstellung : Mit Autorag können Sie Daten zur Bewertung von Lappen aus Ihren eigenen Rohdokumenten, PDF -Dateien oder anderen Textquellen erstellen. Laden Sie Ihre Dateien einfach hoch, analysieren
    • Optimierung : Autorag automatisiert das Ausführen von Experimenten (Hyperparameter -Abstimmung, Pipeline -Auswahl usw.), um die beste Lag -Pipeline für Ihre Daten zu ermitteln. Es misst Metriken wie Genauigkeit, Relevanz und sachliche Korrektheit gegen Ihren QA-Datensatz, um das Setup mit höchsten Leistung zu bestimmen.
    • Bereitstellung : Sobald Sie die beste Pipeline identifiziert haben, macht Autorag die Bereitstellung unkompliziert. Eine einzelne YAML -Konfiguration kann die optimale Pipeline in einem Flask -Server oder einer anderen Umgebung Ihrer Wahl bereitstellen.
    gebaut mit Gradio auf umarmenden Gesichtsräumen

    Die benutzerfreundliche Oberfläche von

    Autorag wird mit Gradio erstellt. Die interaktive GUI bedeutet, dass Sie kein tiefes technisches Fachwissen benötigen, um diese Experimente auszuführen. Befolgen Sie einfach die Schritte zum Hochladen von Daten, wählen Sie Parameter und generieren Ergebnisse.

    Wie Autorag Rag -Pipelines

    optimiert

    Mit Ihrem QA -Datensatz in der Hand kann Autorag automatisch:

    • Testen Sie mehrere Retrievertypen (z. B. vektorbasiert, Schlüsselwort, Hybrid).
    • Erforschen Sie verschiedene Chunk -Größen und überlappen Strategien.
    • Einbettungsmodelle bewerten (z. B. OpenAI -Einbettungen, umarmende Gesichtstransformatoren).
    • Einstellungsvorlagen , um zu sehen, welche die genauesten oder relevantesten Antworten ergibt.
    • Die Leistung gegen Ihren QA-Datensatz mithilfe von Metriken wie exakter Übereinstimmung, F1-Punktzahl oder benutzerdefinierten domänenspezifischen Metriken messen.
    Sobald die Experimente abgeschlossen sind, haben Sie:

    • Eine Rangliste der Pipeline -Konfigurationen sortiert nach Leistungsmetriken.
    • klare Erkenntnisse , in die Module oder Parameter die besten Ergebnisse für Ihre Daten liefern.
    • Eine automatisch generierte beste Pipeline , die Sie direkt von Autorag bereitstellen können.

    Bereitstellung der besten Lag -Pipeline

    Wenn Sie bereit sind, live zu gehen, rationalisiert Autorag die Bereitstellung:

    • einzelne YAML -Konfiguration : Generieren Sie eine YAML -Datei, in der Ihre Pipeline -Komponenten beschrieben werden (Retriever, Einbettder, Generatormodell usw.).
    • Ausführen auf einem Flask-Server : Hostiere deine beste Pipeline in einer lokalen oder cloud-basierten Flask-App, um eine einfache Integration in deinen vorhandenen Software-Stack zu erzielen.
    • Gradio/Umarmende Gesichtsräume : Alternativ Alternativ einsetzt auf den Umarmungsflächen mit einer Gradio-Schnittstelle für ein ohne Fuss, interaktiver Demo Ihrer Pipeline.

    Warum Autorag verwenden?

    Lassen Sie uns jetzt sehen, warum Sie Autorag versuchen sollten:

    • Zeit sparen , indem Autorag das starke Anheben der Bewertung mehrerer Lag -Konfigurationen verhandelt.
    • Verbesserung der Leistung mit einer Pipeline, die für Ihre eindeutigen Daten und Anforderungen optimiert ist.
    • nahtlose Integration mit Gradio auf umarmenden Gesichtsräumen für schnelle Demos oder Produktionsbereitstellungen.
    • Open Source und Community-gesteuerte, so können Sie sie an Ihre genauen Anforderungen anpassen oder erweitern.

    Autorag ist bereits auf Github tendiert - joo der Community und sehen Sie, wie dieses Tool Ihren Lag -Workflow revolutionieren kann.

    Erste Schritte

    • Schauen Sie sich Autorag unter GitHub an: Beispiele für den Quellcode, die Dokumentation und die Community -Beispiele.
    • Probieren Sie die Autorag-Demo über die Umarmung der Gesichtsräume : Eine gradio-basierte Demo steht Ihnen zur Verfügung, um Dateien hochzuladen, QA-Daten zu erstellen und mit verschiedenen Pipeline-Konfigurationen zu experimentieren.
    • Beitrag : Als Open-Source-Projekt begrüßt Autorag PRS, Ausgabenberichte und Feature-Vorschläge.

    Autorag entfernt die Vermutung aus dem Erstellen von Lappensystemen durch Automatisierung der Datenerstellung, Pipeline -Experimente und Bereitstellung. Wenn Sie eine schnelle und zuverlässige Möglichkeit wünschen, die beste Lappenkonfiguration für Ihre Daten zu finden, geben Sie Autorag einen Dreh und lassen Sie die Ergebnisse für sich selbst sprechen.

    Schritt für Schritt Walkthrough des Autorag

    Workflow für Datenerstellung mit den von Ihnen geteilten Screenshots. Diese Anleitung hilft Ihnen dabei, PDFs zu analysieren, Ihre Daten zu platzieren, einen QA -Datensatz zu generieren und sie für weitere Lag -Experimente vorzubereiten.

    Schritt 1: Geben Sie Ihren OpenAI -API -Schlüssel

    ein
    • Öffnen Sie die Autorag -Schnittstelle.
    • im Abschnitt "Autorag -Datenerstellung" (Screenshot #1) sehen Sie eine Eingabeaufforderung, die nach Ihrer OpenAI -API -Taste fragt.
    • Fügen Sie Ihre API -Taste in das Textfeld ein und drücken Sie die Eingabetaste.
    • Nach der Eingabe sollte sich der Status von "Nicht gesetzt" auf "gültig" (oder ähnlich) ändern, was bestätigt, dass der Schlüssel erkannt wurde.

    Hinweis: Autorag speichert oder protokolliert Ihre API -Taste nicht.

    Sie können auch Ihre bevorzugte Sprache (Englisch, 한국어, 日本語) von der rechten Seite auswählen.

    Schritt 2: Analysieren Sie Ihre PDF -Dateien

    • scrollen
    • Klicken Sie auf "Dateien hochladen", um eine oder mehrere PDF -Dokumente von Ihrem Computer auszuwählen. Der Beispiel für Screenshot zeigt eine 2,1 MB PDF -Datei mit dem Namen 66EB856E019E… IC… PDF.
    • Wählen Sie eine Parsing -Methode aus dem Dropdown.
    • Gemeinsame Optionen sind PDFMiner, PDFPLumber und Pymupdf.
    • Jeder Parser hat Stärken und Einschränkungen. Überlegen Sie sich daher, mehrere Methoden zu testen, wenn Sie auf Parsingprobleme stoßen.
    • Klicken Sie auf "Parsing ausführen" (oder die gleichwertige Aktionstaste). Autorag liest Ihre PDFs und konvertiert sie in eine einzelne RAW.Parquet -Datei.
    • Überwachen Sie das Textfeld für Fortschrittsaktualisierungen.
    • Klicken Sie nach Abschluss des Parsens auf "Raw.Parquet herunterladen", um die Ergebnisse lokal oder in Ihrem Arbeitsbereich zu speichern.

    Tipp: Die Datei raw.parquet sind Ihre analysierten Textdaten. Sie können es mit jedem Tool inspizieren, das bei Bedarf das Parquet unterstützt.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 3: Chunk Your Raw.Parquet

      wechseln Sie zu “2. Chunk Your Raw.parquet “(Screenshot #3).
    • Wenn Sie den vorherigen Schritt verwendet haben, können Sie "vorherige raw.parquet verwenden" auswählen, um die Datei automatisch zu laden. Andernfalls klicken Sie auf "Hochladen", um Ihre eigene .Parquet -Datei einzubringen.

    Wählen Sie die Chunking -Methode:

    • Token : Stücke durch eine bestimmte Anzahl von Token.
    • Satz : Text nach Satzgrenzen aufteilt.
    • semantisch : Vielleicht verwenden Sie einen semantisch ähnlichen Text mit Einbettungsbasis für Chunk-Text.
    • rekursiv : Kann für granuläre Segmente auf mehreren Ebenen einteilen.
    Stellen Sie nun die Chunk -Größe mit dem Schieberegler (z. B. 256 Token) und überlappen (z. B. 32 Token). Überlappung hilft dabei, den Kontext über Chunk -Grenzen zu erhalten.

      klicken Sie auf "
    • Ausführen von Chunking ".
    • Sehen Sie sich die
    • Textbox für eine Bestätigung oder Statusaktualisierungen an.
    • Nach Abschluss "
    • corpus.Parquet " herunterladen, um Ihren neu geschnittenen Datensatz zu erhalten.

    Warum Chunking?

    Chunking unterteilt Ihren Text in überschaubare Teile, die Abrufmethoden effizient verarbeiten können. Es gleicht den Kontext mit Relevanz aus, so dass Ihr Lappensystem die Token -Grenzen nicht überschreitet oder das Thema des Themas verdünnt.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 4: Erstellen Sie einen QA -Datensatz aus Corpus.Parquet

    in "3. Erstellen Sie den QA -Datensatz aus Ihrem Corpus.Parquet ”(Screenshot #4), laden Sie Ihren Corpus hoch.

    Wählen Sie eine QA -Methode:

    • Standard : Ein Basisansatz, der Q & A -Paare generiert.
    • schnell : Prioritätsgeschwindigkeit und senkt die Kosten, möglicherweise auf Kosten reicher Details.
    • Fortgeschrittene : Kann gründlichere, kontextreiche Q & A-Paare erzeugen, kann aber teurer oder langsamer sein.

    Modell für die Datenerstellung auswählen:

      Beispieloptionen umfassen GPT-4O-Mini oder GPT-4O (Ihre Schnittstelle kann zusätzliche Modelle auflisten).
    • Das ausgewählte Modell bestimmt die Qualität und den Stil von Fragen und Antworten.

    Anzahl der QA -Paare:

      Der Schieberegler verläuft normalerweise von 20 bis 150. Für einen ersten Lauf halten Sie ihn klein (z. B. 20 oder 30), um die Kosten zu begrenzen.

    Stapelgröße zum Öffnen von Modell:

      standardmäßig 16, was 16 Q & A -Paare pro Stapelanforderung bedeutet. Senken Sie es, wenn Sie Rate-Limit-Fehler sehen.
    klicken Sie auf "

    QA -Erstellung ". Eine Status -Update wird im Textfeld angezeigt.

    Nach Abschluss

    herunterladen Qa.Parquet , um Ihr automatisch erstellter Q & A -Datensatz abzurufen.

    Kostenwarnung: Erstellen von Q & A -Daten ruft die OpenAI -API auf, die Nutzungsgebühren verursacht. Überwachen Sie Ihre Verwendung auf der OpenAI -Abrechnungsseite, wenn Sie große Chargen ausführen möchten.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 5: Verwenden Sie Ihren QA -Datensatz

    Jetzt, da Sie:

    haben

      corpus.parquet (Ihre Dokumentdaten)
    • Qa.Parquet (automatisch generierte Q & A -Paare)
    Sie können diese in die Bewertung und Optimierung von Autorag einfügen:

    • Bewerten Sie mehrere RAG -Konfigurationen - Testen Sie verschiedene Retriever, Chunk -Größen und Einbettungsmodelle, um zu sehen, welche Kombination die Fragen in QA.Parquet am besten beantwortet.
    • Überprüfen Sie die Leistungsmetriken (exakte Übereinstimmung, F1 oder domänenspezifische Kriterien), um die optimale Pipeline zu identifizieren.
    • Bereitstellen Ihre beste Pipeline über eine einzelne YAML -Konfigurationsdatei - Autorag kann einen Flask -Server oder einen anderen Endpunkt aufspalten.

    Autorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren

    Schritt 6: Treten Sie der Data Creation Studio Wartelist (optional)

    bei

    Wenn Sie Ihren automatisch generierten QA-Datensatz anpassen möchten, die Fragen bearbeiten, bestimmte Themen herausfiltern oder domänenspezifische Richtlinien hinzufügen-, bietet Autorag ein Datenerstellungsstudio an. Melden Sie sich direkt in der Schnittstelle für die Warteliste an, indem Sie auf "Data Creation Studio Wartlist beitreten" klicken.

    Schlussfolgerung

    Autorag bietet einen optimierten und automatisierten Ansatz zur Optimierung von Pipelines (Abruf-Augmented Generation) und sparen Sie wertvolle Zeit und Aufwand, indem verschiedene auf Ihren spezifische Datensatz zugeschnittene Konfigurationen getestet werden. Durch die Vereinfachung der Datenerstellung, das Knacken, die Erzeugung von QA -Datensatz und die Pipeline -Bereitstellung stellt Autorag sicher, dass Sie schnell das effektivste LAB -Setup für Ihren Anwendungsfall identifizieren können. Mit der benutzerfreundlichen Schnittstelle und Integration in die Modelle von OpenAI bietet Autorag sowohl Anfänger als auch erfahrene Benutzer ein zuverlässiges Tool zur effizienten Verbesserung der Leistung des Lappensystems.

    Key Takeaways

      Autorag automatisiert den Prozess der Optimierung von Rag -Pipelines für eine bessere Leistung.
    • Ermöglicht Benutzern, benutzerdefinierte Datensätze zu erstellen und zu bewerten, die auf ihre Datenanforderungen zugeschnitten sind.
    • Das Tool vereinfacht die Bereitstellung der besten Pipeline mit nur einer einzelnen YAML -Konfiguration.
    • Autorags Open-Source-Natur fördert die gemeinnützigen Verbesserungen und Anpassungen.
    häufig gestellte Fragen

    Q1. Was ist Autorag und warum ist es nützlich? a. Autorag ist ein Open-Source-Automl-Tool zur Optimierung von RAG-Pipelines (Abruf-Augment-Generationen) durch Automatisierung von Konfigurationsexperimenten.

    Q2. Warum muss ich einen OpenAI -API -Schlüssel bereitstellen? a. Autorag verwendet OpenAI -Modelle, um synthetische Q & A -Paare zu generieren, die für die Bewertung der Lag -Pipeline -Leistung unerlässlich sind.

    Q3. Was ist eine RAW.Parquet -Datei und wie wird sie erstellt? a. Wenn Sie PDFs hochladen, extrahiert Autorag den Text zur effizienten Verarbeitung in eine kompakte Parquetdatei.

    Q4. Warum muss ich meinen analysierten Text abschneiden, und was ist Corpus.Parquet? a. Das Chunking unterteilt große Textdateien in kleinere, abnehmbare Segmente. Die Ausgabe wird in Corpus.Parquet für eine bessere Lag -Leistung gespeichert.

    Q5. Was ist, wenn meine PDFs kennwortgeschützt oder gescannt sind? a. Verschlüsselte oder bildbasierte PDFs benötigen eine Kennwortentfernung oder eine OCR-Verarbeitung, bevor sie mit Autorag verwendet werden können.

    Q6. Wie viel kostet es, Q & A -Paare zu generieren? a. Die Kosten hängen von der Korpusgröße, der Anzahl und der Anzahl und der Auswahl der OpenAI -Modell ab. Beginnen Sie mit kleinen Chargen, um die Kosten abzuschätzen.

    Die in diesem Artikel gezeigten Medien sind nicht im Besitz von Analytics Vidhya und wird nach Ermessen des Autors verwendet.

Das obige ist der detaillierte Inhalt vonAutorag: Optimierung von Lag-Pipelines mit Open-Source-Autoren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
<🎜> obscur: Expedition 33 - So erhalten Sie perfekte Chroma -Katalysatoren
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1677
14
PHP-Tutorial
1278
29
C#-Tutorial
1257
24
Wie baue ich multimodale KI -Agenten mit AGNO -Framework auf? Wie baue ich multimodale KI -Agenten mit AGNO -Framework auf? Apr 23, 2025 am 11:30 AM

Während der Arbeit an Agentic AI navigieren Entwickler häufig die Kompromisse zwischen Geschwindigkeit, Flexibilität und Ressourceneffizienz. Ich habe den Agenten-KI-Framework untersucht und bin auf Agno gestoßen (früher war es phi-

OpenAI-Verschiebungen Fokus mit GPT-4.1, priorisiert die Codierung und Kosteneffizienz OpenAI-Verschiebungen Fokus mit GPT-4.1, priorisiert die Codierung und Kosteneffizienz Apr 16, 2025 am 11:37 AM

Die Veröffentlichung umfasst drei verschiedene Modelle, GPT-4.1, GPT-4.1 Mini und GPT-4.1-Nano, die einen Zug zu aufgabenspezifischen Optimierungen innerhalb der Landschaft des Großsprachenmodells signalisieren. Diese Modelle ersetzen nicht sofort benutzergerichtete Schnittstellen wie

Wie füge ich eine Spalte in SQL hinzu? - Analytics Vidhya Wie füge ich eine Spalte in SQL hinzu? - Analytics Vidhya Apr 17, 2025 am 11:43 AM

SQL -Änderungstabellanweisung: Dynamisches Hinzufügen von Spalten zu Ihrer Datenbank Im Datenmanagement ist die Anpassungsfähigkeit von SQL von entscheidender Bedeutung. Müssen Sie Ihre Datenbankstruktur im laufenden Flug anpassen? Die Änderungstabelleerklärung ist Ihre Lösung. Diese Anleitung Details Hinzufügen von Colu

Raketenstartsimulation und -analyse unter Verwendung von Rocketpy - Analytics Vidhya Raketenstartsimulation und -analyse unter Verwendung von Rocketpy - Analytics Vidhya Apr 19, 2025 am 11:12 AM

Simulieren Raketenstarts mit Rocketpy: Eine umfassende Anleitung Dieser Artikel führt Sie durch die Simulation von Rocketpy-Starts mit hoher Leistung mit Rocketpy, einer leistungsstarken Python-Bibliothek. Wir werden alles abdecken, von der Definition von Raketenkomponenten bis zur Analyse von Simula

DeepCoder-14b: Der Open-Source-Wettbewerb mit O3-Mini und O1 DeepCoder-14b: Der Open-Source-Wettbewerb mit O3-Mini und O1 Apr 26, 2025 am 09:07 AM

In einer bedeutenden Entwicklung für die KI-Community haben Agentica und gemeinsam KI ein Open-Source-KI-Codierungsmodell namens DeepCoder-14b veröffentlicht. Angebotsfunktionen der Codegenerierung mit geschlossenen Wettbewerbern wie OpenAI,

Die Eingabeaufforderung: Chatgpt generiert gefälschte Pässe Die Eingabeaufforderung: Chatgpt generiert gefälschte Pässe Apr 16, 2025 am 11:35 AM

Der Chip Giant Nvidia sagte am Montag, es werde zum ersten Mal in den USA die Herstellung von KI -Supercomputern - Maschinen mit der Verarbeitung reichlicher Daten herstellen und komplexe Algorithmen ausführen. Die Ankündigung erfolgt nach Präsident Trump SI

Runway Ai's Gen-4: Wie kann eine Montage über Absurd hinausgehen Runway Ai's Gen-4: Wie kann eine Montage über Absurd hinausgehen Apr 16, 2025 am 11:45 AM

Die Filmindustrie befindet sich neben allen kreativen Sektoren vom digitalen Marketing bis hin zu sozialen Medien an einer technologischen Kreuzung. Als künstliche Intelligenz beginnt, jeden Aspekt des visuellen Geschichtenerzählens umzugestiegen und die Landschaft der Unterhaltung zu verändern

Guy Peri hilft bei der Zukunft von McCormick durch Datenumwandlung Guy Peri hilft bei der Zukunft von McCormick durch Datenumwandlung Apr 19, 2025 am 11:35 AM

Guy Peri ist McCormicks Chief Information und Digital Officer. Obwohl Peri nur sieben Monate nach seiner Rolle eine umfassende Transformation der digitalen Fähigkeiten des Unternehmens vorantreibt. Sein beruflicher Fokus auf Daten und Analysen informiert

See all articles