


Schätzung der Kosten von GPT mithilfe der Tiktoken -Bibliothek in Python
Verwaltung von OpenAI -GPT -Modellkosten in Python wird mit der tiktoken
-Bibliothek vereinfacht. Dieses Tool schätzt die API -Aufrufkosten, indem Text in Token konvertiert wird. Dieser Artikel erklärt Tokenisierung, Bytepaar -Codierung (BPE) und Verwendung tiktoken
zur Kostenvorhersage.
Tokenisierung, der erste Schritt zur Übersetzung der natürlichen Sprache für KI, unterteilt Text in kleinere Einheiten (Token). Dies können je nach Methode Wörter, Teile oder Zeichen sein. Effektive Tokenisierung ist entscheidend für genaue Interpretation, kohärente Antworten und Kostenschätzung.
Bytepaar codieren (BPE)
BPE, eine herausragende Tokenisierungsmethode für GPT-Modelle, gleicht Ansätze auf Charakterebene und Wortebene aus. Es verschmilzt iterativ die häufigsten Byte- (oder Zeichen-) Paare in neue Token und werden fortgesetzt, bis eine Zielvokabulargröße erreicht ist.
Die Bedeutung des BPE liegt in seiner Fähigkeit, vielfältiges Vokabular zu bewältigen, einschließlich seltener Wörter und Neologismen, ohne ein übermäßig großes Wortschatz zu benötigen. Es erreicht dies, indem sie ungewöhnliche Wörter in Unterwörter oder Zeichen zerlegen, sodass das Modell die Bedeutung aus bekannten Komponenten schließen kann.Schlüssel -BPE -Eigenschaften:
- Reversibilität: Der Originaltext kann perfekt aus Token rekonstruiert werden.
- Vielseitigkeit: verarbeitet jeden Text, auch während des Trainings nicht gesehen.
- Komprimierung: Die tokenisierte Version ist im Allgemeinen kürzer als das Original. Jedes Token repräsentiert ungefähr vier Bytes.
- Subword -Erkennung: identifiziert und verwendet gemeinsame Wortteile (z. B. "ing"), Verbesserung des grammatikalischen Verständnisses.
: OpenAIs schneller BPE -Algorithmus tiktoken
ist der Hochgeschwindigkeits-BPE-Algorithmus von Openai (3-6x schneller als vergleichbare Open-Source-Alternativen nach ihrem GitHub). Die Open-Source-Version ist in verschiedenen Bibliotheken erhältlich, einschließlich Python. tiktoken
in Python tiktoken
schätzen
codiert Text in Token und ermöglicht die Kostenschätzung vor API -Aufrufen. tiktoken
Schritt 1: Installation
!pip install openai tiktoken
Schritt 2: Laden Sie eine Codierung
Verwenden Sie oder tiktoken.get_encoding
: tiktoken.encoding_for_model
!pip install openai tiktoken
Schritt 3: Text
codierenencoding = tiktoken.get_encoding("cl100k_base") # Or: encoding = tiktoken.encoding_for_model("gpt-4")
Die Token-Anzahl, kombiniert mit OpenAIs Preisgestaltung (z. B. 10-m-Eingangs-Token für GPT-4), liefert eine Kostenschätzung. tiktoken
's decode
Methode kehrt den Prozess um.
Schlussfolgerung
tiktoken
eliminiert die Vermutung in der GPT -Kostenschätzung. Durch das Verständnis von Tokenisierung und BPE und mithilfe von tiktoken
können Sie Ihre GPT -API -Anrufkosten genau vorhersagen und verwalten, wodurch Ihre Verwendung und Ihr Budget optimiert werden. Erforschen Sie die Ressourcen von DataCamp (Links im Original bereitgestellt).
Das obige ist der detaillierte Inhalt vonSchätzung der Kosten von GPT mithilfe der Tiktoken -Bibliothek in Python. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Metas Lama 3.2: Ein Sprung nach vorne in der multimodalen und mobilen KI Meta hat kürzlich Lama 3.2 vorgestellt, ein bedeutender Fortschritt in der KI mit leistungsstarken Sichtfunktionen und leichten Textmodellen, die für mobile Geräte optimiert sind. Aufbau auf dem Erfolg o

Hey da, codieren Ninja! Welche Codierungsaufgaben haben Sie für den Tag geplant? Bevor Sie weiter in diesen Blog eintauchen, möchte ich, dass Sie über all Ihre Coding-Leiden nachdenken-die Auflistung auflisten diese auf. Erledigt? - Lassen Sie ’

Die KI -Landschaft dieser Woche: Ein Wirbelsturm von Fortschritten, ethischen Überlegungen und regulatorischen Debatten. Hauptakteure wie OpenAI, Google, Meta und Microsoft haben einen Strom von Updates veröffentlicht, von bahnbrechenden neuen Modellen bis hin zu entscheidenden Verschiebungen in LE

Das jüngste Memo von Shopify -CEO Tobi Lütke erklärt kühn für jeden Mitarbeiter eine grundlegende Erwartung und kennzeichnet eine bedeutende kulturelle Veränderung innerhalb des Unternehmens. Dies ist kein flüchtiger Trend; Es ist ein neues operatives Paradigma, das in P integriert ist

Einführung OpenAI hat sein neues Modell auf der Grundlage der mit Spannung erwarteten „Strawberry“ -Scharchitektur veröffentlicht. Dieses innovative Modell, bekannt als O1

Einführung Stellen Sie sich vor, Sie gehen durch eine Kunstgalerie, umgeben von lebhaften Gemälden und Skulpturen. Was wäre, wenn Sie jedem Stück eine Frage stellen und eine sinnvolle Antwort erhalten könnten? Sie könnten fragen: „Welche Geschichte erzählst du?

Für diejenigen unter Ihnen, die in meiner Kolumne neu sein könnten, erforsche ich allgemein die neuesten Fortschritte in der KI auf dem gesamten Vorstand, einschließlich Themen wie verkörpertes KI, KI-Argumentation, High-Tech

METAs Lama 3.2: Ein multimodales KI -Kraftpaket Das neueste multimodale Modell von META, Lama 3.2, stellt einen erheblichen Fortschritt in der KI dar, das ein verbessertes Sprachverständnis, eine verbesserte Genauigkeit und die überlegenen Funktionen der Textgenerierung bietet. Seine Fähigkeit t
