Wie laufe ich Deepseek -Modelle in 5 Minuten vor Ort?
Deepseek hat die KI -Community im Sturm im Sturm erobert, wobei bis heute 68 Modelle auf dem Umarmungsgesicht erhältlich sind. Auf diese Familie von Open-Source-Modellen kann durch umarmendes Gesicht oder Ollama zugegriffen werden, während Deepseek-R1 und Deepseek-V3 direkt zur Inferenz über Deepseek Chat verwendet werden kann. In diesem Blog werden wir die Modellaufstellung von Deepseek untersuchen und Sie durch das Ausführen dieser Modelle mithilfe von Google Colab und Ollama führen.
Inhaltsverzeichnis
- Überblick über Deepseek -Modelle
- Deepseek R1 auf Ollama
- Schritt 1: Installieren Sie OLLAMA
- Schritt 2: Ziehen Sie das Deepseek R1 -Modell
Lokal aus. DeepSeek-Janus-Pro-1B on Google Colab - Step 1: Clone the DeepSeek-Janus Repository
- Step 2: Install Dependencies
- Step 3: Load the Model and Move It to GPU
- Step 4: Pass an Image for Processing
Conclusion
Deepseek bietet eine Vielzahl von Modellen, die jeweils für verschiedene Aufgaben optimiert sind. Nachfolgend finden Sie eine Aufschlüsselung, von der das Modell am besten zu Ihren Bedürfnissen passt:
- Für Entwickler und Programmierer: Die Modelle Deepseek-Coder und Deekseek-Coder-V2 sind für Codierungsaufgaben wie das Schreiben und Debugging-Code ausgelegt.
- Für allgemeine Benutzer: Das Deepseek-V3 -Modell ist eine vielseitige Option, die eine Vielzahl von Abfragen abwickeln kann, von lässigen Gesprächen bis hin zu komplexen Inhaltsgenerierung.
- Für Forscher und fortgeschrittene Benutzer: Das Deepseek-R1 -Modell spezialisiert sich auf fortgeschrittene Argumentation und logische Analyse, wodurch es ideal für Problemlösungen und Forschungsanwendungen ist.
- Für Visionsaufgaben: Die Modelle Deepseek-Janus und Deepseek-VL sind auf multimodale Aufgaben zugeschnitten, einschließlich Bildgenerierung und -verarbeitung.
Lesen Sie auch: Erstellen der AI-Anwendung mit Deepseek-V3
Deepseek R1 auf Ollamarennen
Schritt 1: Installieren Sie Ollama
Um Deepseek -Modelle auf Ihrem lokalen Computer auszuführen, müssen Sie Ollama installieren:
- Download olama: Klicken Sie hier, um herunterzuladen
- Für Linux -Benutzer: Führen Sie den folgenden Befehl in Ihrem Terminal aus: bashcopyedit
curl -fsSL https://ollama.com/install.sh | sh
Schritt 2: Ziehen Sie das Deepseek R1 -Modell
anSobald Ollama installiert ist, öffnen Sie Ihre Befehlszeilenschnittstelle (CLI) und ziehen Sie das Modell:
ollama pull deepseek-r1:1.5b
Sie können hier andere Deepseek -Modelle untersuchen, die hier auf Ollama verfügbar sind: Ollama -Modellsuche.
Dieser Schritt kann einige Zeit dauern. Warten Sie also, bis der Download abgeschlossen ist.
ollama pull deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B verifying sha256 digest writing manifest success
Schritt 3: Führen Sie das Modell lokal aus
Sobald das Modell heruntergeladen wurde, können Sie es mit dem Befehl ausführen:
curl -fsSL https://ollama.com/install.sh | sh
Das Modell ist jetzt zur Verwendung auf dem lokalen Computer verfügbar und beantwortet meine Fragen ohne Schluckauf.
Deepseek-Janus-pro-1b auf Google Colab
laufenIn diesem Abschnitt werden wir Deepseek-Janus-Pro-1b mit Google Colab ausprobieren. Stellen Sie vor dem Start die Laufzeit auf die T4 -GPU ein, um eine optimale Leistung zu erhalten.
Schritt 1: Klonen Sie das Deepseek-Janus-Repository
Führen Sie den folgenden Befehl in einem Colab -Notizbuch aus:
ollama pull deepseek-r1:1.5b
? Erforschen Sie mehr Deepseek -Modelle auf GitHub: Deepseek AI Github Repository
Schritt 2: Abhängigkeiten
installieren
Navigieren Sie zum geklonten Verzeichnis und installieren Sie die erforderlichen Pakete:ollama pull deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B verifying sha256 digest writing manifest success
Schritt 3: Laden Sie das Modell und bewegen Sie es in GPU
Jetzt importieren wir die erforderlichen Bibliotheken und laden das Modell in cuda (gpu)
:ollama run deepseek-r1:1.5b
Schritt 4: Übergeben Sie ein Bild zur Verarbeitung
Übergeben wir jetzt ein Bild
an das Modell und generieren Sie eine Antwort.? Eingabebild
Initialisierung der Eingabeaufforderung und der Systemrolle
!git clone https://github.com/deepseek-ai/Janus.git
Verarbeitung der Eingabe
%cd Janus !pip install -e . !pip install flash-attn
Ausgabe:
& lt; | Benutzer | & gt;:
& lt; | Assistant | & gt ;: Das Bild bietet einen Abschnitt mit dem Titel „Neueste Artikel“ mit einem Fokus auf einen Blog -Beitrag. In dem Blog -Beitrag wird erläutert: "Wie kann man Deepseek Janus Pro 7b zugreifen?" und unterstreicht seine multimodalen KI-Fähigkeiten in Bezug auf Argumentation, Text-zu-Image und Anweisungen. Das Bild enthält auch das Deepseek -Logo (ein Delphin) und ein sechseckiges Muster im Hintergrund.
Wir können sehen, dass das Modell den Text im Bild lesen und auch das Logo von Deepseek im Bild erkennen kann. Erste Eindrücke, es funktioniert gut.
Lesen Sie auch: Wie kann man Deepseek Janus Pro 7b zugreifen?
Schlussfolgerung
Deepseek entwickelt sich schnell als mächtige Kraft in der KI und bietet eine breite Palette von Modellen für Entwickler, Forscher und allgemeine Benutzer. Da es mit Branchenriesen wie Openai und Gemini konkurriert, werden seine kostengünstigen und leistungsstarken Modelle wahrscheinlich eine weit verbreitete Akzeptanz erhalten.
Die Anwendungen von Deekseek -Modellen sind unbegrenzt und reicht von der Codierungshilfe bis hin zu fortgeschrittenem Argument und multimodalen Funktionen. Mit nahtloser lokaler Ausführung über Ollama- und Cloud-basierte Inferenzoptionen ist Deepseek bereit, ein Game-Changer in der KI-Forschung und -entwicklung zu werden.
Wenn Sie Fragen oder Fragen haben, können Sie im Kommentarbereich gerne im Kommentarbereich gefragt!
Das obige ist der detaillierte Inhalt vonWie laufe ich Deepseek -Modelle in 5 Minuten vor Ort?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Während der Arbeit an Agentic AI navigieren Entwickler häufig die Kompromisse zwischen Geschwindigkeit, Flexibilität und Ressourceneffizienz. Ich habe den Agenten-KI-Framework untersucht und bin auf Agno gestoßen (früher war es phi-

Die Veröffentlichung umfasst drei verschiedene Modelle, GPT-4.1, GPT-4.1 Mini und GPT-4.1-Nano, die einen Zug zu aufgabenspezifischen Optimierungen innerhalb der Landschaft des Großsprachenmodells signalisieren. Diese Modelle ersetzen nicht sofort benutzergerichtete Schnittstellen wie

SQL -Änderungstabellanweisung: Dynamisches Hinzufügen von Spalten zu Ihrer Datenbank Im Datenmanagement ist die Anpassungsfähigkeit von SQL von entscheidender Bedeutung. Müssen Sie Ihre Datenbankstruktur im laufenden Flug anpassen? Die Änderungstabelleerklärung ist Ihre Lösung. Diese Anleitung Details Hinzufügen von Colu

Schalte die Kraft des Einbettungsmodelle frei: einen tiefen Eintauchen in den neuen Kurs von Andrew Ng Stellen Sie sich eine Zukunft vor, in der Maschinen Ihre Fragen mit perfekter Genauigkeit verstehen und beantworten. Dies ist keine Science -Fiction; Dank der Fortschritte in der KI wird es zu einem R

Simulieren Raketenstarts mit Rocketpy: Eine umfassende Anleitung Dieser Artikel führt Sie durch die Simulation von Rocketpy-Starts mit hoher Leistung mit Rocketpy, einer leistungsstarken Python-Bibliothek. Wir werden alles abdecken, von der Definition von Raketenkomponenten bis zur Analyse von Simula

Gemini als Grundlage der KI -Strategie von Google Gemini ist der Eckpfeiler der AI -Agentenstrategie von Google und nutzt seine erweiterten multimodalen Funktionen, um Antworten auf Text, Bilder, Audio, Video und Code zu verarbeiten und zu generieren. Entwickelt von Deepm

"Super froh, Ihnen mitteilen zu können, dass wir Pollenroboter erwerben, um Open-Source-Roboter in die Welt zu bringen", sagte Hugging Face auf X.

In einer bedeutenden Entwicklung für die KI-Community haben Agentica und gemeinsam KI ein Open-Source-KI-Codierungsmodell namens DeepCoder-14b veröffentlicht. Angebotsfunktionen der Codegenerierung mit geschlossenen Wettbewerbern wie OpenAI,
