Comment exécuter LLMS localement en 1 minute?
Voyons comment exécuter LLM sur votre système avec Olllama et étreindre le visage en quelques étapes simples!
La vidéo suivante explique le processus étape par étape:
comment exécuter LLM localement en une minute [débutant]
Utiliser Ollama? Lien vidéo
- Dylan (@dylan ebert ) 6 janvier 2025
Étape pour exécuter LLM localement
étape 1: télécharger olllama
Tout d'abord, recherchez "Olllama" sur votre navigateur, téléchargez-le et installez-le sur votre système.
Étape 2: Trouvez le meilleur LLM Open Source
Suivant, recherchez le "classement LLM FACE HUGGING" pour trouver une liste des meilleurs modèles de langue open source.
Étape 3: Filtrez le modèle en fonction de votre appareil
Après avoir vu la liste, appliquez un filtre pour trouver le meilleur modèle pour votre configuration. Par exemple:
- Sélectionnez un équipement de qualité grand public à domicile.
- Sélectionnez uniquement les fournisseurs officiels pour éviter les modèles non officiels ou non vérifiés.
- Si votre ordinateur portable est équipé d'un GPU bas de gamme, choisissez un modèle conçu pour les appareils Edge.
Cliquez sur des modèles les plus classés, tels que qwen / qwen2.5-35b . Dans le coin supérieur droit de l'écran, cliquez sur "Utiliser ce modèle". Cependant, vous ne pouvez pas trouver Olllama comme une option ici.
En effet, Ollama utilise un format spécial appelé GGUF, qui est une version plus petite, plus rapide et quantitative du modèle.
(Remarque: La quantification réduira légèrement la qualité, mais la rendra plus adaptée à un usage local.)
Obtenez des modèles au format GGUF:
- Accédez à la section "Quantité" du classement - il y a environ 80 modèles disponibles ici. Triez ces modèles par le plus de téléchargements.
Recherchez des modèles avec "GGUF" dans leurs noms, tels que bartowski . C'est un bon choix.
- Sélectionnez ce modèle et cliquez sur "Utilisez ce modèle avec Olllama".
- Pour les paramètres de quantification, sélectionnez une taille de fichier qui est de 1 à 2 Go plus petite que votre RAM GPU ou sélectionnez l'option recommandée, telle que Q5_K_M.
Étape 5: Téléchargez et commencez à utiliser le modèle
Copiez les commandes fournies pour le modèle de votre choix et collez-les dans votre terminal. Appuyez sur la touche "Entrée" et attendez que le téléchargement se termine.
Une fois le téléchargement terminé, vous pouvez commencer à discuter avec le modèle comme vous le feriez avec n'importe quel autre LLM. Simple et amusant!
c'est tout! Vous exécutez maintenant LLM puissant localement sur votre appareil. Veuillez me dire si ces étapes fonctionnent pour vous dans la section des commentaires ci-dessous.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds











Tout en travaillant sur une IA agentique, les développeurs se retrouvent souvent à naviguer dans les compromis entre la vitesse, la flexibilité et l'efficacité des ressources. J'ai exploré le cadre de l'IA agentique et je suis tombé sur Agno (plus tôt c'était Phi-

La version comprend trois modèles distincts, GPT-4.1, GPT-4.1 Mini et GPT-4.1 Nano, signalant une évolution vers des optimisations spécifiques à la tâche dans le paysage du modèle grand langage. Ces modèles ne remplacent pas immédiatement les interfaces orientées utilisateur comme

Instruction ALTER TABLE de SQL: Ajout de colonnes dynamiquement à votre base de données Dans la gestion des données, l'adaptabilité de SQL est cruciale. Besoin d'ajuster votre structure de base de données à la volée? L'énoncé de la table alter est votre solution. Ce guide détaille l'ajout de Colu

Déverrouiller la puissance des modèles d'intégration: une plongée profonde dans le nouveau cours d'Andrew Ng Imaginez un avenir où les machines comprennent et répondent à vos questions avec une précision parfaite. Ce n'est pas de la science-fiction; Grâce aux progrès de l'IA, cela devient un R

Simuler les lancements de fusée avec Rocketpy: un guide complet Cet article vous guide à travers la simulation des lancements de fusées haute puissance à l'aide de Rocketpy, une puissante bibliothèque Python. Nous couvrirons tout, de la définition de composants de fusée à l'analyse de Simula

Gemini comme fondement de la stratégie d'IA de Google Gemini est la pierre angulaire de la stratégie d'agent AI de Google, tirant parti de ses capacités multimodales avancées pour traiter et générer des réponses à travers le texte, les images, l'audio, la vidéo et le code. Développé par Deepm

"Super heureux d'annoncer que nous acquérons une robotique de pollen pour amener les robots open source au monde", a déclaré Hugging Face sur X. "Depuis que Remi Cadene nous a rejoints de Tesla, nous sommes devenus la plate-forme logicielle la plus utilisée pour la robotique ouverte grâce à des remerciements grâce à des remerciements grâce à des remerciements à une robotique ouverte grâce à des remerciements à des remerciements à des remerciements à la robotique ouverte grâce à des remerciements à Gérom

Dans un développement significatif pour la communauté de l'IA, Agetica et ensemble AI ont publié un modèle de codage d'IA open source nommé Deepcoder-14b. Offrir des capacités de génération de code à égalité avec des concurrents à source fermée comme OpenAI
