首页 web前端 js教程 在 Android 上运行 Llama:使用 Ollama 的分步指南

在 Android 上运行 Llama:使用 Ollama 的分步指南

Oct 11, 2024 pm 02:40 PM

Running Llama  on Android: A Step-by-Step Guide Using Ollama

Llama 3.2 a été récemment présenté lors de la conférence des développeurs de Meta, présentant des capacités multimodales impressionnantes et une version optimisée pour les appareils mobiles utilisant le matériel Qualcomm et MediaTek. Cette avancée permet aux développeurs d'exécuter de puissants modèles d'IA comme Llama 3.2 sur des appareils mobiles, ouvrant la voie à des applications d'IA plus efficaces, privées et réactives.

Meta a publié quatre variantes de Llama 3.2 :

  • Modèles multimodaux avec 11 milliards (11B) et 90 milliards (90B) de paramètres.
  • Modèles texte uniquement avec 1 milliard (1B) et 3 milliards (3B) de paramètres.

Les modèles plus grands, en particulier les variantes 11B et 90B, excellent dans des tâches telles que la compréhension d'images et le raisonnement graphique, surpassant souvent d'autres modèles comme Claude 3 Haiku et rivalisant même avec GPT-4o-mini dans certains cas. D'autre part, les modèles légers 1B et 3B sont conçus pour la génération de texte et les capacités multilingues, ce qui les rend idéaux pour les applications sur appareil où la confidentialité et l'efficacité sont essentielles.

Dans ce guide, nous allons vous montrer comment exécuter Llama 3.2 sur un appareil Android à l'aide de Termux et Ollama. Termux fournit un environnement Linux sur Android et Ollama aide à gérer et à exécuter de grands modèles localement.

Pourquoi exécuter Llama 3.2 localement ?

L'exécution locale de modèles d'IA offre deux avantages majeurs :

  1. Traitement instantané puisque tout est géré sur l'appareil.
  2. Confidentialité améliorée car il n'est pas nécessaire d'envoyer des données vers le cloud pour les traiter.

Même s'il n'existe pas encore beaucoup de produits permettant aux appareils mobiles d'exécuter des modèles comme Llama 3.2 en douceur, nous pouvons toujours l'explorer en utilisant un environnement Linux sur Android.


Étapes pour exécuter Llama 3.2 sur Android

1. Installez Termux sur Android

Termux est un émulateur de terminal qui permet aux appareils Android d'exécuter un environnement Linux sans avoir besoin d'un accès root. Il est disponible gratuitement et peut être téléchargé à partir de la page Termux GitHub.

Pour ce guide, téléchargez le termux-app_v0.119.0-beta.1 apt-android-7-github-debug_arm64-v8a.apk et installez-le sur votre appareil Android.

2. Configurer Termux

Après avoir lancé Termux, suivez ces étapes pour configurer l'environnement :

  1. Accorder l'accès au stockage :
   termux-setup-storage
登录后复制

Cette commande permet à Termux d'accéder au stockage de votre appareil Android, permettant ainsi une gestion plus facile des fichiers.

  1. Packages de mise à jour :
   pkg upgrade
登录后复制

Entrez Y lorsque vous êtes invité à mettre à jour Termux et tous les packages installés.

  1. Installer les outils essentiels :
   pkg install git cmake golang
登录后复制

Ces packages incluent Git pour le contrôle de version, CMake pour la création de logiciels et Go, le langage de programmation dans lequel Ollama est écrit.

3. Installez et compilez Ollama

Ollama est une plateforme permettant d'exécuter de grands modèles localement. Voici comment l'installer et le configurer :

  1. Cloner le référentiel GitHub d'Ollama :
   git clone --depth 1 https://github.com/ollama/ollama.git
登录后复制
  1. Accédez à l'annuaire Ollama :
   cd ollama
登录后复制
  1. Générer le code Go :
   go generate ./...
登录后复制
  1. Construire Ollama :
   go build .
登录后复制
  1. Démarrez le serveur Ollama :
   ./ollama serve &
登录后复制

Désormais, le serveur Ollama fonctionnera en arrière-plan, vous permettant d'interagir avec les modèles.

4. Exécution de modèles Llama 3.2

Pour exécuter le modèle Llama 3.2 sur votre appareil Android, suivez ces étapes :

  1. Choisissez un modèle :

    • Des modèles comme llama3.2:3b (3 milliards de paramètres) sont disponibles pour les tests. Ces modèles sont quantifiés pour plus d’efficacité. Vous pouvez retrouver une liste des modèles disponibles sur le site d’Ollama.
  2. Téléchargez et exécutez le modèle Llama 3.2 :

   ./ollama run llama3.2:3b --verbose
登录后复制

L'indicateur --verbose est facultatif et fournit des journaux détaillés. Une fois le téléchargement terminé, vous pouvez commencer à interagir avec le modèle.

5. Gestion des performances

Lors du test de Llama 3.2 sur des appareils comme le Samsung S21 Ultra, les performances étaient fluides pour le modèle 1B et gérables pour le modèle 3B, même si vous remarquerez peut-être un décalage sur le matériel plus ancien. Si les performances sont trop lentes, le passage au modèle 1B plus petit peut améliorer considérablement la réactivité.


Nettoyage facultatif

Après avoir utilisé Ollama, vous souhaiterez peut-être nettoyer le système :

  1. Remove Unnecessary Files:
   chmod -R 700 ~/go
   rm -r ~/go
登录后复制
  1. Move the Ollama Binary to a Global Path:
   cp ollama/ollama /data/data/com.termux/files/usr/bin/
登录后复制

Now, you can run ollama directly from the terminal.


Conclusion

Llama 3.2 represents a major leap forward in AI technology, bringing powerful, multimodal models to mobile devices. By running these models locally using Termux and Ollama, developers can explore the potential of privacy-first, on-device AI applications that don’t rely on cloud infrastructure. With models like Llama 3.2, the future of mobile AI looks bright, allowing faster, more secure AI solutions across various industries.

以上是在 Android 上运行 Llama:使用 Ollama 的分步指南的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

Video Face Swap

Video Face Swap

使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

热门话题

Java教程
1662
14
CakePHP 教程
1419
52
Laravel 教程
1311
25
PHP教程
1261
29
C# 教程
1234
24
神秘的JavaScript:它的作用以及为什么重要 神秘的JavaScript:它的作用以及为什么重要 Apr 09, 2025 am 12:07 AM

JavaScript是现代Web开发的基石,它的主要功能包括事件驱动编程、动态内容生成和异步编程。1)事件驱动编程允许网页根据用户操作动态变化。2)动态内容生成使得页面内容可以根据条件调整。3)异步编程确保用户界面不被阻塞。JavaScript广泛应用于网页交互、单页面应用和服务器端开发,极大地提升了用户体验和跨平台开发的灵活性。

JavaScript的演变:当前的趋势和未来前景 JavaScript的演变:当前的趋势和未来前景 Apr 10, 2025 am 09:33 AM

JavaScript的最新趋势包括TypeScript的崛起、现代框架和库的流行以及WebAssembly的应用。未来前景涵盖更强大的类型系统、服务器端JavaScript的发展、人工智能和机器学习的扩展以及物联网和边缘计算的潜力。

JavaScript引擎:比较实施 JavaScript引擎:比较实施 Apr 13, 2025 am 12:05 AM

不同JavaScript引擎在解析和执行JavaScript代码时,效果会有所不同,因为每个引擎的实现原理和优化策略各有差异。1.词法分析:将源码转换为词法单元。2.语法分析:生成抽象语法树。3.优化和编译:通过JIT编译器生成机器码。4.执行:运行机器码。V8引擎通过即时编译和隐藏类优化,SpiderMonkey使用类型推断系统,导致在相同代码上的性能表现不同。

JavaScript:探索网络语言的多功能性 JavaScript:探索网络语言的多功能性 Apr 11, 2025 am 12:01 AM

JavaScript是现代Web开发的核心语言,因其多样性和灵活性而广泛应用。1)前端开发:通过DOM操作和现代框架(如React、Vue.js、Angular)构建动态网页和单页面应用。2)服务器端开发:Node.js利用非阻塞I/O模型处理高并发和实时应用。3)移动和桌面应用开发:通过ReactNative和Electron实现跨平台开发,提高开发效率。

如何使用Next.js(前端集成)构建多租户SaaS应用程序 如何使用Next.js(前端集成)构建多租户SaaS应用程序 Apr 11, 2025 am 08:22 AM

本文展示了与许可证确保的后端的前端集成,并使用Next.js构建功能性Edtech SaaS应用程序。 前端获取用户权限以控制UI的可见性并确保API要求遵守角色库

Python vs. JavaScript:学习曲线和易用性 Python vs. JavaScript:学习曲线和易用性 Apr 16, 2025 am 12:12 AM

Python更适合初学者,学习曲线平缓,语法简洁;JavaScript适合前端开发,学习曲线较陡,语法灵活。1.Python语法直观,适用于数据科学和后端开发。2.JavaScript灵活,广泛用于前端和服务器端编程。

从C/C到JavaScript:所有工作方式 从C/C到JavaScript:所有工作方式 Apr 14, 2025 am 12:05 AM

从C/C 转向JavaScript需要适应动态类型、垃圾回收和异步编程等特点。1)C/C 是静态类型语言,需手动管理内存,而JavaScript是动态类型,垃圾回收自动处理。2)C/C 需编译成机器码,JavaScript则为解释型语言。3)JavaScript引入闭包、原型链和Promise等概念,增强了灵活性和异步编程能力。

使用Next.js(后端集成)构建多租户SaaS应用程序 使用Next.js(后端集成)构建多租户SaaS应用程序 Apr 11, 2025 am 08:23 AM

我使用您的日常技术工具构建了功能性的多租户SaaS应用程序(一个Edtech应用程序),您可以做同样的事情。 首先,什么是多租户SaaS应用程序? 多租户SaaS应用程序可让您从唱歌中为多个客户提供服务

See all articles