阿川私房教材:
學 JavaScript 前端,帶作品集去面試!

63 個專案實戰,寫出作品集,讓面試官眼前一亮!

立即開始免費試讀!

介紹

人工智慧革命不再局限於高階伺服器或雲端平台。借助DeepSeek R1等模型(一種可與頂級商業產品相媲美的最先進的推理模型),您現在可以直接在 Android 設備上利用先進的 AI 功能。在本指南中,我將向您展示如何在本地部署 DeepSeek R1 以實現隱私、客製化和離線使用。


為什麼在 Android 上執行 DeepSeek R1?

  • 隱私:無需依賴雲,即可在本地處理敏感資料。

  • 成本效益:避免 API 費用(DeepSeek 的 API 費用約為 OpenAI 的 5%)。

  • 離線存取:即使沒有網路連線也可以使用 AI。

  • 製化:針對特定應用(編碼、創意寫作等)微調模型。


先決條件

  1. 硬體:
  • 具有≥8GB RAM的 Android 裝置(適用於 8B/14B 型號)。

  • Snapdragon 8 Gen 2/3 或同等處理器。

  • ≥12GB儲存空間。

  1. 軟體:
  • Termux (Linux 終端模擬器)。

  • 熟悉基本命令列。


步驟 1:安裝 Termux 和依賴項

  1. 下載 Termux

Termux 的 GitHub取得最新的 APK。

  1. 設定 Termux
   termux-setup-storage  # Grant storage permissions
   pkg update && pkg upgrade  # Update packages
   pkg install git cmake golang libjpeg-turbo  # Install dependencies

步驟 2:從原始碼建置 Ollama

Ollama 是一個管理 AI 模型的輕量級工具。

  1. 克隆儲存庫
   git clone --depth 1 https://github.com/ollama/ollama.git
   cd ollama
  1. 編譯 Ollama
   go generate ./...
   go build .  # Build the Ollama binary

步驟 3:下載 DeepSeek R1 模型

對於 Android,使用蒸餾或量化模型:

  • 推薦deepseek-r1:1.5b (5.7GB) 或deepseek-r1:8b-q4 (量化)。

拉動模型

./ollama run deepseek-r1:8b  # Download the 8B model

步驟 4:執行 DeepSeek R1

  1. 啟動 Ollama 伺服器
   ./ollama serve &  # Run in the background
  1. 與模型互動
   ./ollama run deepseek-r1:8b
   >>> "Write Python code to calculate a Fibonacci sequence"

優化效能

  • 使用量化模型:使用deepseek-r1:8b-q4將 RAM 使用量減少 30%。

  • 防止睡眠:透過以下方式保持 Termux 處於活動狀態:

  pkg install termux-services
  sv-enable termux-wake-lock
  • 釋放 RAM :執行模型前關閉背景應用程式。

故障排除

  • 連接埠衝突
  ./ollama serve --port 8080 &  # Use a different port
  • 記憶體不足:使用top監控 RAM 並切換到較小的型號。

  • 未找到模型:確保使用ollama pull deepseek-r1:8b完成下載。


結論

在 Android 上執行 DeepSeek R1 可為編碼、研究和創意專案解鎖私人離線 AI 。有了本指南,您就可以嘗試尖端模型,而無需依賴雲端。分享您的結果,調整設置,並突破移動 AI 的界限!

延伸閱讀


原文出處:https://dev.to/majdisaibi/how-to-run-deepseek-r1-locally-on-your-android-device-4ape


共有 0 則留言


精選技術文章翻譯,幫助開發者持續吸收新知。

阿川私房教材:
學 JavaScript 前端,帶作品集去面試!

63 個專案實戰,寫出作品集,讓面試官眼前一亮!

立即開始免費試讀!