人工智慧革命不再局限於高階伺服器或雲端平台。借助DeepSeek R1等模型(一種可與頂級商業產品相媲美的最先進的推理模型),您現在可以直接在 Android 設備上利用先進的 AI 功能。在本指南中,我將向您展示如何在本地部署 DeepSeek R1 以實現隱私、客製化和離線使用。
隱私:無需依賴雲,即可在本地處理敏感資料。
成本效益:避免 API 費用(DeepSeek 的 API 費用約為 OpenAI 的 5%)。
離線存取:即使沒有網路連線也可以使用 AI。
客製化:針對特定應用(編碼、創意寫作等)微調模型。
具有≥8GB RAM的 Android 裝置(適用於 8B/14B 型號)。
Snapdragon 8 Gen 2/3 或同等處理器。
≥12GB儲存空間。
Termux (Linux 終端模擬器)。
熟悉基本命令列。
從Termux 的 GitHub取得最新的 APK。
termux-setup-storage # Grant storage permissions
pkg update && pkg upgrade # Update packages
pkg install git cmake golang libjpeg-turbo # Install dependencies
Ollama 是一個管理 AI 模型的輕量級工具。
git clone --depth 1 https://github.com/ollama/ollama.git
cd ollama
go generate ./...
go build . # Build the Ollama binary
對於 Android,使用蒸餾或量化模型:
deepseek-r1:1.5b
(5.7GB) 或deepseek-r1:8b-q4
(量化)。拉動模型:
./ollama run deepseek-r1:8b # Download the 8B model
./ollama serve & # Run in the background
./ollama run deepseek-r1:8b
>>> "Write Python code to calculate a Fibonacci sequence"
使用量化模型:使用deepseek-r1:8b-q4
將 RAM 使用量減少 30%。
防止睡眠:透過以下方式保持 Termux 處於活動狀態:
pkg install termux-services
sv-enable termux-wake-lock
./ollama serve --port 8080 & # Use a different port
記憶體不足:使用top
監控 RAM 並切換到較小的型號。
未找到模型:確保使用ollama pull deepseek-r1:8b
完成下載。
在 Android 上執行 DeepSeek R1 可為編碼、研究和創意專案解鎖私人離線 AI 。有了本指南,您就可以嘗試尖端模型,而無需依賴雲端。分享您的結果,調整設置,並突破移動 AI 的界限!
延伸閱讀:
原文出處:https://dev.to/majdisaibi/how-to-run-deepseek-r1-locally-on-your-android-device-4ape