阿川私房教材:
學 JavaScript 前端,帶作品集去面試!

63 個專案實戰,寫出作品集,讓面試官眼前一亮!

立即開始免費試讀!

如果您正在尋找一款推理能力出色且由於開源而免費的 AI,那麼新推出的DeepSeek R1是一個不錯的選擇。它可以與 GPT-4、o1-mini、Claude 3.5 等模型競爭並優於其他模型。我測試了一下,除了好評,什麼都沒有!

如果您想直接在Visual Studio Code中作為類似於 GitHub Copilot 的程式碼代理程式執行它,而不需要花一毛錢,請跟我一起來,我將向您展示如何使用LM StudioOllamaJan等工具來執行此操作。


為什麼 DeepSeek R1 最近如此受熱議?

  • 它是免費且開源的:與許多收費的模型不同,您無需支付任何費用即可使用它。甚至可以在https://chat.deepseek.com上聊天。

  • 效能:它在涉及邏輯、數學甚至程式碼生成(這是我最喜歡的部分)的任務中與其他模型競爭並優於其他模型。

  • 多個版本:要在本地執行(LLM),有從 1.5B 到 70B 參數的模型,因此您可以根據您的硬體選擇最適合您的 PC 的版本。

  • 易於整合:您可以使用ClineRoo Code等擴充功能將其連接到 VSCode。

  • 無成本:如果您在本地執行,則無需支付令牌或 API 費用。建議使用顯示卡,因為僅在 CPU 上執行速度較慢。


開始之前的重要提示

  • 節省資源:如果您的電腦功能不是很強大,請堅持使用較小的型號(1.5B 或 7B 參數)或量化版本。

  • RAM 計算機:使用LLM Calc找出您需要的最小 RAM。

  • 隱私:在本地執行意味著您的資料保留在您的 PC 上,不會發送到外部伺服器。

  • 無成本:在本地執行是免費的,但如果您想使用 DeepSeek API,則需要支付令牌。好訊息是他們的價格比競爭對手低得多。


選擇哪種型號?這取決於您的電腦!

DeepSeek R1 有多個版本,選擇取決於您的硬體:

  • 1.5B參數

  • 所需記憶體:~4 GB。

  • GPU :整合(如 NVIDIA GTX 1050)或現代 CPU。

  • 做什麼的? :簡單的任務和普通的電腦。

  • 7B 參數

  • 所需記憶體:~8-10 GB。

  • GPU :專用(例如 NVIDIA GTX 1660 或更好)。

  • 做什麼的? :中級任務和具有更好硬體的 PC。

  • 70B參數

  • 所需記憶體:~40 GB。

  • GPU :高階(例如 NVIDIA RTX 3090 或更高版本)。

  • 做什麼的? :複雜的任務和超強大的電腦。


如何在本地執行 DeepSeek R1


1.使用LM Studio

  • 下載並安裝 LM Studio :只需造訪LM Studio網站並下載適合您系統的版本。

  • 下載 DeepSeek R1 模型:在 LM Studio 中,前往“發現”選項卡,搜尋“DeepSeek R1”,然後選擇與您的系統最相容的版本。如果您使用的是配備 Apple 處理器的 MacBook,請保持搜尋列旁邊的MLX選項處於選取狀態(這些版本針對 Apple 硬體進行了最佳化)。對於 Windows 或 Linux,選擇GGUF選項。

  • 載入模型:下載後,進入本機模型,選擇DeepSeek R1,點選載入

  • 啟動本機伺服器:在「開發人員」標籤中,啟用「啟動伺服器」 。它將開始在http://localhost:1234執行模型。

  • 繼續執行步驟 4與 VSCode 整合


2.使用Ollama

  • 安裝 Ollama :從Ollama網站下載並安裝。

  • 下載模型:在終端機中,執行*:

   ollama pull deepseek-r1  

*這是主要型號;如果您想要較小的模型,請造訪https://ollama.com/library/deepseek-r1並查看在終端中執行哪個指令。

  • 啟動伺服器:在終端機中,執行:
   ollama serve  

該指令將在http://localhost:11434開始執行模型。

  • 繼續執行步驟 4與 VSCode 整合

3. 使用Jan

  • 下載並安裝 Jan :在Jan網站上選擇適合您的系統的版本。

  • 下載模型:一月直接找不到DeepSeek R1。我找到了所需的版本,點擊“使用此模型”按鈕,然後選擇 Jan 作為選項。該模型在一月份自動打開,然後我下載了它。

  • 載入模型:下載後,選擇模型,點選載入

  • 啟動伺服器:Jan 自動啟動伺服器,通常位於http://localhost:1337

  • 繼續執行步驟 4與 VSCode 整合


4. 與 VSCode 集成

  • 安裝擴充功能:在 VSCode 中,開啟擴充功能選項卡並安裝 Cline 或 Roo Code。

  • 設定 Jan 或 LM Studio 的擴充ClineRoo Code的設定其實是相同的。請依照以下步驟操作:

  • 點擊擴充功能並存取“設定”

  • API Provider中,選擇“LM Studio”

  • 基本 URL欄位中,輸入 Jan 或 LM Studio 中配置的 URL。

  • 如果您只有一種型號可用,則型號 ID欄位將自動填入。否則,手動選擇您下載的DeepSeek模型。

  • 點選“完成”即可完成。


  • 配置 Ollama 的擴充

  • 點擊擴充功能並存取“設定”

  • API 提供者中,選擇“Ollama”

  • 基本 URL欄位中,輸入 Ollama 中配置的 URL。

  • 如果您只有一種型號可用,則型號 ID欄位將自動填入。否則,手動選擇您下載的DeepSeek模型。

  • 點選“完成”即可完成。

  • 整合完成,現在只需享受 Cline 或 Roo Code 的功能。


結論

對於那些想要不花錢就能獲得強大人工智慧的人來說,DeepSeek R1 是他們的救星。使用LM StudioOllamaJan ,您可以在本地執行它並將其直接整合到Visual Studio Code 。選擇適合您電腦的型號並立即開始使用!


原文出處:https://dev.to/dwtoledo/how-to-use-deepseek-r1-for-free-in-visual-studio-code-with-cline-or-roo-code-3an9


共有 0 則留言


精選技術文章翻譯,幫助開發者持續吸收新知。

阿川私房教材:
學 JavaScript 前端,帶作品集去面試!

63 個專案實戰,寫出作品集,讓面試官眼前一亮!

立即開始免費試讀!