騰訊的 CodeStudio 與 Ollama 部署 Deepseek-R1 大模型#
騰訊的 CodeStudio 竟然可以用 Ollama 部署 Deepseek-R1 大模型。關鍵是 1 個月 10000 分鐘額度,簡直是免費啊!普通電腦承受不住的小夥伴可以註冊個騰訊雲,來親自嘗試一下部署一套大模型的快樂吧。
前置工作#
Ollama 是一個免費的開源工具,允許用戶在他們的計算機上本地運行大型語言模型(LLM)。它適用於 macOS、Linux 和 Windows。大白話就是:它是一個貼心小助手,只需要通過一行命令就可以安裝、部署和運行大模型。
官方地址:Ollama 官網
如果你要在自己電腦部署大模型,那麼這個工具真的不能錯過!
雲部署的步驟#
話不多說,現在開始!
-
訪問騰訊雲: 騰訊雲 IDE
-
選擇空間模板: 在 “空間模板” 中選擇 “ollama” 模板。會提示,每個月 10000 分鐘 的免費時長,也就是 166.7 個小時。
. 出現 Ollama 列表: 這時候就會出現一個 Ollama 的列表。
4. 打開終端: 此時會出現一個 VSCode 的對話框,按照截圖的步驟操作,就會出現一個終端區域。
5. 輸入命令: 直接輸入代碼:
ollama run deepseek-r1
按 “Enter” 鍵執行。這時候就會去遠程倉庫拉取鏡像,默認會下載參數量為 7B 的雲端大模型。
不一會兒工夫,就安裝好了,會出現 >>> 的標誌,這裡我們就可以和 Deepseek-R1 對話了。
找到 Ollama 服務啟動的端口
發現是 6399。因為 CodeStudio 自帶 VSCode 代碼開發窗口,我們也可以借助騰訊自帶的 “AI 代碼助手” 給我們生成一個調用 “deepseek-r1” 的程序。
具體指令
可以這樣寫:
curl http://0.0.0.0:6399/api/chat -d '{
"model": "deepseek-r1",
"messages": [
{ "role": "user", "content": "你好" }
]
}'
然後就可以輕鬆調用 Deepseek 的 API 了,方便開發和調試。
提示
雖然每個月贈送 1 萬分鐘,但是 24 小時開機也只夠嚯嚯一周多。如果用完之後,可以回到首頁直接點擊關機即可。