腾讯的 CodeStudio 与 Ollama 部署 Deepseek-R1 大模型#
腾讯的 CodeStudio 竟然可以用 Ollama 部署 Deepseek-R1 大模型。关键是 1 个月 10000 分钟额度,简直是免费啊!普通电脑承受不住的小伙伴可以注册个腾讯云,来亲自尝试一下部署一套大模型的快乐吧。
前置工作#
Ollama 是一个免费的开源工具,允许用户在他们的计算机上本地运行大型语言模型(LLM)。它适用于 macOS、Linux 和 Windows。大白话就是:它是一个贴心小助手,只需要通过一行命令就可以安装、部署和运行大模型。
官方地址:Ollama 官网
如果你要在自己电脑部署大模型,那么这个工具真的不能错过!
云部署的步骤#
话不多说,现在开始!
-
访问腾讯云: 腾讯云 IDE
-
选择空间模板: 在 “空间模板” 中选择 “ollama” 模板。会提示,每个月 10000 分钟 的免费时长,也就是 166.7 个小时。
. 出现 Ollama 列表: 这时候就会出现一个 Ollama 的列表。
4. 打开终端: 此时会出现一个 VSCode 的对话框,按照截图的步骤操作,就会出现一个终端区域。
5. 输入命令: 直接输入代码:
ollama run deepseek-r1
按 “Enter” 键执行。这时候就会去远程仓库拉取镜像,默认会下载参数量为 7B 的云端大模型。
不一会儿工夫,就安装好了,会出现 >>> 的标志,这里我们就可以和 Deepseek-R1 对话了。
找到 Ollama 服务启动的端口
发现是 6399。因为 CodeStudio 自带 VSCode 代码开发窗口,我们也可以借助腾讯自带的 “AI 代码助手” 给我们生成一个调用 “deepseek-r1” 的程序。
具体指令
可以这样写:
curl http://0.0.0.0:6399/api/chat -d '{
"model": "deepseek-r1",
"messages": [
{ "role": "user", "content": "你好" }
]
}'
然后就可以轻松调用 Deepseek 的 API 了,方便开发和调试。
提示
虽然每个月赠送 1 万分钟,但是 24 小时开机也只够嚯嚯一周多。如果用完之后,可以回到首页直接点击关机即可。