banner
andrewji8

Being towards death

Heed not to the tree-rustling and leaf-lashing rain, Why not stroll along, whistle and sing under its rein. Lighter and better suited than horses are straw sandals and a bamboo staff, Who's afraid? A palm-leaf plaited cape provides enough to misty weather in life sustain. A thorny spring breeze sobers up the spirit, I feel a slight chill, The setting sun over the mountain offers greetings still. Looking back over the bleak passage survived, The return in time Shall not be affected by windswept rain or shine.
telegram
twitter
github

Deepseek-R1模型云端部署和api调用全攻略!

腾讯的 CodeStudio 与 Ollama 部署 Deepseek-R1 大模型#

腾讯的 CodeStudio 竟然可以用 Ollama 部署 Deepseek-R1 大模型。关键是 1 个月 10000 分钟额度,简直是免费啊!普通电脑承受不住的小伙伴可以注册个腾讯云,来亲自尝试一下部署一套大模型的快乐吧。

前置工作#

Ollama 是一个免费的开源工具,允许用户在他们的计算机上本地运行大型语言模型(LLM)。它适用于 macOS、Linux 和 Windows。大白话就是:它是一个贴心小助手,只需要通过一行命令就可以安装、部署和运行大模型。

官方地址Ollama 官网

如果你要在自己电脑部署大模型,那么这个工具真的不能错过!

云部署的步骤#

话不多说,现在开始!

image

image

  1. 访问腾讯云: 腾讯云 IDE

  2. 选择空间模板: 在 “空间模板” 中选择 “ollama” 模板。会提示,每个月 10000 分钟 的免费时长,也就是 166.7 个小时

image
. 出现 Ollama 列表: 这时候就会出现一个 Ollama 的列表。
4. 打开终端: 此时会出现一个 VSCode 的对话框,按照截图的步骤操作,就会出现一个终端区域。
5. 输入命令: 直接输入代码:

ollama run deepseek-r1

按 “Enter” 键执行。这时候就会去远程仓库拉取镜像,默认会下载参数量为 7B 的云端大模型。

image

不一会儿工夫,就安装好了,会出现 >>> 的标志,这里我们就可以和 Deepseek-R1 对话了。

image

找到 Ollama 服务启动的端口
发现是 6399。因为 CodeStudio 自带 VSCode 代码开发窗口,我们也可以借助腾讯自带的 “AI 代码助手” 给我们生成一个调用 “deepseek-r1” 的程序。

image

具体指令
可以这样写:

curl http://0.0.0.0:6399/api/chat -d '{
  "model": "deepseek-r1",
  "messages": [
    { "role": "user", "content": "你好" }
  ]
}'

image

然后就可以轻松调用 Deepseek 的 API 了,方便开发和调试。
提示
虽然每个月赠送 1 万分钟,但是 24 小时开机也只够嚯嚯一周多。如果用完之后,可以回到首页直接点击关机即可。

加载中...
此文章数据所有权由区块链加密技术和智能合约保障仅归创作者所有。