テンセントの CodeStudio と Ollama を使った Deepseek-R1 大モデルのデプロイ#
テンセントの CodeStudio はなんと Ollama を使って Deepseek-R1 大モデルをデプロイできる。ポイントは 1 ヶ月 10000 分のクレジット、まるで無料のようだ!普通のコンピュータでは耐えられない友達は、テンセントクラウドに登録して、大モデルをデプロイする楽しさを自分で試してみてほしい。
前準備#
Ollama は無料のオープンソースツールで、ユーザーが自分のコンピュータ上でローカルに大規模言語モデル(LLM)を実行できるようにする。macOS、Linux、Windows に対応している。要するに:これは便利な小助手で、1 行のコマンドで大モデルをインストール、デプロイ、実行できる。
公式サイト:Ollama 公式サイト
自分のコンピュータで大モデルをデプロイするなら、このツールは本当に見逃せない!
クラウドデプロイの手順#
それでは、さっそく始めよう!
-
テンセントクラウドにアクセス: テンセントクラウド IDE
-
スペーステンプレートを選択: 「スペーステンプレート」で「ollama」テンプレートを選ぶ。毎月 10000 分 の無料時間があることが表示され、つまり 166.7 時間 だ。
. Ollama リストが表示される: この時点で Ollama のリストが表示される。
4. ターミナルを開く: この時、VSCode のダイアログが表示され、スクリーンショットの手順に従って操作すると、ターミナルエリアが表示される。
5. コマンドを入力: 直接コードを入力する:
ollama run deepseek-r1
「Enter」キーを押して実行する。この時、リモートリポジトリからイメージを取得し、デフォルトでパラメータ数 7B のクラウド大モデルがダウンロードされる。
しばらくすると、インストールが完了し、>>> のマークが表示される。ここで Deepseek-R1 と対話できるようになる。
Ollama サービスが起動しているポートを見つける
ポートは 6399 であることがわかる。CodeStudio には VSCode のコード開発ウィンドウが付属しているので、テンセントの「AI コードアシスタント」を使って「deepseek-r1」を呼び出すプログラムを生成することもできる。
具体的な指示
次のように書くことができる:
curl http://0.0.0.0:6399/api/chat -d '{
"model": "deepseek-r1",
"messages": [
{ "role": "user", "content": "こんにちは" }
]
}'
これで Deepseek の API を簡単に呼び出せるようになり、開発やデバッグが便利になる。
注意
毎月 1 万分のクレジットが付与されるが、24 時間稼働させても 1 週間ちょっとしか持たない。使い切ったら、ホームページに戻って直接シャットダウンをクリックすればよい。