科幻映画では、コンピュータとの対話シーンがよく登場します。コンピュータに指示を出すだけで、コンピュータは迅速に対応する操作を実行します。プログラマにとっては、これはばかげた幻想のように思え、これらのプロットはプログラミングに全く理解がない脚本家によるものだと嗤います。
しかし!Open-Interpreter の登場により、この状況は覆されました。最も強力な人工知能 ChatGPT に基づいており、人間の自然言語を理解し、実行することができます。現時点ではテキストベースのコミュニケーションのみをサポートしていますが、音声認識技術を利用すれば、科幻映画のプロットを実現することも近い将来になるでしょう。
Open-Interpreter:オープンソースの AI コードインタプリタで、Windows、MacOS、Linux のすべてのプラットフォームをサポートし、ローカル環境で実行でき、インターネットにアクセスでき、Python スクリプトを実行できます。ファイルサイズや実行時間の制限はありません。このプロジェクトはリリースされるとすぐに GitHub のトレンドリストのトップに上がり、31.2k のスターを獲得しました。驚くべきことに、このプロジェクトの作者は、ウェストワシントン大学の教育学の学部生であるキリアン・ルーカス氏です。
Open-Interpreter を使用すると、AI がコンピュータ上でコードを実行できます。OpenAI と Hugging Face でホストされているモデルをサポートしています。Open-Interpreter に自然言語で指示を出すことで、目的を達成することができます。まるでアイアンマンのジャービスのようです。例えば、「システムをダークモードに設定できますか?」と言えば、自動的にコードが書かれ、コンピュータのテーマが変更されます。
インストールと使用方法
前提条件
Python 3.10 以上
OpenAI API キーの準備
マジックを有効にする(お分かりいただけると思います~)
Open-Interpreter をインストールするには、たった 1 行のコードを実行します。
pip install open-interpreter
【cmd.exe】を開き、【interpreter】コマンドを入力して Open-Interpreter を起動します。
interpreter
コマンドを実行すると、2 つの言語モデルが提供されます。
-
OpenAI の GPT-4 モデル(推奨)
-
Mistral AI のオープンソースモデル Mistral-7B
ここでは GPT-4 モデルを使用します。OpenAI のキーを入力して Enter キーを押してください。
コマンドラインの対話モードに入ります。
Open-Interpreter は自動的にコードを書いて実行し、私たちの指示を完了します。タスクの実行を停止するには、【ctrl + c】を押してタスクを中止できます!プログラムを終了するには、ターミナルを閉じるだけです!
重要な注意:Open-Interpreter が生成するコードはローカル環境で実行され、ファイルやシステム設定などとやり取りする可能性があり、予期しない結果(データの損失など)をもたらす可能性があります。したがって、任意のコードを実行する前に、実行するかどうかを尋ねられ、y を入力して続行するか、n を入力して実行しないかを選択する必要があります。実行の確認をバイパスするには、起動時にコマンドライン引数 - y を指定するか、interpreter.auto_run=True を設定します。
💻 コマンドライン引数
- --debug
デバッグモードを有効にし、詳細な実行ログを出力します。
- --mode
言語モデルを変更します。以下のように指定します:
interpreter --model gpt-3.5-turbo
interpreter --model claude-2
interpreter --model command-nightly
- --local
ローカルで実行します。デフォルトでは Mistral-7B モデルが使用されます。このモデルは 4.11GB あり、ダウンロード速度は実際のインターネット速度に依存します!(マジックのダウンロードが必要です)
Open Interpreter をローカルで実行するには
ローカルで実行する場合、デフォルトの言語モデルは Mistral-7B ですが、他の言語モデルを指定することもできます。例えば、HuggingFace のリポジトリ ID(tiiuae/falcon-180B)を使用する場合は、次のようにします。
interpreter --model tiiuae/falcon-180B
例えば、Win10 x64 システムを使用してこれらのモデルをローカルで使用するには、Visual Studio 2022 Community と NVIDIA CUDA Toolkit をインストールする必要があります。ディスクスペースは少なくとも 30GB を予約してください!
詳細なインストール手順については、公式ドキュメントを参照してください:
https://github.com/KillianLucas/open-interpreter/blob/main/docs/WINDOWS.md
https://github.com/KillianLucas/open-interpreter/blob/main/docs/GPU.md
https://github.com/KillianLucas/open-interpreter/blob/main/docs/MACOS.md
ChatGPT と比較して、Open-Interpreter は画期的なオープンソースプロジェクトであり、そのユニークな対話型およびプログラミングチャット機能により、ユーザーはターミナルで自然言語を使用して対話し、タスクとワークフローをより正確に制御することができます。
Open-Interpreter は、OpenAI GPT-4 がリモート環境で実行される際の多くの制約を解決するだけでなく、GPT-4 の強力な機能とローカル開発環境の柔軟性を完璧に組み合わせ、開発者により広範な機能と柔軟性を提供します。Open-Interpreter が強力な音声認識機能と組み合わされると、人工知能の未来はさらに無限の可能性に満ちています!