banner
andrewji8

Being towards death

Heed not to the tree-rustling and leaf-lashing rain, Why not stroll along, whistle and sing under its rein. Lighter and better suited than horses are straw sandals and a bamboo staff, Who's afraid? A palm-leaf plaited cape provides enough to misty weather in life sustain. A thorny spring breeze sobers up the spirit, I feel a slight chill, The setting sun over the mountain offers greetings still. Looking back over the bleak passage survived, The return in time Shall not be affected by windswept rain or shine.
telegram
twitter
github

最も便利なLLamaデプロイ方法はオープンソースで、GitHubで1万5千のスターを獲得しています。

オープンソースの進展は速すぎます!

たった 1 つのファイルで、個人のコンピュータに LLama を簡単にデプロイできます!

ソースコード

llamafile は、開発者とエンドユーザーが単一のファイルを使用して大規模な言語モデル(LLM)を配布および実行できるようにするオープンソースプロジェクトです。以下に llamafile プロジェクトについての詳細を示します:

プロジェクトの目標:llamafile プロジェクトの目標は、大規模な言語モデルへのアクセスと使用を簡素化することです。このプロジェクトにより、ユーザーは複雑なインストールや設定プロセスなしで簡単に LLM を実行できます。

技術的な実装:この目標を達成するために、llamafile は llama.cpp を Cosmopolitan Libc と組み合わせたフレームワークを使用しています。この組み合わせにより、LLM のすべての複雑さが 1 つの実行可能ファイルに圧縮され、macOS、Windows、Linux、FreeBSD、OpenBSD、NetBSD を含むさまざまなオペレーティングシステムでローカルに実行できます。

使いやすさ:ユーザーは適切な llamafile をダウンロードし、オペレーティングシステムに応じて簡単な操作(Windows では.exe 拡張子を追加してダブルクリックなど)を行うだけで LLM を起動できます。さらに、llamafile には WebUI インターフェースも提供されており、ユーザーは LLM との対話をより便利に行うことができます。

サポートされているモデル:現在、llamafile は LLaVA、Mistral、Mixtral、WizardCoder など、さまざまな大規模な言語モデルをサポートしています。これらのモデルはすべて量子化モデルであり、純 CPU 環境でもスムーズに実行できます。

コミュニティのサポート:llamafile プロジェクトは GitHub でホストされ、かなりの注目を集めています。わずか 2 か月で、このプロジェクトのスターの数は 1 万を超え、開発者やユーザーがこのプロジェクトに対して認識と興味を持っていることを示しています。

まとめると、llamafile は大規模な言語モデルの配布と実行を簡素化することを目指したオープンソースプロジェクトです。複雑な LLM を 1 つの実行可能ファイルに圧縮することで、ユーザーの利用のハードルを大幅に下げ、より多くの人々が大規模な言語モデルの強力な機能を簡単に体験し活用できるようにしています。

image

最も簡単な方法は、LLaVA モデルのサンプル llamafile(ライセンス:LLaMA 2、OpenAI)をダウンロードすることです。LLaVA は新しい LLM であり、チャットだけでなく、さらに多くのことができます。画像をアップロードしてそれに関する質問をすることもできます。llamafile では、これらすべてがローカルで行われます。データはコンピュータを離れることはありません。

llava-v1.5-7b-q4.llamafile(3.97 GB)をダウンロードします。
lava-v1.5-7b-q4.llama ファイル(3.97 GB)をダウンロードします。

コンピュータのターミナルを開きます。
ターミナルを開きます。

macOS、Linux、または BSD を使用している場合は、コンピュータがこの新しいファイルを実行するための許可を付与する必要があります(1 回だけ行う必要があります)。
Windows を使用している場合は、ファイルの末尾に「.exe」を追加してファイル名を変更します。

llamafile を実行します。例:
./llava-v1.5-7b-q4.llamafile

ブラウザが自動的に開き、チャットインターフェースが表示されるはずです(表示されない場合は、ブラウザを開き、http://localhost:8080 にアクセスしてください)。

チャットが終わったら、ターミナルに戻り、Control-C を押して llamafile をシャットダウンします。

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。