Farfalle — オープンソースの人工知能検索エンジンで、ローカルでの LLM(llama3、gemma、mistral)の実行またはクラウドモデル(Groq/llama3、OpenAI/gpt4-o)の使用をサポートしています。
体験アドレス:
部署
前提条件
• Docker
• Ollama
llama3、mistral、gemma など、サポートされているモデルをダウンロードします。
ollama を起動します:ollama serve
API キーの取得
• Tavily
申請先:https://app.tavily.com/home
Tavilyについて:
Tavilyは、大規模な言語モデル(LLM)と検索エンハンスメント生成(RAG)アプリケーション向けに設計された検索エンジンです。効率的で迅速かつ持続可能な検索結果を提供することを目的としています。Tavily Search APIを使用すると、AI開発者は簡単にアプリケーションをリアルタイムのオンライン情報と統合することができます。主な目標は、信頼できる情報源からの真実で信頼性のある情報を提供し、AI生成コンテンツの正確性と信頼性を向上させることです。Tavilyの特徴は次のとおりです:
高速な応答:Tavilyは迅速に検索結果を返すことができます。
良い要約:各ページの良い要約を返し、ページ全体をロードする必要はありません。
関連画像:検索クエリに関連する画像を返します。
LLMの最適化:大規模な言語モデルに最適化された検索結果を提供し、AIアプリケーションの意思決定能力を向上させます。
バイアスの削減:信頼できるリアルタイムの知識ベースに接続することで、幻覚(hallucinations)や全体的なバイアスを減らします。
• OpenAI(オプション)
• Groq(オプション)
プロジェクトのクローン
git clone [email protected]/farfalle.git
cd farfalle
環境変数の追加
touch .env
.env ファイルに以下の変数を追加します:
必須#
TAVILY_API_KEY=...
オプション#
OPENAI_API_KEY=...
GROQ_API_KEY=...
コンテナの実行
Docker Compose 2.22.0 以上が必要です。
docker-compose -f docker-compose.dev.yaml up -d