icon

Dify v1

Difyは、オープンソースの大規模言語モデル(LLM)アプリケーション開発プラットフォームです。

template cover
展開済み265
発行者RidiculousBuffal
作成日2025-03-13
サービス
service icon
service icon
service icon
service icon
service icon
service icon
service icon
service icon
service icon
service icon
タグ
LLMWorkflowAIDify

Difyは、オープンソースの大規模言語モデル(LLM)アプリケーション開発プラットフォームです。その直感的なインターフェースには、AIワークフロー、RAGパイプライン、エージェント機能、モデル管理、可観測性機能などが統合されており、プロトタイプから実際のアプリケーションへと迅速に移行できます。

⚠️ 警告

このテンプレートはDify 1.xバージョンのみに限定されています。

このメジャーバージョンアップデート期間中は、コンテナイメージファイル(イメージファイルタグの変更のみ)を安全に更新できます。

将来、例えばV2のような上位バージョンにアップグレードしたい場合は、必ず事前にデータをバックアップし、Zeaburのカスタマーサポートに連絡するか、更新チュートリアルをよくお読みください。

このテンプレートがV2バージョンで利用可能であることは保証しません。

機能

  1. ワークフロー:視覚的なキャンバス上で強力なAIワークフローを構築・テストし、以下のすべての機能などを最大限に活用できます。
  2. 包括的なモデルサポート:GPT、Mistral、Llama3、そしてOpenAI API互換のあらゆるモデルを含む、数十の推論サービスプロバイダーおよびセルフホストソリューションからの数百のプロプライエタリ/オープンソースの大規模言語モデルとシームレスに統合できます。サポートされているモデルプロバイダーの完全なリストは、モデルプロバイダーセクションで確認できます。
  3. プロンプト開発環境:プロンプトの設計、モデル性能の比較、チャットアプリケーションへのテキスト読み上げなどの追加機能の追加のための直感的なインターフェースです。
  4. RAGパイプライン:ドキュメント抽出から検索まですべての段階をカバーする広範なRAG機能を提供し、PDF、PPT、その他の一般的なドキュメント形式からのテキスト抽出をすぐに利用できます。
  5. エージェント機能:大規模言語モデル関数呼び出し(LLM Function Calling)またはReActに基づいてエージェントを定義し、エージェントに事前構築済みまたはカスタムツールを追加できます。Difyは、Google検索、DELL・E、Stable Diffusion、WolframAlphaなど、AIエージェントが使用できる50種類以上の組み込みツールを提供しています。
  6. 大規模言語モデル運用(LLMOps):アプリケーションのログと長期的なパフォーマンスを監視・分析します。実際の運用データと注釈に基づいて、プロンプト、データセット、モデルを継続的に改善できます。
  7. Backend-as-a-Service:Difyのすべてのサービスには対応するAPIが付属しており、Difyを自身のビジネスロジックに簡単に統合できます。

デプロイ

Difyをデプロイするには、右上の「デプロイ」ボタンをクリックし、必要なドメイン名を入力します。デプロイが完了すると、https://<your-domain>.zeabur.app からDifyアプリケーションにアクセスできます。

アプリケーションアーキテクチャ

  • Redis、PostgreSQL、MINIO、およびWebaviateは、データストレージとキャッシュに使用されます。
  • apiworkerwebplugin_daemon、およびsandboxはDifyのマイクロサービスです。
  • nginxはDifyのゲートウェイです。これはマイクロサービスを単一ホストに統合します。つまり、これはDifyアプリケーションのエントリポイントです。

設定

設定可能な変数については、https://docs.dify.ai/getting-started/install-self-hosted/environments を参照してください。これらの変数は主にapiサービスに設定されます。

ファイルアップロードサイズ制限

デフォルトのファイルアップロードサイズ制限は15 MBです。この制限は、/etc/nginx/nginx.conf にあるnginxサービスの構成ファイル内のclient_max_body_sizeディレクティブを変更することで変更できます。この値は単位付きの文字列である必要があります(例: 15Mは15 MBを意味します)。

さらに、apiサービスの環境でUPLOAD_FILE_SIZE_LIMIT変数をこの値と一致するように設定する必要がある場合があります。この値が/etc/nginx/nginx.confの構成におけるclient_max_body_sizeディレクティブと同じであることを確認してください(例: 15Mは15 MBを意味します)。

Sandbox Python要件の追加

  • 「Sandbox」サービスの「設定」タブでdependencies/python-requirements.txtを編集します。