日本の皆様へ
このページは、MLflow を日本語で分かりやすくご紹介するために作成しました。日本のユーザーや企業の皆様に心より感謝申し上げます。
なお、このページ以外の MLflow ウェブサイトは英語のみでの提供となります。Google Chrome の翻訳機能などをご利用いただくことで、日本語でもご覧いただけます。
オブザーバビリティ
LLMアプリケーションやエージェントの完全なトレースをキャプチャし、動作を深く理解できます。OpenTelemetryベースで、あらゆるLLMプロバイダーやエージェントフレームワークに対応。本番環境の品質、コスト、安全性を監視します。

評価
体系的な評価を実行し、品質メトリクスを経時的に追跡し、本番環境に到達する前にリグレッションを検出します。50以上の組み込みメトリクスとLLMジャッジから選択するか、柔軟なAPIで独自の評価を定義できます。


AIゲートウェイ
すべてのLLMプロバイダーへの統一APIゲートウェイ。リクエストのルーティング、レート制限の管理、フォールバック処理、コスト管理をOpenAI互換インターフェースで実現します。

エージェントサーバー
1つのコマンドでエージェントを本番環境にデプロイ。MLflowエージェントサーバーは、自動リクエストバリデーション、ストリーミングサポート、組み込みトレースを備えたFastAPIベースのホスティングソリューションを提供します。
from mlflow.agent_server import AgentServer, invoke, streamfrom mlflow.types.agent import ResponsesAgentRequest, ResponsesAgentResponse@invoke()async def run_agent(request: ResponsesAgentRequest) -> ResponsesAgentResponse:msgs = [i.model_dump() for i in request.input]result = await Runner.run(agent, msgs)return ResponsesAgentResponse(output=[item.to_input_item() for item in result.new_items])# サーバーを起動agent_server = AgentServer("MyAgent")agent_server.run(app_import_string="server:app")
オープンソース
Apache 2.0ライセンスの100%オープンソース。永久無料、制限なし。
ベンダーロックインなし
あらゆるクラウド、フレームワーク、ツールと連携。いつでもベンダーを変更可能。
本番環境対応
Fortune 500企業や数千のチームで大規模に実証済み。
完全な可視性
すべてのAIアプリケーションとエージェントの完全なトラッキングとオブザーバビリティ。
コミュニティ
20K+ GitHub Stars、900+コントリビューター。最も成長しているAIOpsコミュニティ。
豊富なインテグレーション
LangChain、OpenAI、PyTorchなど100以上のAIフレームワークとすぐに連携可能。
インストール
1つのコマンドで起動できます。
トレースを記録
数行のコードでトレースの自動記録を開始できます。
UIで確認
MLflow UIでトレースやメトリクスを確認できます。