高品質なAIを、もっと速く

AIプロダクト開発はイテレーションが全てです。
MLflowは、LLMアプリケーション、エージェント、モデルの
デバッグ評価モニタリングを10倍速くします。

30M+ Downloads/mo

日本の皆様へ

このページは、MLflow を日本語で分かりやすくご紹介するために作成しました。日本のユーザーや企業の皆様に心より感謝申し上げます。

なお、このページ以外の MLflow ウェブサイトは英語のみでの提供となります。Google Chrome の翻訳機能などをご利用いただくことで、日本語でもご覧いただけます。

オブザーバビリティ

LLMアプリケーションやエージェントの完全なトレースをキャプチャし、動作を深く理解できます。OpenTelemetryベースで、あらゆるLLMプロバイダーやエージェントフレームワークに対応。本番環境の品質、コスト、安全性を監視します。

オブザーバビリティ screenshot

評価

体系的な評価を実行し、品質メトリクスを経時的に追跡し、本番環境に到達する前にリグレッションを検出します。50以上の組み込みメトリクスとLLMジャッジから選択するか、柔軟なAPIで独自の評価を定義できます。

評価 screenshot

プロンプト管理・最適化

プロンプトのバージョン管理、テスト、デプロイを完全なリネージ追跡付きで実行。最先端のアルゴリズムでプロンプトを自動最適化し、パフォーマンスを向上させます。

プロンプト管理・最適化 screenshot

AIゲートウェイ

すべてのLLMプロバイダーへの統一APIゲートウェイ。リクエストのルーティング、レート制限の管理、フォールバック処理、コスト管理をOpenAI互換インターフェースで実現します。

AIゲートウェイ screenshot

エージェントサーバー

1つのコマンドでエージェントを本番環境にデプロイ。MLflowエージェントサーバーは、自動リクエストバリデーション、ストリーミングサポート、組み込みトレースを備えたFastAPIベースのホスティングソリューションを提供します。

from mlflow.agent_server import AgentServer, invoke, stream
from mlflow.types.agent import ResponsesAgentRequest, ResponsesAgentResponse
@invoke()
async def run_agent(request: ResponsesAgentRequest) -> ResponsesAgentResponse:
msgs = [i.model_dump() for i in request.input]
result = await Runner.run(agent, msgs)
return ResponsesAgentResponse(
output=[item.to_input_item() for item in result.new_items]
)
# サーバーを起動
agent_server = AgentServer("MyAgent")
agent_server.run(app_import_string="server:app")
最も採用されているオープンソースAIOpsプラットフォーム
Linux Foundationの支援のもと、MLflowは5年以上にわたりオープンソースに取り組んできました。現在、世界中の数千の組織や研究チームがLLMOpsMLOpsのワークフローに活用しています。
mlflow/mlflow
30 Million+Package Downloads / Month
あらゆるフレームワークと連携
LLMエージェントフレームワークから従来のMLライブラリまで、MLflowは100以上のツールとシームレスに統合できます。Python、TypeScript/JavaScript、Java、Rをサポートし、OpenTelemetryにもネイティブ対応しています。
チームがMLflowを選ぶ理由
優れたAIの構築に集中できます。MLflowが複雑さを処理し、より速い開発を実現します。

オープンソース

Apache 2.0ライセンスの100%オープンソース。永久無料、制限なし。

ベンダーロックインなし

あらゆるクラウド、フレームワーク、ツールと連携。いつでもベンダーを変更可能。

本番環境対応

Fortune 500企業や数千のチームで大規模に実証済み。

完全な可視性

すべてのAIアプリケーションとエージェントの完全なトラッキングとオブザーバビリティ。

コミュニティ

20K+ GitHub Stars、900+コントリビューター。最も成長しているAIOpsコミュニティ。

豊富なインテグレーション

LangChain、OpenAI、PyTorchなど100以上のAIフレームワークとすぐに連携可能。

3ステップで開始
数分でLLMOpsを始められます。複雑なセットアップは不要です。はじめる →
1

インストール

1つのコマンドで起動できます。

bash
pip install mlflow
mlflow server
〜30秒
2

トレースを記録

数行のコードでトレースの自動記録を開始できます。

python
import mlflow
from openai import OpenAI
mlflow.openai.autolog()
client = OpenAI()
client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user",
"content": "Hello!"}
],
)
〜30秒
3

UIで確認

MLflow UIでトレースやメトリクスを確認できます。

bash
# http://localhost:5000
# でトレースを確認
〜1分
コミュニティ
オープンソースコミュニティに参加
世界中のMLflowユーザーとつながりましょう