更快交付高质量 AI

AI 产品开发的核心在于快速迭代。
MLflow 让您的 LLM 应用、Agent 和模型的
调试评估监控快 10 倍。

30M+ Downloads/mo

致中国用户

本页面旨在以中文向您介绍 MLflow。衷心感谢中国的用户和企业对我们的支持。

请注意,除本页面外,MLflow 网站的其他内容均以英文提供。您可以使用 Google Chrome 的翻译功能以中文浏览。

可观测性

记录 LLM 应用与 Agent 的端到端调用链,深入洞察其运行行为。基于 OpenTelemetry 构建,兼容任意 LLM 提供商与 Agent 框架,并支持对生产环境中的质量、成本与安全性进行持续监控。

可观测性 screenshot

评估

通过系统化评估持续跟踪质量指标变化,在问题进入生产环境前及时发现问题。可从 50+ 内置指标与 LLM 评判器中选择,或通过灵活 API 自定义评估标准。

评估 screenshot

提示词管理与优化

通过完整的谱系追踪技术,实现提示词的版本管理、测试与部署。利用先进算法自动优化提示词,持续提升性能表现。

提示词管理与优化 screenshot

AI 网关

面向所有 LLM 提供商的统一 API 网关。通过 OpenAI 兼容接口实现请求路由、速率限制管理、故障转移处理和成本控制。

AI 网关 screenshot

Agent 服务器

一条命令即可将 Agent 部署到生产环境。MLflow Agent 服务器提供基于 FastAPI 的托管解决方案,具备自动请求验证、流式支持和内置追踪功能。

from mlflow.agent_server import AgentServer, invoke, stream
from mlflow.types.agent import ResponsesAgentRequest, ResponsesAgentResponse
@invoke()
async def run_agent(request: ResponsesAgentRequest) -> ResponsesAgentResponse:
msgs = [i.model_dump() for i in request.input]
result = await Runner.run(agent, msgs)
return ResponsesAgentResponse(
output=[item.to_input_item() for item in result.new_items]
)
# 启动服务器
agent_server = AgentServer("MyAgent")
agent_server.run(app_import_string="server:app")
最广泛采用的开源 AIOps 平台
在 Linux Foundation 的支持下,MLflow 已坚持开源 5 年以上。目前,全球数千个组织和研究团队正在使用 MLflow 来驱动其 LLMOps MLOps 工作流。
mlflow/mlflow
30 Million+Package Downloads / Month
兼容所有框架
从 LLM Agent 框架到传统 ML 库,MLflow 与 100 多个工具无缝集成。支持 Python、TypeScript/JavaScript、Java、R,并原生支持 OpenTelemetry。
团队选择 MLflow 的原因
专注于构建优秀的 AI。MLflow 处理复杂性,让您更快地交付产品。

开源

基于 Apache 2.0 许可证的 100% 开源项目。永久免费,无任何限制。

无供应商锁定

兼容任何云平台、框架或工具。随时可以更换供应商。

生产就绪

经过世界 500 强企业和数千个团队的大规模验证。

全面可视化

为所有 AI 应用和 Agent 提供完整的追踪和可观测性。

社区

20K+ GitHub Stars,900+ 贡献者。加入增长最快的 AIOps 社区。

丰富的集成

开箱即用地支持 LangChain、OpenAI、PyTorch 等 100 多个 AI 框架。

3 步开始
几分钟即可开始 LLMOps。无需复杂设置。开始使用 →
1

安装

一条命令即可启动。

bash
pip install mlflow
mlflow server
~30秒
2

记录追踪

几行代码即可开始自动记录追踪。

python
import mlflow
from openai import OpenAI
mlflow.openai.autolog()
client = OpenAI()
client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user",
"content": "Hello!"}
],
)
~30秒
3

在 UI 中查看

在 MLflow UI 中查看追踪和指标。

bash
# http://localhost:5000
# 查看追踪记录
~1分钟