致中国用户
本页面旨在以中文向您介绍 MLflow。衷心感谢中国的用户和企业对我们的支持。
请注意,除本页面外,MLflow 网站的其他内容均以英文提供。您可以使用 Google Chrome 的翻译功能以中文浏览。
可观测性
记录 LLM 应用与 Agent 的端到端调用链,深入洞察其运行行为。基于 OpenTelemetry 构建,兼容任意 LLM 提供商与 Agent 框架,并支持对生产环境中的质量、成本与安全性进行持续监控。




Agent 服务器
一条命令即可将 Agent 部署到生产环境。MLflow Agent 服务器提供基于 FastAPI 的托管解决方案,具备自动请求验证、流式支持和内置追踪功能。
from mlflow.agent_server import AgentServer, invoke, streamfrom mlflow.types.agent import ResponsesAgentRequest, ResponsesAgentResponse@invoke()async def run_agent(request: ResponsesAgentRequest) -> ResponsesAgentResponse:msgs = [i.model_dump() for i in request.input]result = await Runner.run(agent, msgs)return ResponsesAgentResponse(output=[item.to_input_item() for item in result.new_items])# 启动服务器agent_server = AgentServer("MyAgent")agent_server.run(app_import_string="server:app")
最广泛采用的开源 AIOps 平台
30 Million+Package Downloads / Month
兼容所有框架
从 LLM Agent 框架到传统 ML 库,MLflow 与 100 多个工具无缝集成。支持 Python、TypeScript/JavaScript、Java、R,并原生支持 OpenTelemetry。
团队选择 MLflow 的原因
专注于构建优秀的 AI。MLflow 处理复杂性,让您更快地交付产品。
开源
基于 Apache 2.0 许可证的 100% 开源项目。永久免费,无任何限制。
无供应商锁定
兼容任何云平台、框架或工具。随时可以更换供应商。
生产就绪
经过世界 500 强企业和数千个团队的大规模验证。
全面可视化
为所有 AI 应用和 Agent 提供完整的追踪和可观测性。
社区
20K+ GitHub Stars,900+ 贡献者。加入增长最快的 AIOps 社区。
丰富的集成
开箱即用地支持 LangChain、OpenAI、PyTorch 等 100 多个 AI 框架。
3 步开始
几分钟即可开始 LLMOps。无需复杂设置。开始使用 →
1
安装
一条命令即可启动。
bash
~30秒
2
记录追踪
几行代码即可开始自动记录追踪。
python
~30秒
3
在 UI 中查看
在 MLflow UI 中查看追踪和指标。
bash
~1分钟
社区
加入开源社区
与全球 MLflow 用户交流