AgentLoop Pipeline 是数据处理流水线引擎,用于将 AI Agent 运行时日志数据自动加工处理为高质量 Dataset。Pipeline 提供 6 大类共 13 个处理节点,覆盖字段选取、三级去重、语义聚类、采样、AI 评估/标注/合成等全链路数据处理能力。
Pipeline 端到端全景
Pipeline 覆盖从 LogStore 到 Dataset 的完整链路,通过灵活组合 6 大类、13 个处理节点(数据清洗、采样、评估、标注、合成等),按需编排数据处理流程。
文档分类与入口
Pipeline 文档按用途分为以下类别。
类型 | 文档 | 说明 |
Quick Start | 5 分钟跑通第一条 Pipeline。选择数据源、配置节点、设置调度、提交运行。 | |
User Guide | 推荐首读。涵盖 Pipeline 核心概念、数据处理流程、典型场景、编排原则、预置模板、最佳实践和 FAQ。 | |
Reference | 参考手册。包含 Pipeline JSON 配置结构、全部 13 个节点的参数详解、REST API、扩展列、阈值参考和使用限制。 | |
Tutorial | 步骤式学习路径。按顺序完成字段选取、三级去重、聚类采样、AI 评估等操作,约 20~30 分钟构建一条完整 Pipeline。 | |
Templates | 9个预置 Pipeline 模板,覆盖去重清洗、多样性采样、质量评估、自动标注、数据合成等场景。可直接复制或按需定制。 | |
Nodes Reference | 13 个处理节点的参数说明、配置示例。 |
推荐阅读路径
首次接触:通读用户使用指南,遇到参数细节时跳转产品功能文档查阅。
快速体验:按快速开始完成第一条 Pipeline,或直接跟随教程完成端到端实践。
了解完整能力:打开产品功能文档,按需查阅各章节。
按步骤学习:跟随教程逐步完成一条完整数据管线的搭建。
使用预置模板:打开模板集合,按业务场景选择模板,复制 JSON 配置即可使用。
查看 API 或节点参数:打开产品功能文档查阅 REST API 和节点参考索引。