REGAL: A Registry-Driven Architecture for Deterministic Grounding of Agentic AI in Enterprise Telemetry

📄 arXiv: 2603.03018v1 📥 PDF

作者: Yuvraj Agrawal

分类: cs.AI, cs.SE

发布日期: 2026-03-03


💡 一句话要点

REGAL:一种注册表驱动架构,用于企业遥测中Agentic AI的确定性基础

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: Agentic AI 大型语言模型 企业遥测 确定性计算 注册表驱动架构

📋 核心要点

  1. 现有方法难以将LLM应用于企业私有遥测数据,面临模型上下文有限、语义概念本地化和指标接口演变等挑战。
  2. REGAL架构通过确定性遥测计算和注册表驱动的编译层,为agentic AI系统提供确定性的基础。
  3. 原型实现和案例研究验证了确定性基础的可行性,并展示了其在延迟、token效率和运营治理方面的影响。

📝 摘要(中文)

企业工程组织产生大量异构遥测数据,来源包括版本控制系统、CI/CD管道、问题跟踪器和可观测性平台。大型语言模型(LLM)支持新型的agentic自动化,但将此类agent建立在私有遥测数据之上会带来三个实际挑战:有限的模型上下文、本地定义的语义概念以及不断演变的指标接口。我们提出了REGAL,一种注册表驱动的架构,用于在企业遥测中确定性地构建agentic AI系统。REGAL采用显式的架构方法:确定性遥测计算被视为一等公民,LLM在有界、版本控制的操作空间上运行,而不是在原始事件流上运行。该架构结合了(1)Medallion ELT管道,该管道生成可重放、语义压缩的Gold工件,以及(2)注册表驱动的编译层,该层从声明式指标定义中合成模型上下文协议(MCP)工具。注册表充当“接口即代码”层,确保工具规范和执行之间的一致性,减轻工具漂移,并将治理策略直接嵌入到语义边界。

🔬 方法详解

问题定义:论文旨在解决企业环境中,如何利用大型语言模型(LLM)对海量、异构的企业遥测数据进行有效利用的问题。现有方法的痛点在于,直接将LLM应用于原始遥测数据会导致模型上下文受限、语义概念不一致以及指标接口不稳定,进而影响agentic AI系统的可靠性和可控性。

核心思路:论文的核心思路是将确定性遥测计算作为一等公民,并引入注册表驱动的编译层,将原始遥测数据转化为LLM可以有效利用的、语义明确且版本可控的“Gold工件”。通过这种方式,LLM不再直接处理原始数据流,而是在一个有界且可控的操作空间内运行,从而提高系统的稳定性和可解释性。

技术框架:REGAL架构包含两个主要组成部分:Medallion ELT管道和注册表驱动的编译层。Medallion ELT管道负责将原始遥测数据经过清洗、转换和加载(ELT)过程,最终生成语义压缩的Gold工件。注册表驱动的编译层则利用注册表中声明式的指标定义,合成模型上下文协议(MCP)工具,供LLM使用。

关键创新:REGAL架构的关键创新在于将注册表作为“接口即代码”层,实现了工具规范和执行之间的一致性,有效缓解了工具漂移问题,并将治理策略直接嵌入到语义边界。此外,将确定性计算提升为一等公民,也使得系统的行为更加可预测和可控。

关键设计:注册表的设计是关键。它需要包含足够丰富的元数据,以描述遥测数据的语义信息、指标定义以及相关的治理策略。Medallion ELT管道的设计也需要保证数据处理的确定性和可重放性,以便于问题诊断和系统调试。模型上下文协议(MCP)工具的设计需要考虑LLM的输入格式和能力,以便于LLM能够有效地利用遥测数据。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文通过原型实现和案例研究验证了REGAL架构的可行性。实验结果表明,REGAL能够有效降低延迟、提高token效率,并增强运营治理能力。具体的性能数据和对比基线(如果论文中提供)未知,但总体而言,实验结果支持了REGAL架构的有效性。

🎯 应用场景

REGAL架构可应用于各种需要利用企业遥测数据进行智能决策和自动化的场景,例如智能运维、安全事件响应、业务流程优化等。通过提供确定性的数据基础和可控的工具接口,REGAL能够帮助企业构建更加可靠、高效和安全的agentic AI系统,从而提升运营效率和降低风险。

📄 摘要(原文)

Enterprise engineering organizations produce high-volume, heterogeneous telemetry from version control systems, CI/CD pipelines, issue trackers, and observability platforms. Large Language Models (LLMs) enable new forms of agentic automation, but grounding such agents on private telemetry raises three practical challenges: limited model context, locally defined semantic concepts, and evolving metric interfaces. We present REGAL, a registry-driven architecture for deterministic grounding of agentic AI systems in enterprise telemetry. REGAL adopts an explicitly architectural approach: deterministic telemetry computation is treated as a first-class primitive, and LLMs operate over a bounded, version-controlled action space rather than raw event streams. The architecture combines (1) a Medallion ELT pipeline that produces replayable, semantically compressed Gold artifacts, and (2) a registry-driven compilation layer that synthesizes Model Context Protocol (MCP) tools from declarative metric definitions. The registry functions as an "interface-as-code" layer, ensuring alignment between tool specification and execution, mitigating tool drift, and embedding governance policies directly at the semantic boundary. A prototype implementation and case study validate the feasibility of deterministic grounding and illustrate its implications for latency, token efficiency, and operational governance. This work systematizes an architectural pattern for enterprise LLM grounding; it does not propose new learning algorithms, but rather elevates deterministic computation and semantic compilation to first-class design primitives for agentic systems.