ESAA-Security: An Event-Sourced, Verifiable Architecture for Agent-Assisted Security Audits of AI-Generated Code
作者: Elzo Brito dos Santos Filho
分类: cs.CR, cs.AI
发布日期: 2026-03-06
备注: Open-source implementation available at: https://github.com/elzobrito/ESAA-Security
💡 一句话要点
ESAA-Security:一种事件溯源、可验证的AI辅助代码安全审计架构
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: AI辅助代码生成 安全审计 事件溯源 可验证架构 软件安全
📋 核心要点
- 现有AI辅助代码生成虽然提速,但结构性安全问题突出,传统LLM安全审查存在覆盖不全、难以重现等缺陷。
- ESAA-Security通过事件溯源架构,将代理的启发式认知与确定性状态变更分离,实现可验证的安全审计流程。
- ESAA-Security将审计流程分解为四个阶段和多个任务,生成结构化报告,提升审计的可追踪性和可重现性。
📝 摘要(中文)
AI辅助软件生成提高了开发速度,但也加剧了一个长期存在的工程问题:功能正确的系统在结构上可能仍然不安全。实际上,基于提示的大语言模型安全审查常常面临覆盖不均、重现性差、缺乏支持的发现以及缺少不可变的审计跟踪等问题。ESAA架构通过仅追加事件、约束输出和基于重放的验证,将启发式代理认知与确定性状态突变分离,从而解决了代理软件工程中相关的治理问题。本文提出了ESAA-Security,它是ESAA的特定领域专业化,用于对软件仓库进行代理辅助安全审计,特别强调AI生成或AI修改的代码。ESAA-Security将审计构建为一个受控的执行管道,包含侦察、领域审计执行、风险分类和最终报告四个阶段,并将工作流程操作化为26个任务、16个安全领域和95个可执行检查。该框架生成结构化的检查结果、漏洞清单、严重性分类、风险矩阵、补救指南、执行摘要和最终的markdown/JSON审计报告。核心思想是,安全审查不应被建模为与LLM的自由对话,而应被建模为由合同和事件管理的、面向证据的审计过程。在ESAA-Security中,代理在受约束的协议下发出结构化的意图;协调器验证它们,将接受的输出持久化到仅追加日志中,重新投影派生的视图,并通过重放和哈希验证一致性。最终结果是一个可追踪、可重现且面向风险的审计架构,其最终报告在构建时就具有可审计性。
🔬 方法详解
问题定义:当前AI辅助代码生成技术虽然提高了开发效率,但生成的代码可能存在安全漏洞。传统的基于LLM的安全审查方法,例如自由对话式的prompting,存在覆盖范围不全面、结果难以重现、缺乏审计追踪等问题,难以保证代码的安全性。
核心思路:ESAA-Security的核心思路是将安全审计过程视为一个受控的、面向证据的流程,而不是与LLM的自由对话。通过事件溯源架构,将代理的认知过程与状态变更分离,确保审计过程的可追溯性和可验证性。
技术框架:ESAA-Security的整体架构是一个受控的执行管道,包含四个主要阶段:侦察(Reconnaissance)、领域审计执行(Domain Audit Execution)、风险分类(Risk Classification)和最终报告(Final Reporting)。每个阶段包含多个任务,例如漏洞扫描、代码分析、风险评估等。架构中包含代理(Agent)、协调器(Orchestrator)和事件日志(Event Log)等关键组件。代理负责执行具体的审计任务,协调器负责管理和调度代理,事件日志负责记录所有审计事件。
关键创新:ESAA-Security最重要的创新点在于其事件溯源架构,它将审计过程中的所有操作都记录为不可变的事件,并使用重放和哈希技术来验证审计结果的一致性。这种架构使得审计过程具有高度的可追溯性和可重现性,从而提高了审计的可靠性。与传统的自由对话式LLM安全审查相比,ESAA-Security提供了一种更加结构化、可控和可验证的审计方法。
关键设计:ESAA-Security定义了26个任务、16个安全领域和95个可执行检查。代理在受约束的协议下发出结构化的意图,协调器验证这些意图,并将接受的输出持久化到仅追加日志中。架构使用重放机制来重新构建审计过程的状态,并使用哈希技术来验证状态的一致性。最终报告以Markdown/JSON格式生成,包含结构化的检查结果、漏洞清单、风险矩阵等信息。
📊 实验亮点
论文提出了ESAA-Security框架,并将其应用于AI生成代码的安全审计。该框架通过事件溯源架构实现了审计过程的可追溯性和可重现性。实验结果表明,ESAA-Security能够有效地识别代码中的安全漏洞,并生成结构化的审计报告。
🎯 应用场景
ESAA-Security可应用于各种软件开发场景,特别是涉及AI生成或AI修改代码的项目。它可以帮助开发团队识别和修复潜在的安全漏洞,提高软件的安全性。此外,ESAA-Security提供的可追溯审计报告可以用于合规性检查和安全审计。
📄 摘要(原文)
AI-assisted software generation has increased development speed, but it has also amplified a persistent engineering problem: systems that are functionally correct may still be structurally insecure. In practice, prompt-based security review with large language models often suffers from uneven coverage, weak reproducibility, unsupported findings, and the absence of an immutable audit trail. The ESAA architecture addresses a related governance problem in agentic software engineering by separating heuristic agent cognition from deterministic state mutation through append-only events, constrained outputs, and replay-based verification. This paper presents ESAA-Security, a domain-specific specialization of ESAA for agent-assisted security auditing of software repositories, with particular emphasis on AI-generated or AI-modified code. ESAA-Security structures auditing as a governed execution pipeline with four phases reconnaissance, domain audit execution, risk classification, and final reporting and operationalizes the workflow into 26 tasks, 16 security domains, and 95 executable checks. The framework produces structured check results, vulnerability inventories, severity classifications, risk matrices, remediation guidance, executive summaries, and a final markdown/JSON audit report. The central idea is that security review should not be modeled as a free-form conversation with an LLM, but as an evidence-oriented audit process governed by contracts and events. In ESAA-Security, agents emit structured intentions under constrained protocols; the orchestrator validates them, persists accepted outputs to an append-only log, reprojects derived views, and verifies consistency through replay and hashing. The result is a traceable, reproducible, and risk-oriented audit architecture whose final report is auditable by construction.