MACC: Multi-Agent Collaborative Competition for Scientific Exploration

📄 arXiv: 2603.03780v1 📥 PDF

作者: Satoshi Oyama, Yuko Sakurai, Hisashi Kashima

分类: cs.MA, cs.AI

发布日期: 2026-03-04

备注: Camera-ready version. To appear in the Proceedings of AAMAS 2026 (Blue Sky Ideas Track)


💡 一句话要点

提出MACC框架,用于研究多智能体在科学探索中的协作与竞争机制。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多智能体系统 协作竞争 科学探索 大型语言模型 制度设计

📋 核心要点

  1. 现有科学探索依赖人工,存在探索不足、重复试验和可重复性差等问题。
  2. MACC框架通过黑板机制和激励策略,促进多智能体在共享空间进行透明、可重复和高效的科学探索。
  3. MACC提供了一个测试平台,用于研究制度设计如何影响多智能体科学探索的可扩展性和可靠性。

📝 摘要(中文)

科学发现仍然严重依赖研究人员的手动工作,导致探索受限、重复试验和可重复性降低。人类参与者的数据分析竞赛产生了多样化的方法,但参与度的波动和缺乏独立的重复表明,仅靠并行探索不足以实现可靠的科学探究。随着基于大型语言模型(LLM)的先进AI智能体越来越多地执行分析任务,依赖于单个高能力智能体不太可能克服这些结构性限制。最近的工作开始探索多个基于LLM的智能体如何在科学工作流程中协作或竞争——我们称之为MA4Science的一个增长趋势。然而,大多数现有的MA4Science研究假设所有智能体都由单个组织实体控制,限制了它们研究制度机制(如激励、信息共享和可重复性)如何塑造独立管理的智能体之间的集体探索的能力。为了解决这个差距,我们引入了MACC(多智能体协作竞争),这是一种制度架构,它将黑板风格的共享科学工作空间与旨在鼓励透明度、可重复性和探索效率的激励机制相结合。MACC为研究制度设计如何影响可扩展和可靠的多智能体科学探索提供了一个测试平台。

🔬 方法详解

问题定义:现有科学探索方法依赖人工,效率低下且存在重复性问题。即使利用大型语言模型(LLM)的单个智能体也难以克服这些结构性限制。现有研究缺乏对独立管理的多智能体之间协作和竞争机制的深入探索,特别是制度机制(如激励、信息共享和可重复性)如何影响集体探索。

核心思路:MACC的核心思路是构建一个制度化的多智能体协作竞争环境,通过黑板机制实现信息共享,并通过激励机制鼓励智能体之间的透明协作、结果可重复以及高效探索。这种设计旨在模拟真实科研环境中的竞争与合作关系,从而更有效地进行科学发现。

技术框架:MACC框架包含以下主要模块:1) 共享科学工作空间(黑板):所有智能体都可以在此发布和访问信息,促进知识共享。2) 智能体池:包含多个独立管理的基于LLM的智能体,每个智能体具有不同的专业知识和探索策略。3) 激励机制:设计合理的奖励和惩罚机制,鼓励智能体进行透明、可重复和高效的科学探索。4) 评估模块:用于评估智能体的贡献和探索成果的质量。

关键创新:MACC的关键创新在于其制度化的设计,它不仅关注智能体的能力,更关注制度机制对多智能体协作和竞争的影响。与现有MA4Science研究不同,MACC允许智能体独立管理,从而能够更真实地模拟科研环境,并研究不同制度设计对集体探索的影响。此外,MACC强调透明性、可重复性和探索效率,这些都是科学研究的关键要素。

关键设计:MACC的关键设计包括:1) 黑板机制:采用结构化的数据格式,方便智能体之间进行信息交换和理解。2) 激励函数:设计合理的奖励函数,鼓励智能体分享有价值的信息、提供可重复的实验结果以及进行高效的探索。奖励函数可以考虑多种因素,如结果的创新性、可重复性、对其他智能体的贡献等。3) 智能体选择策略:可以采用随机选择、基于声誉的选择或基于专业知识的选择等策略,以确保智能体池的多样性。

🖼️ 关键图片

fig_0

📊 实验亮点

论文提出了MACC框架,但摘要中没有明确提及具体的实验结果和性能数据。因此,无法总结实验亮点。未来的研究可以关注MACC框架在具体科学问题上的应用效果,并与其他多智能体协作方法进行比较,以验证其有效性。

🎯 应用场景

MACC框架可应用于各种科学研究领域,例如药物发现、材料科学、气候建模等。它能够加速科学发现过程,提高研究效率和可重复性。通过研究不同制度设计对多智能体协作的影响,MACC还可以为科研政策制定提供参考,促进更有效的科研合作模式。

📄 摘要(原文)

Scientific discovery still relies heavily on the manual efforts of individual researchers, leading to limited exploration, redundant trials, and reduced reproducibility. Human-participant data analysis competitions generate diverse approaches, yet fluctuations in participation and the lack of independent repetitions show that parallel exploration alone is insufficient for achieving reliable scientific inquiry. As advanced AI agents based on large language models (LLMs) increasingly perform analytical tasks, relying on a single highly capable agent is unlikely to overcome these structural limitations. Recent work has begun to explore how multiple LLM-based agents can collaborate or compete in scientific workflows-a growing trend we refer to as MA4Science. However, most existing MA4Science studies assume that all agents are controlled by a single organizational entity, limiting their ability to examine how institutional mechanisms-such as incentives, information sharing, and reproducibility-shape collective exploration among independently managed agents. To address this gap, we introduce MACC (Multi-Agent Collaborative Competition), an institutional architecture that integrates a blackboard-style shared scientific workspace with incentive mechanisms designed to encourage transparency, reproducibility, and exploration efficiency. MACC provides a testbed for studying how institutional design influences scalable and reliable multi-agent scientific exploration.