The Structural Sources of Verb Meaning Revisited: Large Language Models Display Syntactic Bootstrapping

📄 arXiv: 2508.12482v1 📥 PDF

作者: Xiaomeng Zhu, R. Thomas McCoy, Robert Frank

分类: cs.CL

发布日期: 2025-08-17


💡 一句话要点

探讨大型语言模型中的句法引导对动词意义学习的影响

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 句法引导 大型语言模型 动词学习 RoBERTa GPT-2 自然语言处理 儿童语言学习

📋 核心要点

  1. 核心问题:现有研究未充分探讨大型语言模型在动词意义学习中的句法引导作用。
  2. 方法要点:通过对RoBERTa和GPT-2进行训练,使用扰动数据集以消除句法信息,观察模型表现的变化。
  3. 实验或效果:结果显示句法信息的缺失对动词表示的影响显著,尤其是心理动词的表现更为脆弱。

📝 摘要(中文)

句法引导假设认为儿童通过动词出现的句法环境来学习其意义。本文研究了大型语言模型是否表现出类似行为。通过对RoBERTa和GPT-2进行训练,使用了扰动数据集以消除句法信息。结果表明,当句法线索被移除时,模型的动词表示比当共现信息被移除时更为退化。此外,心理动词的表示在这种训练模式下受到的负面影响大于物理动词。这些发现不仅强化了句法引导在动词学习中的重要性,还展示了通过操控大型语言模型的学习环境来测试发展假设的可行性。

🔬 方法详解

问题定义:本文旨在探讨大型语言模型是否能够通过句法环境来学习动词的意义,现有方法未能充分验证这一假设的有效性。

核心思路:通过对RoBERTa和GPT-2模型进行训练,使用扰动数据集来消除句法信息,从而观察模型在动词学习中的表现变化。这样的设计旨在模拟儿童学习动词的过程,验证句法引导的作用。

技术框架:整体架构包括数据预处理、模型训练和结果分析三个主要阶段。数据预处理阶段涉及对句法信息的扰动,模型训练阶段使用RoBERTa和GPT-2进行训练,结果分析阶段则评估模型在不同条件下的表现。

关键创新:本研究的创新点在于首次将句法引导的概念应用于大型语言模型的训练中,揭示了句法信息对动词学习的重要性,与传统的共现信息学习形成对比。

关键设计:在训练过程中,设置了不同的扰动参数,以控制句法和共现信息的影响,损失函数采用交叉熵损失,网络结构基于RoBERTa和GPT-2的标准架构,确保了实验的可重复性和结果的可靠性。

📊 实验亮点

实验结果显示,当句法线索被移除时,模型的动词表示退化程度显著高于共现信息的移除,尤其是心理动词的表现下降更为明显。这一发现强调了句法引导在动词学习中的关键作用,为未来的研究提供了新的视角。

🎯 应用场景

该研究的潜在应用领域包括自然语言处理、教育技术和儿童语言学习等。通过理解句法引导在动词学习中的作用,可以为开发更智能的语言学习工具和教育软件提供理论支持,促进儿童语言能力的发展。

📄 摘要(原文)

Syntactic bootstrapping (Gleitman, 1990) is the hypothesis that children use the syntactic environments in which a verb occurs to learn its meaning. In this paper, we examine whether large language models exhibit a similar behavior. We do this by training RoBERTa and GPT-2 on perturbed datasets where syntactic information is ablated. Our results show that models' verb representation degrades more when syntactic cues are removed than when co-occurrence information is removed. Furthermore, the representation of mental verbs, for which syntactic bootstrapping has been shown to be particularly crucial in human verb learning, is more negatively impacted in such training regimes than physical verbs. In contrast, models' representation of nouns is affected more when co-occurrences are distorted than when syntax is distorted. In addition to reinforcing the important role of syntactic bootstrapping in verb learning, our results demonstrated the viability of testing developmental hypotheses on a larger scale through manipulating the learning environments of large language models.