Don't Erase, Inform! Detecting and Contextualizing Harmful Language in Cultural Heritage Collections

📄 arXiv: 2505.24538v1 📥 PDF

作者: Orfeas Menis Mastromichalakis, Jason Liartis, Kristina Rose, Antoine Isaac, Giorgos Stamou

分类: cs.CL

发布日期: 2025-05-30


💡 一句话要点

提出AI工具以检测和上下文化遗产中的有害语言

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 文化遗产 有害语言检测 自然语言处理 大型语言模型 多语言词汇 上下文化 AI工具 包容性设计

📋 核心要点

  1. 现有文化遗产数据中存在的冒犯性描述反映了历史偏见,给文化遗产机构带来了整理和更新的挑战。
  2. 本文提出了一种AI工具,通过检测冒犯性术语并提供其历史和当代背景,帮助文化遗产机构更好地处理这些数据。
  3. 该工具已成功处理790万条记录,提供了对争议术语的上下文化,提升了文化遗产收藏的包容性和可及性。

📝 摘要(中文)

文化遗产数据承载着社会的历史、传统和身份,但许多收藏品中存在过时或冒犯性的描述,反映了历史偏见。文化遗产机构在整理这些数据时面临巨大挑战。为此,本文开发了一种AI驱动的工具,能够检测文化遗产元数据中的冒犯性术语,并提供其历史背景和当代认知的上下文见解。该工具结合了与边缘化社区、研究人员和文化遗产专业人士共同创建的多语言词汇,以及传统的自然语言处理技术和大型语言模型。该工具已处理超过790万条记录,使检测到的争议术语得以上下文化,旨在通过信息化而非简单删除,使偏见可见,从而为创建更具包容性和可及性的文化遗产收藏提供可行的见解。

🔬 方法详解

问题定义:本文旨在解决文化遗产数据中存在的冒犯性术语及其历史偏见问题。现有方法往往只关注删除这些术语,未能提供其背景信息,导致重要历史知识的丧失。

核心思路:论文的核心思路是通过AI工具检测冒犯性术语,并提供其历史和当代的上下文信息,帮助用户理解这些术语的复杂性,而非简单删除。

技术框架:该工具的整体架构包括数据输入模块、冒犯性术语检测模块、上下文生成模块和用户界面。数据输入模块负责接收文化遗产元数据,检测模块利用多语言词汇和NLP技术识别冒犯性术语,生成模块则提供相关的历史和当代背景信息。

关键创新:最重要的技术创新在于结合了多语言词汇和大型语言模型,使得工具能够在不同文化和语言背景下有效识别和上下文化冒犯性术语。这与现有方法的本质区别在于,后者通常缺乏对术语背景的深入分析。

关键设计:在技术细节上,工具采用了基于深度学习的自然语言处理模型,结合了特定的损失函数以优化术语检测的准确性,同时设计了用户友好的界面以便于文化遗产机构的使用。该工具还支持多语言输入,增强了其适用性。

📊 实验亮点

实验结果显示,该工具已成功处理超过790万条文化遗产记录,检测到的冒犯性术语得到了有效的上下文化,显著提升了用户对文化遗产数据的理解和接受度。与传统方法相比,该工具在术语检测的准确性和上下文化的深度上均有显著提升。

🎯 应用场景

该研究的潜在应用领域包括博物馆、档案馆和文化遗产管理机构,能够帮助这些机构在整理和展示文化遗产时,识别和处理有害语言,从而提升其收藏的包容性和可及性。未来,该工具还可以扩展到其他领域,如教育和公共政策,促进对历史偏见的理解和反思。

📄 摘要(原文)

Cultural Heritage (CH) data hold invaluable knowledge, reflecting the history, traditions, and identities of societies, and shaping our understanding of the past and present. However, many CH collections contain outdated or offensive descriptions that reflect historical biases. CH Institutions (CHIs) face significant challenges in curating these data due to the vast scale and complexity of the task. To address this, we develop an AI-powered tool that detects offensive terms in CH metadata and provides contextual insights into their historical background and contemporary perception. We leverage a multilingual vocabulary co-created with marginalized communities, researchers, and CH professionals, along with traditional NLP techniques and Large Language Models (LLMs). Available as a standalone web app and integrated with major CH platforms, the tool has processed over 7.9 million records, contextualizing the contentious terms detected in their metadata. Rather than erasing these terms, our approach seeks to inform, making biases visible and providing actionable insights for creating more inclusive and accessible CH collections.