PrivHAR-Bench: A Graduated Privacy Benchmark Dataset for Video-Based Action Recognition

📄 arXiv: 2604.00761v1 📥 PDF

作者: Samar Ansari

分类: cs.CV, cs.CR

发布日期: 2026-04-01


💡 一句话要点

PrivHAR-Bench:面向视频行为识别的分级隐私基准数据集

🎯 匹配领域: 支柱七:动作重定向 (Motion Retargeting) 支柱八:物理动画 (Physics-based Animation)

关键词: 隐私保护 人体行为识别 基准数据集 视频分析 隐私-效用权衡

📋 核心要点

  1. 现有隐私保护HAR研究缺乏细粒度的隐私强度评估,限制了方法间的公平比较。
  2. PrivHAR-Bench通过多层隐私转换,提供了一个可控的隐私-效用权衡评估基准。
  3. 实验表明,PrivHAR-Bench能够有效评估不同隐私保护方法在不同隐私强度下的性能。

📝 摘要(中文)

现有的隐私保护人体行为识别(HAR)研究通常采用二元范式评估方法:清晰视频与单一隐私转换。这限制了跨方法的可比性,并模糊了隐私强度与识别效用之间微妙的关系。我们引入了PrivHAR-Bench,一个多层基准数据集,旨在标准化视频行为识别中隐私-效用权衡的评估。PrivHAR-Bench应用了一系列渐进式的视觉隐私转换:从轻量级的空间混淆到密码学块置换,应用于精心挑选的15个具有人类动作多样性的活动类别子集。1932个源视频中的每一个都分布在9个并行层中,隐私强度递增,并提供额外的背景移除变体,以将人类运动特征的贡献与上下文场景偏差隔离开来。我们提供无损帧序列、逐帧边界框、估计的姿势关键点(带有关节级置信度分数)、标准化的基于组的训练/测试分割,以及计算识别准确率和隐私指标的评估工具包。使用R3D-18的实证验证表明,跨层存在可测量和可解释的退化曲线,层内准确率从88.8%(清晰)下降到53.5%(加密、背景移除),跨域准确率下降到4.8%,这证明了PrivHAR-Bench是一个受控的基准,用于在标准化条件下比较隐私保护的HAR方法。数据集、生成流程和评估代码已公开。

🔬 方法详解

问题定义:现有的隐私保护人体行为识别研究通常只关注清晰视频和单一隐私转换之间的对比,缺乏对不同隐私强度下算法性能的细致评估。这使得不同隐私保护算法之间的比较变得困难,也无法充分理解隐私保护强度与行为识别准确率之间的权衡关系。现有方法难以量化隐私保护对识别性能的影响,以及不同隐私保护策略的优劣。

核心思路:PrivHAR-Bench的核心思路是构建一个多层次的隐私保护数据集,通过应用一系列渐进式的隐私转换,模拟不同强度的隐私保护效果。这样,研究人员可以在统一的基准上评估不同隐私保护算法在不同隐私强度下的性能表现,从而更好地理解隐私-效用权衡。通过提供背景移除版本,还可以进一步分析场景信息对识别性能的影响。

技术框架:PrivHAR-Bench数据集的构建流程主要包括以下几个阶段:1) 数据选择:从现有行为识别数据集中选择15个具有人类动作多样性的活动类别。2) 隐私转换:对每个视频应用9种不同强度的隐私转换,包括空间混淆和密码学块置换等。3) 数据增强:提供背景移除版本,以消除场景信息的影响。4) 数据标注:提供无损帧序列、逐帧边界框、姿势关键点等标注信息。5) 评估工具:提供标准化的训练/测试分割和评估指标,包括识别准确率和隐私指标。

关键创新:PrivHAR-Bench的关键创新在于其多层次的隐私保护设计,它提供了一个连续的隐私强度谱,而不是简单的二元划分。这种设计使得研究人员可以更精细地评估隐私保护算法的性能,并更好地理解隐私-效用权衡。此外,数据集还提供了背景移除版本,以及丰富的标注信息和评估工具,方便研究人员进行实验和比较。

关键设计:PrivHAR-Bench的关键设计包括:1) 隐私转换的选择:选择了从轻量级的空间混淆到密码学块置换等多种隐私转换方法,以覆盖不同的隐私保护强度。2) 活动类别的选择:选择了具有人类动作多样性的15个活动类别,以保证数据集的代表性。3) 评估指标的选择:选择了识别准确率和隐私指标等多种评估指标,以全面评估隐私保护算法的性能。4) 数据集的划分:提供了标准化的训练/测试分割,以保证实验的可重复性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

使用R3D-18在PrivHAR-Bench上进行验证,结果表明,随着隐私强度的增加,识别准确率呈现可测量和可解释的下降趋势。在清晰视频下,层内准确率为88.8%,而在加密且背景移除的视频下,层内准确率下降到53.5%。跨域准确率更是下降到4.8%。这些结果验证了PrivHAR-Bench作为隐私保护HAR方法评估基准的有效性。

🎯 应用场景

PrivHAR-Bench可应用于开发和评估各种隐私保护的视频行为识别系统,例如智能监控、医疗健康、智能家居等领域。该数据集能够帮助研究人员设计更有效的隐私保护算法,在保护用户隐私的同时,保证行为识别的准确性。未来,可以基于PrivHAR-Bench进一步研究联邦学习、差分隐私等更高级的隐私保护技术。

📄 摘要(原文)

Existing research on privacy-preserving Human Activity Recognition (HAR) typically evaluates methods against a binary paradigm: clear video versus a single privacy transformation. This limits cross-method comparability and obscures the nuanced relationship between privacy strength and recognition utility. We introduce \textit{PrivHAR-Bench}, a multi-tier benchmark dataset designed to standardize the evaluation of the \textit{Privacy-Utility Trade-off} in video-based action recognition. PrivHAR-Bench applies a graduated spectrum of visual privacy transformations: from lightweight spatial obfuscation to cryptographic block permutation, to a curated subset of 15 activity classes selected for human articulation diversity. Each of the 1,932 source videos is distributed across 9 parallel tiers of increasing privacy strength, with additional background-removed variants to isolate the contribution of human motion features from contextual scene bias. We provide lossless frame sequences, per-frame bounding boxes, estimated pose keypoints with joint-level confidence scores, standardized group-based train/test splits, and an evaluation toolkit computing recognition accuracy and privacy metrics. Empirical validation using R3D-18 demonstrates a measurable and interpretable degradation curve across tiers, with within-tier accuracy declining from 88.8\% (clear) to 53.5\% (encrypted, background-removed) and cross-domain accuracy collapsing to 4.8\%, establishing PrivHAR-Bench as a controlled benchmark for comparing privacy-preserving HAR methods under standardized conditions. The dataset, generation pipeline, and evaluation code are publicly available.