1. 引言
时序动作定位需要在未剪辑的视频中,确定行为发生的开始时间和结束时间,有利于发现行为发生的关键视频片段,被广泛应用于视频监控、视频摘要、行为检索等领域 [1] [2] [3] 。弱监督时序动作定位只需要视频级的标签,不需要高成本的动作实例标签。然而,在真实的未剪辑视频中,行为发生的前景片段常常淹没在大量的未发生行为的背景片段中,因此,弱监督时序动作定位受到背景噪声的严重干扰,是一个对输入数据敏感的病态问题。
弱监督时序动作定位的关键问题是如何实现背景噪声干扰下的建模问题。一个研究方向是包粒度的标签建模 [4] ,并使用多实例学习方法进行求解。其中,一个包对应一个视频,包中的一个实例对应一个行为片段,根据视频中的实例情况,将视频标记为正包或负包。一个正包至少包含一个正实例,而一个负包不包含正实例。多实例模型不仅可以预测视频标签,而且可以预测每个实例的标签。为了抑制背景实例,多实例方法采用池化方式来解决。在模型训练的反馈传播过程中,池化方法对所有实例的调整都是相同的,也就难以区分前景和背景实例,难以保证模型的收敛能力。另一个研究方向是片段粒度的伪标签建模 [5] [6] [7] 。片段粒度的网络模型通过学习类激活图得分来描述视频片段的行为,并利用该得分产生伪标签来计算损失函数。准确的类激活图得分依赖于可靠的前景样本分布。然而,上述方法没有充分分析大量背景样本干扰情况下的前景样本分布,因此,难以逼近真实的前景样本分布。
图1给出了罚球动作的前景持续时间以及前景片段采样策略。图1(b)是基线模型的时间类激活序列。图1(c)是时序动作定位的前景片段人工标记。根据前景片段的人工标记可以看出,基线模型存在定位不完整和定位过度的问题。
![](//html.hanspub.org/file/2-1543128x7_hanspub.png?20240209084615617)
Figure 1. Foreground duration and foreground clip sampling strategy
图1. 前景持续时间和前景片段采样策略
图1(b)上方的时间轴上用红色三角形标出了对比采样中挖掘的困难样本,基线模型挖掘出了较多的困难样本,但多数困难样本最后都被分类为了背景,这是由于一次采样的局限性导致的。以图1(b)上方时间轴三条虚线对应的三个困难样本为例。从左到右,第一个样本是足球教练演示罚球的动作并安排足球的位置,此时足球并未射向球门,可能是教练的动作导致了一个困难样本。第二个样本是守门员的颠球动作,而不是罚球射门的动作,足球的上下运动造成了干扰,这导致了一个困难样本。第三个样本是摄像机视角距离球员较远,足球的运动幅度在视频中较小,这导致了第三个困难样本。仅使用对比学习方法,是无法准确采样出所有前景样本的,因为有部分困难前景样本经过对比学习,会被判断为与背景样本极为相似,最终导致错误分类。为了避免这些困难前景样本被误分类为背景样本,需要进一步将这些易混淆的样本区分出来。
为了逼近真实的前景分布,本文根据弱监督前景样本的均值和方差设计易混淆样本的随机采样策略(图1(d))。该策略假设样本的前景概率分布,在得分空间中是一种高斯分布的累积形式。该策略被设计为一种拒绝采样策略,即,均匀分布随机数通过累积高斯计算得到前景概率,如果视频帧的得分大于该前景概率,那么接受该样本,否则拒绝该样本。其中,均匀分布的随机数用于保证前景样本采样的多样性。为了进一步优化前景分布,避免一次采样的单一性,本文设计了一种多阶段的一致性随机采样策略(图1(e),图1(f)),即在每个阶段都执行随机采样,来逐步过滤前景样本集合中的背景干扰样本。图1(e),图1(f)是两个阶段的时间类激活序列,其上方的时间轴中标出了每一阶段中随机采样的样本,其左侧用红色五角星标出了采样得到的困难样本在二维空间中的分布情况。
由图1(c)前景片段人工标记可以看出,不同的动作实例的持续时间是不同的,捕获大小相同时间感受野中的视频帧的依赖关系是不合理的,因此我们直接通过多头多尺度注意力来融合不同持续时间的动作实例的依赖关系,这有助于在源头上改善最终的定位效果。
一致性随机采样策略和易混淆样本的采样策略将背景干扰样本逐步剔除,为了优化筛选出的前景样本特征,需要区分前景和背景过渡区域的相似样本,对比采样围绕前景片段的边界展开挖掘,优化出那些在边界上易被错误分类的前景样本。
本文的主要贡献如下:
1) 针对弱监督时序动作定位,视频包含大量与行为无关的样本的问题,本文设计了基于高斯提议分布的易混淆样本的随机采样策略。该策略通过调整样本的前景概率分布,实现多时间尺度下前景样本的有效筛选。
2) 针对现有单阶段时间类激活图采样,会限制前景样本采样准确性的收敛,本文设计了一种多阶段一致性前景采样策略。该策略联合考虑多个阶段一致性前景采样,进一步收敛采样准确性。
3) 针对在前景和背景过渡区域的前景样本和背景样本较为相似,难以区分的问题,本文方法联合考虑多阶段一致性采样和对比采样策略,用于挖掘出困难前景样本,并使用对比学习优化样本分布,提高前景样本和背景样本的可分离性。
2. 相关工作
2.1. 全监督时序动作定位
对未剪辑视频进行时序动作定位,全监督时序动作定位方法,主要采取两步策略,首先产生行为提议,然后对其进行行为分类。生成提议的方法,主要可以分为基于滑窗的方法和基于边界的方法。基于滑窗的方法是指滑动窗口或预定义锚点去产生固定尺寸的提议。行为上下文的图卷积网络 [8] 学习不同时间点之间的边界约束。一些方法关注于使用Transformer提取行为特征用于时序行为定位 [9] [10] 。全监督方法的主要缺点是人工标记成本高,难以应用到没有帧级标记的行为类别。
2.2. 弱监督时序动作定位
弱监督时序动作定位在训练时,仅仅需要视频级的行为标签,避免了全监督方法需要大量前景人工标记的问题。时间关系网络 [11] 使用Transformer来学习实例的时间关系特征。但是,这些工作仅在包粒度上进行分类和选择,难以区分前景和背景实例。
与注意力的软采样策略不同,删除样本是硬采样策略。深度片段选择网络 [12] 设计了多分支的样本删除策略。迭代优化定位方法 [13] 设计了多阶段的样本选择策略。时间域多分辨率特征方法 [14] 在多阶段框架内分析多尺度时间之间的特征约束关系。对比学习行为定位方法 [15] 关注于前景和背景的过渡的困难样本挖掘与特征优化。先验驱动模型 [16] 以动作特定场景先验、动作片段生成先验和可学习高斯先验的形式利用视频中潜在的时空规律,以补充现有的弱监督方法。区分性驱动的图网络 [17] 通过显式地模拟模糊片段和区别片段,防止模糊信息的传递,提高片段级表示的可区分性。但是,上述工作忽略了视频类激活图中,部分前景以低得分的方式存在的情况。
不同于现有工作,本文考虑提议分布来实现易混淆采样,并引入随机机制保留样本的多样性。该网络构建多阶段一致性采样模块,来保证前景分布建模的收敛,并使用对比学习来学习困难前景样本特征,用于提供前景样本和背景样本的可分离性。
3. 模型框架
图2描述了本文的一致性对比采样网络。该网络使用多尺度多头注意力模块来增强行为特征描述能力。基于提议分布的前景采样模块用于捕获前景样本分布。多阶段一致性采样模块通过联合考虑每个阶段的采样规则,来促使前景分布收敛。对比采样模块挖掘出困难的前景和背景样本,并使用对比损失进行易混淆样本的特征优化。
![](//html.hanspub.org/file/2-1543128x8_hanspub.png?20240209084615617)
Figure 2. Consensus contrastive sampling network
图2. 一致性对比采样网络
3.1. 多尺度多头注意力模块
多视频帧的上下文特征可用于区分行为类别。本文使用多头注意力来学习多视频帧中行为的时间依赖关系,以提取可靠的时间上下文特征。此外,行为具有不同的持续时间,单时间尺度特征难以同时捕获不同时间尺度的特征。因此,本文对三个时间尺度的特征分别使用多头注意力,以鲁棒提取不同持续时间的时间依赖特征。
每个视频被划分为T个视频片段。分别对该片段的RGB和光流图像,使用I3D网络进行特征提取。RGB和光流特征串联后的特征维度为2D。每个视频表示为一个
的特征矩阵X。给定第n个片段的特征
,使用两层时间1D卷积和一层Sigmoid激活函数来学习第j个时间尺度的特征:
。其中,j是时间尺度的编号,其取值为1,2,3。3个分支卷积核的时间尺度分别为1,3,5。
将一个视频的N个视频片段构建为样本集合。本文使用多头注意力来学习上下文特征。多头的编号为
。利用全连接层来学习每个注意力中的查询矩阵,关键值矩阵和值矩阵。第h个注意力的查询矩阵为
,关键值矩阵为
,值矩阵为
。通过匹配查询矩阵和关键值矩阵,来学习片段之间的时间依赖关系。第h个注意力的特征为:
。
d是Q的特征维度,即2D/h,用于特征的尺度缩放,避免softmax后的特征进入梯度较小的范围。对多个头的注意力进行串联和线性变换,得到多头注意力特征为:
。
最后,使用Add操作对时间尺度特征和上下文特征进行残差求和,并使用Norm操作对特征进行层归一化(LN: LayerNorm),该归一化在单个batch中进行。多头注意力提取的时间类激活得分为:
。对每个视频片段,时间类激活得分是一个C + 1的特征向量,包括C个前景行为类别和1个背景行为类别。
3.2. 基于提议分布的前景采样模块
我们将训练视频拆分为样本集合
,i是训练视频片段的编号,其对应的时间类激活图得分集合为
。并对每个前景类别进行后验概率
估计,其中
是第c个前景行为类别。由于真实的前景采样分布
复杂难以直接求解,容易造成样本是前景的后验概率
估计不准确。我们使用时间类激活图得分
,来设计提议分布
,
为提议分布的参数。此时,前景后验概率的期望可以求解为:
(1)
其中,
是通过原始分布和提议分布的比值,引出了采样的权重。根据公式(1)可以看出当引入提议分布时,其原始分布的求解就可以转换到提议分布上进行,从而避免直接估计原始前景采样分布。即在实现提议分布时,等价于对样本权重的设计。本文设计了两种固定阈值的采样策略和两种高斯随机的采样策略。
低得分抑制的采样策略(SS: Strategy to Suppress samples with low score),该策略对于得分低于阈值的不采样,高于阈值的保留为前景样本,有:
(2)
其中,
是弱监督行为类视频样本的得分均值,
是分数阈值参数。对该采样权重归一化,求得对应前景样本的概率分布为:
(3)
易混淆样本的采样策略(SC: Strategy to sample Confusable ones ),该策略同时抑制低于低分阈值和高于高分阈值的样本,有:
(4)
为了与低得分阈值策略对比,易混淆策略中使用相似的参数设计。对该采样权重归一化,求得对应的前景样本的概率分布为:
(5)
上述策略采用固定阈值采样,对前景样本的采样概率为1,并没有考虑随机性,会限制模型的泛化能力。本文假设前景样本的分布在中心极限定理下逼近高斯分布,同时,由于高得分样本比低得分样本,有更大的概率是前景样本,因此,本文使用累积高斯分布来估计特定得分样本的可靠性,并引入拒绝采样来保持采样过程的多样性,从而将上述两种固定采样策略更新为随机采样策略。
低得分抑制的随机采样策略(RSS: Random Strategy to Suppress samples with low score),该策略引入一个得分[0,1]区间内的均匀分布的随机数z。如果得分大于该随机数则保留为前景采样,如果得分小于该随机数则拒绝采样。我们使用
将z的均匀分布映射到高斯分布,有:
(6)
其中,
是弱监督行为类视频样本的得分和方差,那么,样本随着随机变量z的采样概率为:
(7)
对该采样权重归一化,求得对应的前景样本的概率分布为:
(8)
易混淆样本的随机采样策略(RSC: Random Strategy to sample Confusable ones),该策略融合易混淆采样策略和基于高斯分布拒绝采样策略。对易混淆采样过程中,均匀分布的随机数z,进行拒绝采样,有:
(9)
同理,对该采样权重归一化,求得对应的前景样本的概率分布为:
(10)
我们对每个时间分支分别进行采样。此时视频样本
,记作第n个视频片段第j个时间分支的视频样本
。在第j个时间分支上,第c个行为类的高斯随机采样集合记作:
。其中,*={SS, SC, RSS, RSC}表示本文设计的四种采样策略之一。相对于单尺度随机采样,多尺度随机采样允许保留不同时间尺度的前景样本,具有更完备的前景特征分布捕获能力。
3.3. 多阶段一致性采样模块
在前景分布建模任务中,本文将后验概率的估计和采样策略的隐参数学习,看作是两个相对独立的过程,并使用期望最大化的思想,来求解采样策略中的参数。
第一步是求解期望,该过程核心在于求出前景的后验概率。由于分布的复杂性,期望无法直接计算,因此,我们使用深度模型学习的前景样本得分,来反映后验概率估计的可靠性。
第二步是最大化期望,该过程核心在于从后验概率中,求出采样隐参数
,即公式(3)中的分数阈值参数
,标准差参数
。由于弱监督样本中背景样本的存在,直接求解这两个隐参数并不能得到可靠的结果,因此,本文将这两个参数设置为超参数,来简化求解难度。
由于第一阶段时间类激活图得分采样的前景样本集合,其样本质量优于原始的弱监督样本,从而获得比原始弱监督样本更可靠的后验概率。为了进一步逼近真实分布,本文通过多次迭代的得分分析,来使得弱监督信号变强,逐渐逼近全监督信号,写作:
或者写作:
其中s表示迭代求解中的第s个阶段。对真实采样分布的求解过程,可以通过多阶段的提议分布逼近,具体的期望的迭代收敛过程可以写作:
(11)
在多阶段模型中,每个阶段学习到不同的特征。给定第1个阶段的特征
,考虑所有样本
,所有时间尺度
,所有行为类别
,则第1阶段,所有样本的采样集合为:
。其中,*={SS, SC, RSS, RSC}是采样策略。
在多阶段的采样过程中,本文引入一致性采样策略。其核心是第s阶段的采样时,需要满足第1阶段到第s-1阶段的所有条件,有利于逼近真实的前景分布。在第二阶段每个时间尺度上,采样的样本满足第2阶段得分的要求,或者满足第1阶段的抑制采样集合。一致性采样操作是上述两个集合的并集,
此时,第2阶段用于损失计算的一致性采样集合为:
。其中,
,
,
。根据一致性采样操作,可以依次求出第s阶段的采样集合。
3.4. 对比采样模块
视频中的前景和背景的过渡区域存在高度相似的视频片段难以区分。因此,我们引入对比采样,来优化在过渡区域中的片段的特征。我们引入前景二值序列,来检测过渡区域。给定第s个阶段时间类激活图特征
,我们对其所有行为类别求和,获得前景得分
。将该得分与阈值
比较,获得前景二值标记:
(12)
一个视频的所有片段,可以构建获得前景二值序列
。根据该二值序列,我们将样本集合划分为困难前景样本,困难背景样本,简单前景样本,简单背景样本。前景二值序列二值序列可以腐蚀操作erode(.)检测前景过渡区域
,记作
其中,m是小的操作掩膜,M是大的操作掩膜。困难前景采样集合是一致性采样集合和前景过渡集合的并集:
。
前景二值序列可以使用膨胀操作dilate(.)检测背景过渡区域
,记作
。将该集合作为困难背景采样集合:
。
对视频序列的得分进行降序排序,获得降序排序集合
。选择得分较高的前keasy个样本,并且不在过渡区域的样本作为简单的前景样本集合:
。
对视频序列的得分进行升序排序,获得降序排序集合
。选择得分较低的前keasy个样本,并且不在过渡区域的样本作为简单的前景样本集合:
。
3.5. 损失函数
第s个阶段,第n个视频片段,第c个行为类别的前景预测得分为:
(13)
我们估计背景得分为1减去前景得分,并作为权重来预测背景得分。第s个阶段,第n个视频片段,第c个行为类别的背景预测得分为:
(14)
本文方法的每个阶段是独立训练的,每个阶段只使用本阶段的损失函数。损失函数包括前景行为预测损失,背景行为预测损失,前景背景行为预测损失,和对比损失。
(15)
其中,
是超参数,用于平衡各种损失的作用。
前景行为预测损失用于鼓励视频级前景行为类别预测正确。该损失认为前景视频中不存在背景视频帧,将前C个类别设置给定视频级的标记y,第C + 1个类别记为0,前景行为的视频级标记记作
。对于训练集中的N个视频片段,前景行为预测损失计算为前景标记和前景预测得分的交叉熵损失:
(16)
背景行为预测损失用于鼓励非裁剪视频中存在背景片段。将前C个类别设置为0向量,第C + 1个类别记为1,前景行为的视频级标记记作
。前景行为预测损失计算为背景标记和背景预测得分的交叉熵损失:
(17)
前景背景预测损失用于鼓励前景片段同时存在背景信息。例如,跳水行为和跳水台的背景信息是相关的,因此,背景信息不仅仅和背景预测相关,还和前景行为预测相关。将前景背景预测损失记作前景标记和背景预测得分的交叉熵损失:
(18)
对比损失用于优化困难前景/背景样本。为了优化困难前景样本,我们从困难前景集合中选择查询样本,从简单前景集合中选择正例样本,从简单背景集合中选择负例样本。为了优化困难背景样本,我们从困难背景集合中选择查询样本,从简单背景集合中选择正例样本,从简单前景集合中选择负例样本。我们计算样本之间的距离来描述样本分布,并采用交叉熵损失形式计算查询样本的对比损失:
(19)
第s阶段,第j个时间尺度的对比损失包括困难前景样本和困难背景样本损失两个部分,有:
(20)
多尺度的对比损失是每个尺度损失的平均值:
(21)
当训练完成后,我们使用前k个片段的得分来预测视频行为类别。我们分析大于视频分类阈值的类别进行时序行为定位。对于该行为类别,我们将大于片段阈值的片段作为候选片段。连续的候选片段用于产生行为提议。考虑非极大抑制策略,去除重复交并比高的提议,保留重复片段中得分高的提议。
4. 实验
4.1. 数据集
实验采用THUMOS 14数据集 [18] ,该数据集包含超过24个小时的20类不同行为的视频。其中训练集包含2765个已剪辑的视频,验证集包含200个未剪辑的视频,测试集包含213个未剪辑的视频。对于本文的时序动作定位任务,选择验证集用于训练视频,测试集用作测试。
实验同时使用ActivityNet v1.3数据集 [19] ,其中训练集有10,024个视频,验证集有4926个视频,测试集有5044个视频,包含有200个行为类。使用训练集视频用于训练,验证集用于测试。
4.2. 评价标准
本文使用ActivityNet官方提供的针对时序动作定位任务的方法,评估本文模型的效果。具体来说,使用在不同时间交并比(IoU: Intersection of Union)阈值下的平均精度均值(mAP: mean Average Precision)作为评价标准。
4.3. 实验细节
网络使用在kinetics数据集上预训练的I3D模型提取视频特征。本文没有对I3D特征进行微调。两个流的特征维度都是1024。光流提取使用TVL1算法。在RGB流和光流上都是将无重叠的连续16帧作为一个片段输入到I3D网络。THUMOS 14数据集视频采样750个片段。ActivityNet v1.3数据集视频采样150个片段。多头注意力的头的数量为16。根据对比学习 [15] ,过渡区域检测中,小掩膜参数为3,大掩膜参数为6。样本的采样数量与视频片段数量相关。THUMOS 14数据集的对比采样中,每个视频过渡区域的困难样本的采样数量为23个,简单样本的采样数量为93个。ActivityNet v1.3数据集的对比采样中,每个视频过渡区域的困难样本的采样数量为4个,简单样本的采样数量为6个。困难前景样本是过渡区域的采样集合和一致性采样集合的交集。损失函数的超参数设置为
,
,
,
。
在时序行为定位过程中,THUMOS 14数据集的视频分类阈值为0.25,即允许视频中存在多个大于阈值0.25的类别被识别出。ActivityNet v1.3数据集的视频分类阈值为0.1。如果没有大于阈值的类别,选择得分最高的类别。计算mAP时,THUMOS 14数据集使用多个片段阈值[0:0.15:0.015],ActivityNet v1.3数据集使用多个片段阈值[0:0.25:0.025]。对预测出的行为时间段进行非极大抑制,非极大值抑制的阈值为0.7。
本文实验所采用的PC机配置为Intel Core i7-5960X、CPU 3 GHz × 8 cores、RAM 8 GB,图像显卡为1张NVIDIA GeForce GTX 1080Ti,Linux16.04操作系统。深度学习框架为pytorch。训练时使用Adam优化算法,学习率为10~4,权重衰减5x10-4。对于THUMOS 14数据集,每个阶段训练200个epoch,批处理大小为16。对于ActivityNet v1.3数据集,每个阶段训练200个epoch,训练的批处理大小为512。
4.4. 消融实验
4.4.1. 提议分布采样与对比采样
![](Images/Table_Tmp.jpg)
Table 1. Results of different sampling strategies on the THUMOS 14 dataset
表1. 不同采样策略在THUMOS 14数据集的结果
表1给出了第1阶段,单尺度时间卷积核为1情况下,不同采样策略的mAP@IoU (0.5),即在IoU为0.5时的mAP结果。根据表1可以看出,1) baseline+多头注意力是指使用多头注意力的行为特征。该特征提供的时间上下文特征,能够较好的改善前景样本的描述能力。2) 当本文使用低得分抑制的采样策略时,能够去除部分与行为无关的视频帧,从而改善模型结果。3) 当进行易混淆样本的采样策略时,去除了对模型学习优化能力不足的高分样本,使得模型学习对易混淆样本的损失信号更为敏感。4) 低得分抑制的随机采样策略,通过引入随机性来保证低分样本的多样性。当高斯方差较小时,其对低分样本的采样概率较小,当高斯方差较大时,其对低分样本的采样概率较大。当标准差为0.1的执行效果最好。5) 实验结果最好的实验条件是易混淆样本的随机采样策略,标准差为0.1。此外,在相同的标准差下,易混淆样本随机采样策略的结果,优于低得分抑制的随机采样策略,这说明去除高分样本能够让模型更关注判决边界的学习,从而改善前景分布建模能力。
4.4.2. 多时间尺度
表2给出了两种随机采样策略,高斯标准差为0.1 情况下,第1阶段不同时间卷积核的实验结果。表2说明,1) 在低得分抑制的随机采样策略中,结果随着Conv1,Conv3,Conv5依次提高。这说明当使用短时间卷积核时,难以考虑这些片段的上下文,对于运动变化不明显的行为,容易与背景混淆。同时,说明数据集中存在一些长的持续时间的行为片段,当引入长的时间卷积核时,能够描述更大范围的时间上下文,能够描述出行为在这个时间尺度上的变化,有利于前景从背景类中区分出来。2) 当Conv7添加到网络结构中,结果略微下降,这是由于Conv7估计更长时间段内的预测标记相同,这容易对夹在背景帧中的持续时间较短的行为进行误判。3) 在易混淆样本的随机采样策略中,最好的多时间融合策略是Conv1 + 3 + 5,同样Conv7也会引起持续时间短的行为片段的误判。
![](Images/Table_Tmp.jpg)
Table 2. Results of different temporal convolution kernels on the THUMOS 14 dataset
表2. 不同时间卷积核在THUMOS 14数据集的结果
4.4.3. 多阶段一致性采样
![](Images/Table_Tmp.jpg)
Table 3. Results of different execution phases on the THUMOS 14 dataset
表3. 不同执行阶段在THUMOS 14数据集的结果
表3给出了两种随机采样策略,高斯标准差为0.1情况下,Conv 1 + 3 + 5的三个时间尺度下,不同阶段的结果。表3中迭代次数为1表示执行一次高斯随机采样。只有当迭代次数大于2时,才在每个阶段训练完成后,考虑前驱各阶段的条件进行一致性采样。表3中可以看出,两种随机采样策略中,迭代次数1,2,3的结果依次提高。这说明在早期迭代过程中,能较好的删除行为类视频中与行为无关的视频帧,保留的样本能更好地逼近真实分布。迭代次数4的结果趋于收敛,模型趋于稳定。
4.5. 对比实验
![](Images/Table_Tmp.jpg)
Table 4. Results of state-of-the-art methods on the THUMOS 14 dataset
表4. 现有方法在THUMOS 14数据集的结果
表4给出了THUMOS 14数据集上现有主流全监督方法的结果。Transformer时序行为检测方法(TadTR) [9] 考虑行为片段之间的位置来分析时间注意力。行为Transformer (ActionFormer)方法 [10] 关注于多尺度Transformer来学习为特征。全监督方法的主要缺点是人工标记成本高,难以应用到没有帧级标记的行为类别。
表4给出了THUMOS 14数据集上的弱监督方法结果。CoLA方法 [15] 关注于对比学习来优化困难行为特征。本文方法考虑多头注意力的行为特征。此外,本文方法考虑易混淆样本的随机采样策略(RSC),并考虑一致性采样来增强行为样本分布建模,从而胜出CoLA方法。ASM-Loc方法 [7] 考虑行为之间的时间关系。本文方法使用多头注意力考虑行为时间的时间关系,并考虑多阶段一致性采样和对比采样来优化行为特征,从而本文方法胜出ASM-Loc方法。DDG-Net方法 [17] 考虑消除模糊信息的不利影响。本文考虑多阶段一致性采样策略,故本文方法胜出DDG-Net方法。
表5给出了ActivityNet1.3数据集上的弱监督方法的结果。背景标签分析是弱监督方法中的关键问题,融合标签分析的模型都取得了可靠的时序动作定位结果CoLA [15] ,UGCT [6] 。本文方法采用一致性对比采样来分析前景样本,胜出现有的基于标签分析的弱监督方法。
![](Images/Table_Tmp.jpg)
Table 5. Results of state-of-the-art methods on the ActivityNet 1.3 dataset
表5. 现有方法在ActivityNet 1.3数据集的结果
4.6. 可视化分析
图3给出了两种随机采样策略的多阶段行为提议结果。在排球扣球中,该视频中只有一个行为示例。该行为中由于球超出拍摄高度,在低得分抑制随机采样策略的第2阶段出现了一个低得分片段。而实际上该片段中后方扣球人员从场景外跳起,并进入场景进行扣球。该片段的动作特点是垫球人员观察高空中的排球。本文低得分抑制采样策略,通过删除与行为无关的低得分样本,来发现该样本在内容上与扣球行为的相关性,从而在第3阶段找出了一个更长时间的行为。在易混淆样本随机采样策略中,同时删除低得分和高得分样本,来优化内容相关和内容无关样本的判决边界。在第3阶段中,易混淆样本随机采样策略的结果,在发现较长时间行为的同时,也去除了部分传球视频帧,这样检测结果能更关注扣球相关的行为。
![](//html.hanspub.org/file/2-1543128x92_hanspub.png?20240209084615617)
Figure 3. Multi-stage action proposal results with different strategies
图3. 不同策略的多阶段行为提议结果
5. 总结与展望
本文提出一致性对比采样网络用于弱监督时序动作定位。该网络通过分析前景和背景在时间类激活图上的差异,设计基于提议分布的前景采样模块,来缓解弱监督时序动作定位中,前景样本被背景样本干扰严重的问题。本文设计了四种提议分布采样策略,分别是低得分抑制的采样策略,易混淆样本的采样策略,低得分抑制的随机采样策略,和易混淆样本的随机采样策略。为了促进前景分布的收敛,该网络联合考虑多阶段的前景采样规则,设计多阶段一致性采样模块。此外,针对前景和背景过渡区域的前景样本和背景样本较为相似,难以区分的问题,该网络设计对比采样模块,并联合考虑多阶段一致性采样,用于挖掘出困难前景样本,并使用对比学习优化困难前景样本的特征。在THUMOS 14和Activity v1.3数据集上的实验说明,易混淆样本的随机采样策略对前景样本提议估计是有效的。