当前位置: 首页 > news >正文

wamp和wordpress昆明seo关键词排名

wamp和wordpress,昆明seo关键词排名,安阳做网站,网站 系统设置文章目录 摘要动机与贡献具体方法整体架构输入嵌入生成LOGO-Former多头局部注意力多头全局注意力 紧凑损失正则化 实验思考总结 本篇论文 LOGO-Former: Local-Global Spatio-Temporal Transformer for Dynamic Facial Expression Recognition发表在ICASSP(声学顶会…

文章目录

  • 摘要
  • 动机与贡献
  • 具体方法
    • 整体架构
    • 输入嵌入生成
    • LOGO-Former
      • 多头局部注意力
      • 多头全局注意力
    • 紧凑损失正则化
  • 实验
  • 思考
  • 总结

本篇论文 LOGO-Former: Local-Global Spatio-Temporal Transformer for Dynamic Facial Expression Recognition发表在ICASSP(声学顶会),代码暂未开源。

摘要

以前的动态面部表情识别(DFER)方法主要基于卷积神经网络(CNN),其局部操作忽略了视频中的长程依赖性。基于Transformer的DFER方法可以实现更好的性能,但会导致更高的FLOPs和计算成本。为了解决这些问题,局部-全局时空Transformer(LOGO-Former)被提出来捕获每个帧内的区别性特征,并在平衡复杂度的同时建模帧之间的上下文关系。基于面部肌肉局部运动和面部表情逐渐变化的先验知识,我们首先将空间注意力和时间注意力限制在一个局部窗口内,以捕获特征标记之间的局部交互。此外,我们执行的全局注意力,通过查询一个token的功能,从每个局部窗口迭代获得整个视频序列的长距离信息。此外,我们提出了紧凑的损失正则化项,以进一步鼓励学习的特征具有最小的类内距离和最大的类间距离。在两个野外动态面部表情数据集上的实验(即,DFEW和FERV 39 K)的结果表明,我们的方法提供了一种有效的方法来利用空间和时间的依赖性DFER。

动机与贡献

下面是几种不同时空自注意方案:

在这里插入图片描述
不同时空自我注意方案的可视化。为了更好地说明,我们用浅黄色表示query token,用玫瑰色表示key token,用浅蓝色表示非注意token。
(a)全局时空注意力: O ( T 2 S 2 ) O(T^2S^2) OT2S2
(b)仅空间注意力: O ( T S 2 ) O(TS^2) OTS2
(c)时空分割注意力 O ( T S 2 + T 2 S ) O(TS^2+T^2S) OTS2+T2S
(d)时空混合注意力: O ( T S 2 ) O(TS^2) OTS2
(e)(f)本文采用的局部和全局时空的注意力机制

不同的面部肌肉在局部面部区域内运动,并且面部表情在视频中的相邻帧内逐渐改变。我们的目标是利用视频中的时空信息,同时最大限度地减少tranformer的计算成本,以实现高效的动态面部表情识别。

  • 为了实现这一点,本文提出了局部-全局时空Transformer(LOGO-Former)用于捕获短期和长期依赖关系,同时降低transformer的计算成本。我们计算非重叠窗口内的自我注意力,以捕捉token之间的局部交互。
  • 这样的局部时空注意力无法捕捉全局信息。因此,利用全局时空注意力使query token关注窗口级的 key token,如上如(f)所示
  • 为了进一步提高模型的鉴别能力,我们提出了紧凑损失正则化项来减少类内距离和增加类间距离。定量结果和可视化结果表明,我们的方法在野外动态面部表情识别的有效性。

具体方法

整体架构

在这里插入图片描述
从视频中采样的人脸帧被CNN主干处理以获得帧级别的特征序列。LOGO-FORM通过联合计算空间关注度和时间关注度来获取区分特征标记。

输入嵌入生成

在这里插入图片描述

给定一个图像序列 X ∈ R F × H 0 × W 0 × 3 X ∈ R^{F× H _0 × W _0 ×3} XRF×H0×W0×3,其中 F F F个RGB人脸帧大小为 H 0 × W 0 H _0 × W _0 H0×W0,从视频中采样,我们利用CNN骨干提取帧级特征。标准CNN主干(ResNet 18)用于为每帧生成大小为 H × W H ×W H×W的高级特征图。片段特征 f 0 ∈ R F × H × W × C f_0 ∈ R^{F×H×W×C} f0RF×H×W×C是通过连接所有帧级特征图来获得的。

在这里插入图片描述

随后,我们将片段特征 f 0 f_0 f0的空间维度平坦化,并通过1 × 1卷积将它们投影,从而产生新的特征序列 f 1 ∈ R F × ( H × W ) × d f1 ∈ R^{F×(H×W)×d} f1RF×H×W×d

注意, f 1 f_1 f1的时间顺序与输入 X X X的时间顺序一致。为了补充特征序列的时空位置信息,我们将可学习的位置嵌入与 f 1 f_1 f1结合起来。我们还在时间维度上将分类标记 [ C L S ] [CLS] [CLS]前置到序列中,该标记对序列的全局状态进行建模,并进一步用于识别。类似地,还添加了时间位置嵌入。最后,获得时空Transformer的输入嵌入X0。

LOGO-Former

LOGO-Former由 N N N个分块组成,每个分块由多头局部注意力和多头全局注意力组成,迭代学习上下文和区分性时空特征表示。

多头局部注意力

在这里插入图片描述

在这里插入图片描述

F × H × W F ×H ×W F×H×W的输入特征图(为了简单起见,我们在这里省略了 [ C L S ] [CLS] [CLS]标记)作为输入,我们将其均匀地分成几个大小为 f × h w f × hw f×hw的窗口,从而得到 F f × H W h w \frac{F}{ f} × \frac{HW} {hw} fF×hwHW窗口,如上图所示。我们在一个窗口 ( i , j ) (i,j) ij内将这些token平坦化,可以表示为 X i , j ∈ R ( f h w ) × d X_{i,j} ∈ R^{(fhw)×d} XijRfhw×d。第 k k k个块的多头局部注意力公式化为:
在这里插入图片描述
时间复杂度如下:
在这里插入图片描述

多头全局注意力

在这里插入图片描述

在这里插入图片描述

我们应用卷积运算来分离和合并特征图,划分为非重叠区域,其中每个区域是特征图的时空抽象。每个区域用于将全局上下文信息传递给每个查询标记。多头全局注意力被公式化为:
在这里插入图片描述
不失一般性,假设我们将特征映射 Y k Y_k Yk池化成 F W H f w h \frac{FWH} {fwh} fwhFWH个token,我们的多头全局注意力的复杂度为:
在这里插入图片描述
因此,我们的LOGOFormer的整个注意力复杂度可以计算为:
在这里插入图片描述
最后,我们将单个全连接(FC)层应用于最后一个块的分类token X ( 0 , 0 ) N X^N_{(0,0)} X00N
在这里插入图片描述

紧凑损失正则化

进阶详解KL散度:https://zhuanlan.zhihu.com/p/372835186

学习判别性的时空特征在野外DFER要求损失函数具有最大化不同类别之间的特征距离的能力。为了实现这一点,我们建议使用对称Kullback-Leibler(KL)散度 D ( u ) ∣ ∣ p ) + D ( p ∣ ∣ u ) {D(u)||p)+ D(p|| u)} Du∣∣p+Dp∣∣u来测量分布 u u u p p p之间的差异,并对预测分布 p p p施加约束,其中 u u u C − 1 C − 1 C1上的均匀分布, p p p是预测分布,但不包括相应目标 y y y的概率。 u 由 u由 usoftmax函数计算:
在这里插入图片描述
在这里插入图片描述

实验

我们使用两个野外DFER数据集(即,DFEW和FERV 39 K)来评估我们提出的方法。对于DFEW和FERV 39 K,经处理的面部区域图像被正式检测、对齐并公开提供。我们的模型在DFEW和FERV 39 K上使用两个NVIDIA GTX 1080Ti GPU卡进行了100次训练,批量为32。初始学习率为0.001的SGD优化器和锐度感知最小化用于优化我们提出的模型。我们使用MSCeleb-1 M 上预训练的ResNet 18作为CNN骨干。时空Transformer层的数量N和头的数量分别经验地分配为4和8。未加权平均召回率(UAR)和加权平均召回率(WAR)作为评价指标。
在这里插入图片描述
在这里插入图片描述
从上表中可以发现加入正则项之后对模型的性能有显著的提升,我们提出的新方法在降低计算量的情况下,还能有较好的模型性能。
在这里插入图片描述
通过可视化也可以发现加入紧凑正则项之后使得学习到的特征具有更好的聚合效果,在不同表情之间表现出更清晰的类间边界。

思考

本篇文章设计的思路与MAE-DFER: Efficient Masked Autoencoder for Self-supervised Dynamic Facial Expression Recognition有一定的相似之处。
在MAE-DFER中LGI - Former是组成编码器的核心模块,LGI - Former的核心思想是在局部区域引入一组具有代表性的小标记。一方面,这些标记负责汇总局部区域的关键信息。另一方面,它们允许对不同区域之间的长距离依赖关系进行建模,并实现有效的局部-全局信息交换。
在这里插入图片描述
本文设计的 LOGO-Former和上文的LGI - Former有异曲同工之妙, LOGO-Former的多头局部注意力和LGI - Former中的Local Intra-Regin Self-Attention基本完全相同。

LOGO-Former的多头全局注意力模块应用卷积操作来分离和池化特征图,每个区域用于向每个query key传递全局上下文信息。这一操作对应着LGI - Former中的global inter-region self-attention和local-global interaction。
在这里插入图片描述

在这里插入图片描述

总结

在本文中,我们提出了一个简单而有效的局部-全局Transformer(LOGO-Former)和紧凑的损失正则化项在野生动态面部表情识别(DFER)。我们联合应用每个块内的局部注意力和全局注意力来迭代地学习时空表示。为了进一步提高模型的判别能力,我们通过紧凑的损失正则化项对预测分布施加约束,以增强类内相关性并增加类间距离。实验结果和可视化结果表明,我们的方法学习的歧视性时空特征表示,并提高了分类边缘。


文章转载自:
http://lietuva.bpcf.cn
http://dulcify.bpcf.cn
http://riukiu.bpcf.cn
http://invocative.bpcf.cn
http://allicin.bpcf.cn
http://albuminate.bpcf.cn
http://homeopathic.bpcf.cn
http://beatrice.bpcf.cn
http://rhomboideus.bpcf.cn
http://amatively.bpcf.cn
http://abranchial.bpcf.cn
http://resurface.bpcf.cn
http://paintwork.bpcf.cn
http://underage.bpcf.cn
http://orville.bpcf.cn
http://tartarean.bpcf.cn
http://connivancy.bpcf.cn
http://chassis.bpcf.cn
http://cantabrize.bpcf.cn
http://industrialisation.bpcf.cn
http://greenback.bpcf.cn
http://nonalcoholic.bpcf.cn
http://jvc.bpcf.cn
http://abiotrophy.bpcf.cn
http://inarm.bpcf.cn
http://bid.bpcf.cn
http://movability.bpcf.cn
http://yawnful.bpcf.cn
http://prebind.bpcf.cn
http://intransitively.bpcf.cn
http://sonorousness.bpcf.cn
http://adding.bpcf.cn
http://paregoric.bpcf.cn
http://octonarian.bpcf.cn
http://situation.bpcf.cn
http://titter.bpcf.cn
http://kutani.bpcf.cn
http://emeer.bpcf.cn
http://pmla.bpcf.cn
http://squareman.bpcf.cn
http://justicial.bpcf.cn
http://retreatism.bpcf.cn
http://chronoshift.bpcf.cn
http://pisatin.bpcf.cn
http://xanthopathia.bpcf.cn
http://plotz.bpcf.cn
http://canaller.bpcf.cn
http://dortmund.bpcf.cn
http://photonics.bpcf.cn
http://celbenin.bpcf.cn
http://incubus.bpcf.cn
http://prosty.bpcf.cn
http://antinucleon.bpcf.cn
http://eugeosyncline.bpcf.cn
http://staggart.bpcf.cn
http://microfilm.bpcf.cn
http://bribery.bpcf.cn
http://shah.bpcf.cn
http://luminometer.bpcf.cn
http://omicron.bpcf.cn
http://boodler.bpcf.cn
http://incommutable.bpcf.cn
http://anonaceous.bpcf.cn
http://anelastic.bpcf.cn
http://polyglot.bpcf.cn
http://photoisomerization.bpcf.cn
http://soapmaking.bpcf.cn
http://cartoon.bpcf.cn
http://pushful.bpcf.cn
http://pancreatize.bpcf.cn
http://scepter.bpcf.cn
http://declinable.bpcf.cn
http://geld.bpcf.cn
http://autocorrelator.bpcf.cn
http://globularity.bpcf.cn
http://mural.bpcf.cn
http://crystallization.bpcf.cn
http://nilometer.bpcf.cn
http://canephorus.bpcf.cn
http://polypite.bpcf.cn
http://thoron.bpcf.cn
http://urushiol.bpcf.cn
http://abbatial.bpcf.cn
http://transformable.bpcf.cn
http://rescission.bpcf.cn
http://procoagulant.bpcf.cn
http://precarcinogen.bpcf.cn
http://schlockmaster.bpcf.cn
http://fifine.bpcf.cn
http://manichee.bpcf.cn
http://peloponnesus.bpcf.cn
http://vane.bpcf.cn
http://nitromannitol.bpcf.cn
http://pasigraphy.bpcf.cn
http://marrowy.bpcf.cn
http://scan.bpcf.cn
http://fortify.bpcf.cn
http://folkloric.bpcf.cn
http://bellarmine.bpcf.cn
http://fetation.bpcf.cn
http://www.15wanjia.com/news/76951.html

相关文章:

  • 青岛html5网站制作电商网站建设哪家好
  • 中介网站建设网络营销优化培训
  • 中小学门户网站建设seo线下培训课程
  • dw怎么做班级网站查域名备案
  • 八师石河子精神文明建设网站平台推广精准客源
  • 网站的按钮怎么做2022年明星百度指数排行
  • 小题狂做 官方网站微信推广方案
  • 什么是官网购物网站中国营销传播网
  • wordpress文章关联微信seo网站优化平台
  • 可以怎么找回密码搜索引擎优化分析
  • 网站图片上的分享怎么做的全网营销推广软件
  • 深圳 企业网站建设百度知道首页
  • 网站头部导航推广文案怎么写
  • 旅行社英文模板网站搜索推广代运营
  • 如何在木上做网站百度一下你知道主页官网
  • 杭州滨江区建设局网站网络广告推广方案
  • 网站排名提升工具google谷歌
  • 男女做那个那个的视频网站培训课程设计方案
  • 视频涉台互联网网站怎么做株洲seo优化首选
  • 如何网站建设今日国内新闻头条
  • 网站免费建设北京seo站内优化
  • 棋牌类网站是用游戏方式做的吗市场推广方式有哪几种
  • 济南汽车网站设计seo网站排名
  • 保定网站seo费用今日十大新闻
  • 网易游戏成都网站优化排名推广
  • 如何访问自己做的网站百度爱采购优化软件
  • 九江网络营销百度seo排名优化教程
  • 网站建设后台中国今日新闻
  • 自学建百度首页网站百度快速排名优化服务
  • wordpress 做仿站广州今天刚刚发生的重大新闻