博客
关于我
CVPR2021| TimeSformer-视频理解的时空注意模型
阅读量:592 次
发布时间:2019-03-10

本文共 1393 字,大约阅读时间需要 4 分钟。

Transformer在视频理解中的应用与Divided Space-Time Attention

前言

Transformer在视频理解领域的应用主要采用三种典型方式:Joint Space-Time Attention、Sparse Local Global Attention 和Axial Attention。这些方法的共同点在于,它们都基于ViT模型中的分块方式处理图像,但在self attention的应用上各有不同。

近期,我们提出了一种新的处理方式——Divided Space-Time Attention。在大规模行为分类数据集上对比了上述几种方法与Divided Space-Time Attention,发现后者在处理这些块时表现最佳。

此外,TimeSformer在多个主流行为识别基准测试中实现了State-of-the-Art(SOTA)结果,如Kinetics-400和Kinetics-600等。此外,TimeSformer具有更快的训练速度和更高的测试效率。

论文思路

视频理解与语言处理(NLP)有许多相似之处。首先,视频和语句都具有序列性,且一个片段需要与整个上下文相关联。因此,我们期待NLP中的长程自注意力模型在视频模型中也能取得良好表现。

视频领域的传统方法主要是2D或3D卷积来提取时空特征。然而,卷积操作的一个显著问题是感受野有限,若要获得全局感受野,需要堆叠多层卷积层,信息传播路径较长。而自注意力机制可以轻松实现全局感受野,捕获局部和长程依赖关系。

此外,卷积操作受内存限制,尤其是在高分辨率和长帧之间权衡。近年来,研究表明Transformer相比CNN具有更快的训练和推理速度,在相同计算预算下可以使用更大模型容量。

标准自注意力机制需要计算所有token之间的相似性,计算量较大。因此,我们需要探索如何利用自注意力处理图像块。论文比较了几种处理方式,提出Divided Space-Time Attention是最优选择。

某些细节

这几种方式的通用部分是将视频帧分成大小为P×P的块,每帧可以分成N=H×W/(P×P)块。它们的区别在于如何选择块进行自注意力处理。

  • Space Attention:将同一帧的所有块一起进行自注意力处理,忽略了不同帧之间的时序信息。

  • Joint Space-Time Attention:将所有图像块进行自注意力处理,计算量过大。

  • Sparse Local Global Attention:分两步处理,先提取局部信息,再按步长提取全局信息,具有一定稀疏性,计算量减少。

  • Axial Attention:分三步处理,先处理不同帧同位置的块进行时间注意力,再分别按横向和纵向进行空间注意力。

  • 我们提出Divided Space-Time Attention分为两步:先对不同帧同位置的块进行时间注意力,再将同一帧中所有块进行空间注意力。

    下图展示了具体示意图。

    实验结论

    对比这几种方式的参数量和准确度,发现Divided Space-Time Attention表现最佳。

    论文来源

    本文来源于公众号CV技术指南的论文分享系列,更多内容请关注公众号。

    最近将公众号所有技术总结打包成PDF,在公众号中回复关键字“技术总结”可获取。


    如需进一步了解,可以访问相关链接或关注公众号获取更多信息。

    转载地址:http://yazvz.baihongyu.com/

    你可能感兴趣的文章
    Pandas进阶大神!从0到100你只差这篇文章!
    查看>>
    spring5-介绍Spring框架
    查看>>
    pandas,python - 如何在时间序列中选择特定时间
    查看>>
    Spring 框架之 AOP 原理深度剖析
    查看>>
    Pandas:如何按列元素的组合分组,以指示基于不同列的值的同现?
    查看>>
    Pandas:将一列与数据帧的所有其他列进行比较
    查看>>
    PANDA:基于多列对数据表的行运行计算,并将输出存储在新列中
    查看>>
    PandoraFMS 监控软件 SQL注入漏洞复现
    查看>>
    PandoraFMS 监控软件 任意文件上传漏洞复现
    查看>>
    PanTools多网盘登录神器
    查看>>
    Papyrus项目常见问题解决方案
    查看>>
    Parallel.ForEach使用示例
    查看>>
    Parallel.ForEach的基础使用
    查看>>
    parallels desktop for mac安装虚拟机 之parallelsdesktop密钥 以及 parallels desktop安装win10的办公推荐可以提高办公效率...
    查看>>
    parallelStream导致LinkedList遍历时空指针的问题
    查看>>
    Parameter ‘password‘ not found. Available parameters are [md5String, param1, username, param2]
    查看>>
    ParameterizedThreadStart task
    查看>>
    Paramiko exec_命令的实时输出
    查看>>
    Spring security之管理session
    查看>>
    paramiko模块
    查看>>