yuyi
知不可乎骤得,托遗响于悲风
阅读了论文 Rotate to Attend: Convolutional Triplet Attention Module
改论文提出了一种三重注意力模块,主要通过三个分支实现。第一个分支通过 channel 的维度C和宽度W计算注意力权重。第二个分支通过 channel的维度和高度H计算注意力权重。最后一个分支主要依赖空间维度的W和H。前两个分支应用旋转操作在channel维度和H或W间建立链接。
运行triplet-attention 代码,然后将 tirplet-attention 加在骨干网络出来的特征图后面。
已经在服务器运行了修改后的代码,先看看效果叭。