TypechoJoeTheme

鱼一的博客 ◡̈

yuyi

知不可乎骤得,托遗响于悲风
网站页面
标签搜索

科研流水账17

阅读了论文 Rotate to Attend: Convolutional Triplet Attention Module

改论文提出了一种三重注意力模块,主要通过三个分支实现。第一个分支通过 channel 的维度C和宽度W计算注意力权重。第二个分支通过 channel的维度和高度H计算注意力权重。最后一个分支主要依赖空间维度的W和H。前两个分支应用旋转操作在channel维度和H或W间建立链接。

运行triplet-attention 代码,然后将 tirplet-attention 加在骨干网络出来的特征图后面。

问题分析

  • triplet-attention 代码的数据集处理脚本是在 Ubuntu 上运行的,修改部分 shell 代码,使其可以在 windows 的git bash 上运行。
  • 代码没有将张量放到 cuda 上运行,修改错误代码。
  • 代码没有声明使用 TripletAttention,修改代码。

下一步计划

已经在服务器运行了修改后的代码,先看看效果叭。

赞(0)
版权属于:

鱼一的博客 ◡̈

本文链接:

https://yuyi.monster/archives/32/(转载时请注明本文出处及文章链接)

评论 (0)

More Info for me 📱

IP信息

人生倒计时

今日已经过去小时
这周已经过去
本月已经过去
今年已经过去个月