青岛科技大学  English 
赵文仓
赞  

教师拼音名称:zhaowencang

手机版

访问量:

最后更新时间:..

基于预过滤注意力的Transformer物体检测

关键字:目标检测;Transformer;位置编码;注意力机制

摘要:近几年提出的基于Transformer的目标检测器简化了模型结构,展现出具有竞争力的性能。然而,由于Transformer注意力模块处理特征图的方式,大部分模型存在收敛速度慢和小物体检测效果差的问题。为了解决这些问题,本研究提出了基于预过滤注意力模块的Transformer检测模型,该模块以目标点为参照,提取目标点附近部分特征点进行交互,节省训练时长并提高检测精度。同时在该模块中融入新提出的一种有向相对位置编码,弥补因模块权重计算导致的相对位置信息缺失,提供精确的位置信息,更有利于模型对小物体的检测。在COCO 2017数据集上的实验表明我们的模型可以将训练时长缩短近10倍,并获得更好的性能,特别是在小物体检测上精度达到了26.8 APs。

卷号:v.45;No.404

期号:24

是否译文:

崂山校区 - 山东省青岛市松岭路99号   
四方校区 - 山东省青岛市郑州路53号   
中德国际合作区(中德校区) - 山东省青岛市西海岸新区团结路3698号
高密校区 - 山东省高密市杏坛西街1号   
济南校区 - 山东省济南市文化东路80号©2015 青岛科技大学    
管理员邮箱:master@qust.edu.cn