关键字:目标检测;Transformer;位置编码;注意力机制
摘要:近几年提出的基于Transformer的目标检测器简化了模型结构,展现出具有竞争力的性能。然而,由于Transformer注意力模块处理特征图的方式,大部分模型存在收敛速度慢和小物体检测效果差的问题。为了解决这些问题,本研究提出了基于预过滤注意力模块的Transformer检测模型,该模块以目标点为参照,提取目标点附近部分特征点进行交互,节省训练时长并提高检测精度。同时在该模块中融入新提出的一种有向相对位置编码,弥补因模块权重计算导致的相对位置信息缺失,提供精确的位置信息,更有利于模型对小物体的检测。在COCO 2017数据集上的实验表明我们的模型可以将训练时长缩短近10倍,并获得更好的性能,特别是在小物体检测上精度达到了26.8 APs。
卷号:v.45;No.404
期号:24
是否译文:否