Publication Cover
Canadian Journal of Remote Sensing
Journal canadien de télédétection
Volume 48, 2022 - Issue 6
173
Views
0
CrossRef citations to date
0
Altmetric
Research Articles

Ship Detection in SAR Images via Cross-Attention Mechanism

Détection de navires dans des images RSO via le mécanisme de l’attention croisée

&
Pages 764-778 | Received 27 Feb 2022, Accepted 01 Aug 2022, Published online: 14 Sep 2022
 

Abstract

Deep learning has been widely applied to ship detection in Synthetic Aperture Radar (SAR) images. Unlike optical images, the current object detection methods have the problem of weak feature representation due to the low object resolution in SAR images. In addition, disturbed by chaotic noise, the features of classification and location are prone to significant differences, resulting in classification and location task misalignment. Therefore, this paper proposes a novel SAR ship target detection algorithm based on Cross-Attention Mechanism (CAM), which can establish the information interaction between the classification and localization task and strengthen the correlation between features through attention. In addition, to suppress the noise in multi-scale feature fusion, we designed an Attention-based Feature Fusion Module (AFFM), which uses the attention information between channels to perform the re-weighting operation. This operation can enhance useful feature information and suppress noise information. Experimental results show that on a benchmark SAR Ship Detection Dataset (SSDD), the Fully Convolutional One-Stage Object Detector (FCOS) with ResNet-50 backbone network was optimized to improve AP by 6.5% and computational cost by 0.51%. RetinaNet with ResNet-50 backbone network was optimized to improve AP by 1.8% and computational cost by 0.51%.

RÉSUMÉ

L’apprentissage en profondeur a été largement appliqué à la détection des navires par Radar à synthèse d’ouverture (RSO). Contrairement aux images optiques, les méthodes actuelles de détection d’objets posent le problème de la faible représentation des caractéristiques en raison de la faible résolution des objets dans les images RSO. En outre, perturbées par un bruit chaotique, les caractéristiques de la classe et de l’emplacement de l’objet sont sujettes à des différences significatives, ce qui entraîne un mauvais alignement des tâches de classification et de localisation. Par conséquent, cet article propose un nouvel algorithme de détection de cibles basé sur le mécanisme de l’attention croisée (CAM), qui peut établir l’interaction d’information entre la tâche de la classification et de la localisation et renforcer la corrélation entre les caractéristiques par l’attention. En outre, pour supprimer le bruit dans la fusion multi-échelle, nous avons conçu un « Attention-based Feature Fusion Module » (AFFM), qui utilise l’information d’attention entre les canaux pour effectuer l’opération de repondération. Cette opération peut améliorer les informations utiles sur les propriétés des objets et supprimer les informations sur le bruit. Les résultats expérimentaux sur un ensemble de données RSO pour la détection de navires (SSDD), montrent que le « Fully Convolutional One-Stage Object Detector » (FCOS) du réseau ResNet-50 a été optimisé pour améliorer l’AP de 6,5% et le coût de calcul de 0,51%. RetinaNet du réseau ResNet-50 a été optimisé pour améliorer l’AP de 1,8% et le coût de calcul de 0,51%.

Reprints and Corporate Permissions

Please note: Selecting permissions does not provide access to the full text of the article, please see our help page How do I view content?

To request a reprint or corporate permissions for this article, please click on the relevant link below:

Academic Permissions

Please note: Selecting permissions does not provide access to the full text of the article, please see our help page How do I view content?

Obtain permissions instantly via Rightslink by clicking on the button below:

If you are unable to obtain permissions via Rightslink, please complete and submit this Permissions form. For more information, please visit our Permissions help page.