欢迎访问一起赢论文辅导网
本站动态
联系我们

手机:15327302358
邮箱:peter.lyz@163.com

Q Q:
910330594  
微信paperwinner
工作时间:9:00-24:00

SCI期刊论文
当前位置:首页 > SCI期刊论文
特征图知识蒸馏引导的轻量化任意方向SAR 舰船目标检测器
来源:一起赢论文网     日期:2022-08-03     浏览数:40     【 字体:

 雷达学报Journal of RadarsISSN 2095-283X,CN 10-1030/TN《雷达学报》网络首发论文题目: 特征图知识蒸馏引导的轻量化任意方向SAR 舰船目标检测器作者: 陈诗琪,王威,占荣辉,张军,刘盛启收稿日期: 2021-12-25网络首发日期: 2022-02-15引用格式: 陈诗琪,王威,占荣辉,张军,刘盛启.特征图知识蒸馏引导的轻量化任意方向SAR 舰船目标检测器[J/OL].雷达学报.https://kns.cnki.net/kcms/detail/10.1030.TN.20220214.1529.002.html网络首发:在编辑部工作流程中,稿件从录用到出版要经历录用定稿、排版定稿、整期汇编定稿等阶段。录用定稿指内容已经确定,且通过同行评议、主编终审同意刊用的稿件。排版定稿指录用定稿按照期刊特定版式(包括网络呈现版式)排版后的稿件,可暂不确定出版年、卷、期和页码。整期汇编定稿指出版年、卷、期、页码均已确定的印刷或数字出版的整期汇编稿件。录用定稿网络首发稿件内容必须符合《出版管理条例》和《期刊出版管理规定》的有关规定;学术研究成果具有创新性、科学性和先进性,符合编辑部对刊文的录用要求,不存在学术不端行为及其他侵权行为;稿件内容应基本符合国家有关书刊编辑、出版的技术标准,正确使用和统一规范语言文字、符号、数字、外文字母、法定计量单位及地图标注等。为确保录用定稿网络首发的严肃性,录用定稿一经发布,不得修改论文题目、作者、机构名称和学术内容,只可基于编辑规范进行少量文字的修改。出版确认:纸质期刊编辑部通过与《中国学术期刊(光盘版)》电子杂志社有限公司签约,在《中国学术期刊(网络版)》出版传播平台上创办与纸质期刊内容一致的网络版,以单篇或整期出版形式,在印刷出版之前刊发论文的录用定稿、排版定稿、整期汇编定稿。因为《中国学术期刊(网络版)》是国家新闻出版广电总局批准的网络连续型出版物(ISSN 2096-4188CN 11-6037/Z),所以签约期刊的网络版上网络首发论文视为正式出版。特征图知识蒸馏引导的轻量化任意方向SAR 舰船目标检测器陈诗琪 王威* 占荣辉* 张军 刘盛启(国防科技大学自动目标识别重点实验室 长沙 410073)摘 要:基于有向边界框的合成孔径雷达(Synthetic Aperture Radar, SAR)舰船目标检测器能输出精准的边界框,但仍存在模型计算复杂度高、推理速度慢、存储消耗大等问题,导致难以在星载平台上部署。基于此本文提出了结合特征图和检测头分支知识蒸馏的无锚框轻量化旋转检测方法。首先,结合目标的长宽比和方向角信息提出改进高斯核,使生成的热度图能更好地刻画目标形状。然后在检测器预测头部引入前景区域增强分支,使网络更关注前景特征且抑制背景杂波的干扰。在训练轻量化网络时,将像素点间的相似度构建为热度图蒸馏知识。为解决特征蒸馏中正负样本不平衡问题,将前景注意力区域作为掩膜引导网络蒸馏与目标相关的特征。另外,本文提出全局语义模块对像素进行上下文信息建模,能够结合背景知识加强目标精确表征。基于HRSID 数据集的实验结果表明所提方法在模型参数仅有9.07M 的轻量化条件下,mAP 能达到80.71%,且检测帧率满足实时应用需求。关键词:合成孔径雷达目标检测;轻量化旋转框检测;改进高斯核;前景区域增强;知识蒸馏中图分类号:TN959.72DOI: 10.12000/JR21209引用格式:陈诗琪, 王威, 占荣辉, . 特征图知识蒸馏引导的轻量化任意方向SAR 舰船目标检测器[J]. 雷达学报, 待出版.doi: 10.12000/JR21209.Reference format: CHEN Shiqi, WANG Wei, ZHAN Ronghui, et al. A Lightweight Arbitrary-oriented SAR ShipDetector via Feature map based Knowledge Distillation [J]. Journal of Radars, in press. doi: 10.12000/JR21209.A Lightweight Arbitrary-oriented SAR Ship Detectorvia Feature map based Knowledge DistillationCHEN Shiqi WANG Wei* ZHAN Ronghui* ZHANG Jun LIU Shengqi(National Key Laboratory of Science and Technology on Automatic Target Recognition, NationalUniversity of Defense Technology, Changsha, 410073, China)Abstract: In the synthetic aperture radar (SAR) ship target detection task, the targets have the characteristicsof large aspect ratio, densely distributed and arranged in arbitrary directions. The oriented bounding boxbased detection methods can output accurate detection results. However, these methods are stronglyrestricted by high computational complexity, slow inference speed and large storage consumption, whichmakes it difficult to be deployed on space-borne platforms. To solve the above issues, a lightweight orientedanchor-free based detection methods is proposed by combine feature map and prediction head knowledgedistillation. First, we propose an improved Gaussian kernel based on the aspect ratio and angle information,so that the generated heatmaps can better describe the shape of targets. Then, the foreground regionenhancement branch is introduced to make the network focus more on foreground features while suppressthe background interference. When training the lightweight student network, the similarity between pixels istreated as transferred knowledge in heatmap distillation. To tackle the imbalance between positive and收稿日期:2021-12-25;*通信作者:王威 wangwei_nudt@hotmail.com 占荣辉 zhanrh@nudt.edu.cn*Corresponding Author: WANG Wei, wangwei_nudt@hotmail.com; zhanrh@nudt.edu.cn基金项目:国家自然科学基金(61901500),湖南省科技创新计划(2020RC2044),中国博士后科学基金(2020TQ0082)Foundation Item: The National Nature Science Foundation of China (61901500), The Science and Technology InnovationProgram of Hunan Province (2020RC2044), China Postdoctoral Science Foundation (2020TQ0082)责任主编:孙显 Conspronding Editor: SUN Xian网络首发时间:2022-02-15 10:22:04网络首发地址:https://kns.cnki.net/kcms/detail/10.1030.TN.20220214.1529.002.htmlnegative samples in feature distillation, the foreground attention region is applied as mask to guide thefeature distillation process. In addition, a global semantic module is proposed to model the contextualinformation around pixels, and the background knowledge is combined to further strengthen the featurerepresentation. Experimental results based on HRSID show that our method can achieve 80.71% mAP withonly 9.07M model parameters, and the detection frame rate meets the needs of real-time applications.Key words: SAR ship detection; lightweight oriented detection; improved Gaussian kernel; strengthenedforeground region; knowledge distillation1 引言合成孔径雷达(Synthetic Aperture Radar, SAR)作为一种主动式微波成像传感器,以其全天时、全天候、作用距离远的技术优势,成为对地观测的主要手段之一,广泛应用于军事侦察和民用遥感领域[1][2]。近年来,随着SAR 系统技术和成像算法的日趋成熟,国内外多个先进的SAR 卫星获取了海量广域高分辨率和高质量的SAR 图像。SAR 图像舰船目标检测可实现宽阔海域和港口中目标的快速提取定位,能为海洋交通、渔业管理、战场态势评估和军事目标侦察提供重要信息支撑。传统的SAR图像目标检测通常包含恒虚警率(CFAR)方法[3]和模板匹配方法[4]。前者需要构建杂波统计模型来确定检测阈值,参数估计和计算求解复杂耗时;而后者需要建立全面的模板库,且常常依赖于专家经验,泛化性能较差。近年来,深度学习凭借其强大的表征能力和特征学习能力在目标分类、检测、分割等各类任务中显现出巨大的优势,并且在SAR 目标检测方面也取得了良好效果。基于深度学习的目标检测方法无需海陆分割,能适应于不同复杂程度的场景,具有高精度和高效性等优点。文献[5]通过改进FasterRCNN[6]对舰船目标进行检测,结合了特征融合、迁移学习、难例样本挖掘等策略在SSDD 数据集上取得了79%的检测精度。文献[7]将单阶段检测器SSD[8]用于SAR 舰船检测,提出轻量化特征优化网络,通过双向语义信息聚合与注意力机制改善了多尺度目标的检测性能。文献[9]YOLOv3 网络[10]的基础上,采用深度可分离卷积网络重新搭建轻量级网络SARShipNet-20,结合了通道、空间注意力机制,能在提高检测速度的同时达到较高的检测精度。Gao 等人[11]提出的SAR 舰船目标检测器针对YOLOv4 在特征融合结构、解耦分类和回归分支以及轻量化检测头部进行改进,所提网络比原始网络轻量化了约33.3%,参数量为42.6MZhu 等人[12]基于YOLOv5 检测器提出了高速高精度的检测器H2Det,仅有14.4M 的参数量。文献[13]在无锚框检测器FCOS[14]的基础上设计特征平衡和优化网络,并结合注意力机制引导金字塔网络不同层级特征的提取。文献[15]提出了由海陆分割、分块区域筛选和改进的FCOS 三部分构成的大场景目标检测框架。该方法引入特征优化模块,且针对漏检和虚警问题优化了位置回归分支的特征表达,从而提升定位精度。文献[16]基于CenterNet[17]设计特征精修模块以提取多尺度上下文信息并改进了特征金字塔融合方式,同时为解决正负样本不平衡问题对检测头部进行增强。上述方法大多基于锚框遍历机制,需要手工预设锚框尺寸、比例等属性来初始定位目标,特征图上产生的密集候选框不仅计算资源消耗大,且仅有少量候选区域能匹配目标的高质量锚框,由此会带来严重的正负样本不平衡问题。此外,大多表征能力强的检测骨干网络体积庞大,网络参数较多,一定程度能提升检测精度但会导致检测速度降低。此外,当前大多SAR舰船检测方法用最小外接水平框定位目标,忽略了角度信息。当目标的长宽比较大时,检测框会包含大量背景杂波区域且不能反映舰船分布的方向信息。当多个目标紧密排列时,检测框之间的交并比增大,在非极大值抑制NMS(Non-Maximum Suppression)阶段容易被滤除从而产生漏检。为提升近岸舰船目标的检测性能,基于有向框标记的舰船检测方法受到了广泛关注。文献[18]第一次将旋转角度加入目标真值框实现了基于SSDSAR目标方位角预测,该方法通过结合线上难例挖掘、焦点损失等方法解决了正负样本不平衡问题。文献[19]RetinaNet框架[20]上提出尺度标定方法来对齐特征图输出尺度和目标尺度,并通过基于任务的注意力金字塔网络解耦分类和回归任务的优化过程。文献[21]基于Yolov3框架提出任意方向目标检测模型,通过设计多任务损失函数和方位角偏差校正能同时输出垂直框和旋转框。Fu等人[22]采用gliding vertex[23]中的旋转框表示法,设计了动态特征提取模块来增强目标的语义和空间信息,并根据SAR成像特性定义属性散射中心点来引导特征自适应学习。上述旋转目标检测方法大多由基于锚框的方法改进而来,需要设置不同角度参数的锚框以匹配旋转候选区域,在复杂场景下难以正确匹配真实框。其次,这类方法会引入大量依赖数据集而定的参数,增加网络的计算量和复杂度。再者,SAR 图像中舰船目标既稀疏分布于空旷海域中,部分也密集分布于近岸区域。尤其在大场景图像中大部分是背景区域,若采用基于锚框的方法会引入大量的重复计算,导致正负样本分配严重失衡。最后,在实时性要求高的舰船检测部署应用中,不仅要考虑高检测精度还需要轻量化的网络模型和较好的实时性。在计算能力及存储能力受限的移动设备上部署神经网络模型更需要设计轻量化的骨干网络和检测头。但现有的轻量化网络[9][11][12]均根据现有的检测器改进或者直接设计轻量化网络,对骨干网络的选取依赖较大。本文先学习表现好的教师网络,再通过模型压缩得到学生网络,最后通过蒸馏结构进一步优化学生网络模型。针对上述问题,为减少计算资源并提升检测方法的实用性,本文提出一种基于知识蒸馏的轻量化SAR 任意方向舰船目标检测器。该检测网络能直接预测出目标的中心点位置,长宽以及方向角信息。检测架构由骨干网络特征提取模块和多分支预测模块构成。前者输出像素级的概率图,其中每个位置的值表明该像素属于目标区域的概率,后者通过回归目标的定位参数并解码获取最终的检测结果。最后,在轻量化的学生网络上提出基于像素点相似度的改进热度图蒸馏和前景注意力区域引导的特征蒸馏。为弥补前景引导时上下文信息的缺失,提出全局语义模块将像素间的关系建模为蒸馏对象。将来自教师模型的各层次暗知识传递到学生模型以提升检测精度,最终得到轻量化、实时性强且定位精度高的SAR 舰船检测网络模型。2 检测器整体框架本文提出的轻量化检测器主要由三部分构成:特征提取骨干网络、多分支检测头网络以及蒸馏模块。首先构建基准教师网络检测结构,其基础框架如图1 所示:给定输入图像,采用编解码骨干网络输出四倍下采样高分辨率特征图,同时将其作为前景注意力引导模块的输入使得网络更加关注前景区域的特征。然后以中心点作为关键点代替锚框进行热度图分类和边界框回归,对输出的偏置值、边框位置参数以及角度参数进行解码可得旋转框检测结果。最后,为轻量化网络的同时保持检测精度,设计知识蒸馏模块完成从教师网络到学生网络的模型知识迁移。图1 基于关键点的旋转框检测器整体框架Fig. 1 Overall framework of keypoint-based oriented detector2.1 骨干网络基于CenterNet 的检测器通常需要获取高分辨率的热度图,而常用的网络结构如VGGNetResNet等获取的最后一层特征图分辨率较低,导致小目标信息损失严重。U-Net Hourglass 采用高到低和低到高层特征图双向融合的方式以递归式结构得到高分辨率特征图,网络复杂且效率较低。本文选取高分辨率网络(High-Resolution Network, HRNet[24]作为特征提取骨干网络获得具有丰富细粒度信息的特征。如图2 所示,HRNet 能从输入到输出始终保持高分辨率特征图,对于密集排列或者有轻微遮挡和重叠的目标也能有效提取其关键点信息。图2 HRNet 骨干网络结构图Fig. 2 Structure of HRNet backbone networkHRNet 中大量残差模块会带来庞大的参数量,本文选取深度可分离卷积和1*1 卷积的结合代替常规卷积,由此轻量化网络中的残差模块。为达到模型参数量和性能的平衡,在残差模块中保留一层常规卷积,另一层用轻量化卷积模块代替,能减少大约一半的模型参数。得益于高分辨率网络反复融合多尺度特征的特性,特征图没有因为连续下采样而损失大量细节信息,一定程度保留了SAR 图像中小舰船目标的信息。为增强网络对多尺度目标的特征提取能力,对HRNet 输出的四个阶段的特征图进行自底向上的特征融合操作,取四倍下采样的顶层特征图作为检测头部的输入特征。为使检测头轻量化,用5*5 深度可分离卷积替换原始3*3 卷积核,在不损失速度的同时增大卷积核的感受野,从而能覆盖更多不同尺度的舰船目标。除了宽高预测分支使用两个3*3 的卷积之外,其余分支均使用一个3*3 卷积加上1*1 卷积。2.2 二维高斯分布表示法常用基于关键点的检测方法在定义正负样本位置时没有充分考虑目标的形状大小和方向,难以适应SAR 舰船目标角度和长宽比的多样性。本部分提出结合长宽和方向角信息的旋转高斯分布函数来产生样本的真值热度图,更好地刻画舰船分布的长宽比和方向角。对于SAR 舰船单类目标检测器而言,输入宽和高为W H 的特征图,其输出通道数为1,因此热度图尺度为W ´H ´1。在原始圆形高斯热度图上进行改进,用旋转的椭圆高斯区域表示目标的正样本区域。定义中心点热度图的真值为1[0,1]W Hr rp G´ ´Î ,产生热度图的高斯核为:1exp( ( ) ( ) )2 xyTp G = - X -m C X -m (1)其中221212x x yx y ykCks s ss s sé ùê - ú= ê úê úê- úêë úû(2)X =(x, y)表示目标在特征图中所处位置, =( , ) x y m c c 对应于四倍下采样的真值框坐标。2max2mincos sin,sin cossRsa aa aé - ù é ù= ê ú L = ê úë û ë û分别表示由目标真值框角度确定的旋转矩阵,以及由目标旋转框宽高确定的对角矩阵。, x y s s 表示由目标长宽确定的标准差值,k 表示确定旋转高斯核方向的指数,其与目标边框尺寸的具体关系如下式表示:2 2max min2 2max min2 2 2 2max min2 2 2 2max min2( )1cos sin1sin cosxys sks ss ss sa aa ass- -=+=+=+(3)2.3 结合前景注意力机制的检测头由于SAR 图像中近岸区域场景复杂,大多靠岸舰船目标与码头、岛礁、岸上建筑物等背景有相似散射特征,难以被准确区分。为使模型更加关注于前景信息,本部分提出前景注意力引导模块学习图像的前景区域特征,在凸显目标区域的同时抑制杂波背景的影响,结构如图1 中橙色框所示。前景注意力生成模块由一个3´3普通卷积层、一个3´3空洞卷积和和两个1´1的卷积层构成。旋转框检测框架中检测头包括中心点热度图、偏置值、旋转框参数和前景注意力预测图四个分支。由于中心点热度图和偏置值预测负责精确定位目标中心点,而旋转框参数预测部分更关注于目标的形状,这里仅在旋转框参数预测时使用前景注意力增强后的特征。受语义分割任务中像素级分类方法的启发,可由目标的实例级标注信息获取前景区域的标注,即所有在边框内的像素值定义为1,超出边框边界的像素值为0。考虑到目标周围区域包含的边缘信息对精确定位和回归有益,将目标周围一定范围内的区域作为过渡区域。根据经验值,本文选定超出真值框四分之一大小的边框为中间区域,在制作前景分割图标签时,将中间区域的像素值设置为0.5。将目标的分割图作为监督信息可训练该注意力模块。经过前景注意力增强的特征图包含了目标的长宽信息,能为前景目标的尺度预测提供有效指引。给定骨干网络最后阶段的输出特征图F ,定义得到的前景注意力特征图为M(F)。该特征图有两方面作用:一是产生注意力掩膜图,在训练前景注意力分支时将上述前景区域的像素级标注作为监督信息;另一方面可用于增强骨干网络的原始输出特征图。增强后作为目标形状预测分支的输出特征图可表示为:exp( ( ))) ( ) wh F =(F M F ÅM F (4)表示逐元素相乘,exp 表示指数操作,Å 表示特征拼接操作。指数操作一定程度避免了特征图中有利于预测目标尺度的信息丢失。2.4 预测模块2.4.1 中心点和偏置值回归在训练热度图时选取高斯分布的峰值为正样本,其余点为负样本。由于高斯分布中心附近的点也有一定的预测概率,为高斯核内的其他点赋予由距离中心远近所度量的权重。为解决正负样本严重不平衡问题,训练高斯热度图分支时采用改进的焦点损失函数,即:1 (1 ) log( ) 1(1 ) log(1 ) 1xyxy xyxy xy phmxy p xy xy pp p gLN g p p gab aì - = ï= - í- - ¹ ïîå (5)其中 xy p 表示第xy 个像素点的热度图预测值,pxy g 为该像素点对应的真值,N 表示目标总数量。默认取值a =2, b =4。同训练中心点热度图一致,前景注意力分支也由上述损失函数训练得到。在网络推理阶段,将提取到的预测热度图的峰值点作为目标中心点。当输入SAR 图像中舰船目标位置为(x, y)时,骨干网络中输出特征图对应位置为(êëx / súû , êë y / súû)。由于特征提取网络中的下采样操作会带来量化误差,为弥补将热度图中的位置重映射到原图时的精度损失,构建预测特征图为W H 2 O ´ ´ Î 的偏置值分支。用平滑L1 函数优化偏置值可得损失值:111( ˆ )Noff L i iiL Smooth o oN == å - (6)其中 i o 和ˆi o 分别表示第i 个目标的偏置值预测值和对应真值。2.4.2 旋转框回归由于 SAR 图像中存在一定比例的近乎水平或者垂直分布的目标,本文考虑两种回归方式,将带有旋转角度的目标边框(OBB)定义为水平框(HBB)和旋转框(RBB)。当目标真值框呈现水平分布时候,回归宽和高即可得到边框位置。当目标真值框带有旋转角度时,可通过回归最小外接矩形框的宽高和目标中心点到四边的距离得到旋转框位置。引入旋转因子ˆq 来确定真值框回归时按水平或者旋转形式:1 (RBB), if IoU(OBB,RBB) < 0.95ˆ=0 (OBB),qìíî其余情况(7)IoU 表示旋转框和最小外接矩形框的交并比。基于上述旋转因子可构建旋转分支的输出特征图W´H´1 QÎ ,将训练旋转因子转换为分类任务,用二值交叉熵损失来优化旋转分支:11 ˆ ˆ ( log( ) (1 ) log(1 ))NiLN q q q q q== - å + - - (8)其中 ˆq 和q 分别表示目标真值旋转因子和预测的旋转因子。对目标进行旋转框表示时,用中心点到四条边构成的四个向量来描述旋转框。检测头部预测的边框参数为(t,r,b, l,w,h),构建由此组成的旋转框回归分支。同偏置值分支一致采用如下损失函数:111 ˆ ( )Nwh L i iiL Smooth B BN == å - (9)其中 i B 和ˆi B 分别表示目标边框的真实值和预测的目标边框参数。当ˆq 值为1 时,回归B 中旋转框表示法的十个参数; ˆq 值为0 时,仅回归B 中宽高两个参数。2.5 蒸馏结构虽然 HRNet 骨干网络通过信息交换和多尺度特征融合能得到表征能力极强的高分辨率特征图,但多阶段之间大量重复的融合操作和密集的层间特征融合会产生较高的计算复杂度,使得网络参数量庞大。本文对上述基于关键点的旋转检测框架进行知识蒸馏可得到轻量化检测器,具体蒸馏框架如图3 所示。骨干网络HRNet32 作为教师网络,HRNet16 作为学生网络进行蒸馏(32 表示高分辨率子网在最后三个阶段的宽度分别为9619238416 表示并行子网的宽度为64128256)。前者检测头部的卷积层输出通道数为32,后者为16。图3 蒸馏结构示意图Fig. 3 Schematic diagram of distillation structure2.5.1 蒸馏损失函数构建训练轻量级学生网络时,将目标真值作为硬标签,教师网络预测作为软标签,整体损失函数如下:det = ( , ) ( , ) hard softLtotal = L +lLKD LA As yA +lLA As At (10)其中 A 表示检测头部预测的中心点位置、偏置值、旋转框尺度、角度因子参数的集合,l 为蒸馏损失所占比例。在目标真值作为硬标签时,加入前景注意力引导模块的损失函数,在蒸馏时加入特征层次的损失函数。其中A y 表示目标的真值标注, t A s A 分别表示教师和学生网络的角度预测输出。det L 将真值作为硬标签计算损失来训练学生网络(同训练教师网络的相应分支), KD L 将教师网络的预测作为软标签,可表示如下:det hm _+hm off wh att att segsoft soft soft softKD fea fea hm hm off boxL L L L L LL L L L L Lqql la a= + + + += + + +(11)其中 , hm hm l a 表示常规训练和蒸馏训练中热度图损失所占比例, att l 和fea a 表示注意力分支损失和特征图蒸馏损失所占比例。det L 中各项损失同2.4 节中各预测模块的损失一致, KD L 由特征图蒸馏损失和检测结构预测头部的各部分蒸馏损失共同构成,下面将分别介绍改进的特征图和热度图蒸馏模块。2.5.2 特征图蒸馏由于 HRNet 最后阶段提取的特征已融合了各层级的特征,本文仅对末阶段特征图进行蒸馏。SAR图像中存在前景和背景样本严重不平衡现象,若对整个特征图进行蒸馏将引入大量噪声,导致学生网络难以学习到教师网络中对检测有益的特征。由于近岸SAR图像中背景与目标散射特性存在相似性,在特征蒸馏时需要既能考虑到与目标区域相关的有效特征,同时结合港口、岛礁、码头等背景特征来辅助舰船目标特征的蒸馏。因此本文提出前景注意力掩膜引导的上下文信息增强特征蒸馏策略。定义 t F s F 分别为教师和学生网络的特征图输出,当两者通道数不匹配时,加入通道自适应函数f 对齐通道数。为使蒸馏过程更加关注于前景区域的特征,将教师网络检测头分支产生的前景注意力特征图( )t M F 作为骨干网络特征蒸馏的监督信号。文献[25]中结合���Non-Local 模块捕捉目标的上下文信息,建模了图像中两个像素之间的关系。但由于其计算量大、难以即插即用,本文采用���GCblock[26]构建全局语义建模模块,使得蒸馏过程中不仅能学习舰船目标特征图中单个像素的知识,同时也能捕捉周围地物背景与目标像素的关联信息。该模块的内部结构可由公式(11)表示,由此改进的特征蒸馏损失可由公式(12)表示:2 1 1 11( ) (Re ( ( ( max( ( )) ))))Npm mmG F F Conv LU LN Conv Soft Conv F F ´== + å × (12)21 1 11( ( ))W H Ct sfea ijk ijk iji j kL g g MCHWf= = == ååå - × (13)其中LN 表示层归一化操作, p N 表示特征图m F 中的像素个数。2.5.3 热度图蒸馏在对检测头进行蒸馏时,将从中心点热度图、偏置值和尺度、旋转角因子三个方面设计蒸馏损失函数。中心点热度图的预测决定了目标定位的精确度,因此如何缩小教师和学生网络预测热度图的差异对学生网络的检测精度至关重要。由于热度图的预测实质是像素点分类问题,本文将不同空间位置的像素点作为节点,节点间的相似度作为边来构建邻接图结构。对于每个节点,只计算其与周围m 个节点的相似性。这种基于点对点相似度保持的蒸馏策略,能最大化保持教师和学生网络预测热度图中像素对的一致性。将图结构中点对点相似度蒸馏损失表示为:22( ), {1,2,..., }( )t sij ijsoft i j mhm L WHWHa aΠÎ-=  =åå(14)其中教师网络中像素点i j 之间的相似度为tij a ,学生网络中对应的相似度为sij a 。对于W *H *1大小的中心点热度图,用i f 表示第i 个空间位置上特征图的值,相似度可由下式计算:2 2Ti jiji jf ff fa =×(15)由于旋转角因子的确定可视为二分类问题,定义最小均方差蒸馏损失:211( )Nsofts tiLN q q q== å - (16)同理,对于偏置O 和旋转框除角度因子外的其余参数表示S ,选取平滑的L1 损失函数计算损失:11111( )1( )Nsoft s toff L i iiNsoft s tbox L i iiL Smooth O ONL Smooth S SN=== -= -åå(17)3 实验验证本文实验平台硬件配置为Intel®CoreTM i7-8700K CPU32G 内存计算机,使用NVIDIA RTX2080TiGPU 进行加速运算。软件环境为linux 平台,操作系统为Ubuntu16.04。文中实验基于Pytorch 深度学习框架构建网络模型,并使用CUDA10.0 CUDNN7.6 实现程序加速。3.1 训练策略与评价指标本文方法在公开SAR 图像舰船目标检测数据集HRSID[27]上进行验证。在实验中,按照7:2:1 的比例划分训练、验证和测试集,使用Adam 优化器对网络参数迭代更新,权重衰减率为0.0005。将CenterNet 检测器作为基准模型且用骨干网络HRNet 提取图像特征。教师和学生网络训练时各项损失值的比例分别设置为= 0.8 hm att l l = ,蒸馏时3 fea hm a =a = 且l=0.5。设置初始学习率为 1.25e-4,按照step 的学习策略分别在70 90epoch 时候学习率衰减为原始的0.1 倍,共训练100 epoch。每训练10 epoch 保存一次网络模型,根据训练结果保存最优模型。一批训练4 张图片,采用随机裁剪、翻转、亮度变换等操作扩充数据集。实验中,当检测边框与真值边界框的IoU 超过0.5 时,即可认为检测正确。本文采用深度学习中的评价指标,即召回率Recall,精度Precision 以及平均精度mAP。定义TPTrue Positive)为正确的舰船检测数目,GTGround Truth)为真实的舰船数目。FPFalse Positive)为错误检测的舰船数目,FNFalse Negative)为漏检的舰船数目。则召回率、准确率和F1 值可分别定义为:RePre2* *Re1Pr ReTPcallTP FNTPcisionTP FPPrecision callFecision call=+=+=+(18)平均精度定义为:10mAP = ò p(r)dr (19)其中 p为精度,r为召回率, p(r)表示精度和召回率的曲线。mAP的值越大表示算法性能越好。此外,用网络参数量Params(M)和网络前向计算量FLOPs(G)衡量模型的轻量程度。3.2 实验结果分析3.2.1 消融实验为说明本文提出的尺度和方向自适应的高斯核、前景注意力引导模块的效果,将基于CenterNet的旋转框检测方法作为基线模型在HRSID 数据集上进行消融对比实验。该实验以骨干网络HRNet32为基准,输入网络的图像大小为608´ 608,每组实验设置的参数保持一致。表1 展示了不同模块下的各项评价指标。表 1 HRSID 数据集上的消融实验Tab. 1 Ablation experiments on HRSID dataset基线 旋转高斯核前景注意力引导准确率 召回率 平均精度F1 分数P 0.8540 0.7234 0.7833 0.7759P P 0.8591 0.7579 0.7927 0.8053P P 0.8448 0.7746 0.8033 0.8082P P P 0.8877 0.7543 0.8120 0.8156从表1 中可看出,加入改进的高斯核热度图表示后,AP 0.7833 提升至0.7927F1 分数提升了0.3 左右。说明提出的旋转非归一化高斯核能更好地刻画舰船分布的方向角和长宽比,目标的关键点预测更加准确。图4 展示了测试图像中各个目标的预测热度图和前景注意力预测特征图。(a) (b)4 热度图可视化 (a)检测分支热度图(b)前景注意力预测图Fig. 4 Heatmap Visualization (a)Heatmap of detection branch (b)Foreground attention heatmap从图4 可以看出,预测的高斯热度图能准确地反映目标的长宽和方向角信息。前景注意力特征图的激活位置能精确反映前景区域,而尺度预测分支能通过增强的前景特征表示更精确地预测目标的长宽比信息。在复杂近岸场景下检测时,通过加入前景注意力引导机制,网络将更关注前景目标区域,一定程度减少了目标周围岛岸背景的干扰,使得定位精度上AP 提升了2%F1 0.7759 提升至0.8082。加入两个模块的结合后对检测器召回率的提升没有单独加入前景注意力机制时提升明显,可能是由于旋转高斯核的引入一定程度降低了密集排列目标的漏检率,此时前景注意力机制主要作用于提升回归精度方面。上述结果表明,引入前景注意力引导模块优化旋转框尺度参数回归,并根据目标尺度和方向角改进高斯核表示都能提升舰船目标检测的精度。3.2.2 无蒸馏与不同蒸馏策略下的对比实验为进一步轻量化网络结构,考虑对骨干网络的卷积通道数进行精简得到HRNet16。表 2 展示了不同骨干网络下本文所提旋转框检测方法的精度和参数量对比。表中所示方法结合了本文改进的高斯核并引入前景注意力引导模块,仅改变骨干网络进行实验。表 2 教师和学生检测网络的性能比较Tab. 2 Performance comparison of teacher and student detection network骨干网络 参数量(M) 浮点计算量(G) 精度教师网络 HRNet32 30.53 104.06 0.8120未蒸馏学生网络 HRNet16 9.07 59.05 0.7402蒸馏后学生网络 HRNet16 9.07 59.05 0.7596尽管骨干网络为HRNet16 时参数量和浮点计算量均大大降低,检测精度也有所损失。当对检测头部分支的角度预测、偏置值和边框参数三部分进行知识蒸馏后,得到的学生网络能在保证模型轻量化的条件下提升检测精度,但远低于教师网络的检测精度。为进一步说明本文所提蒸馏策略的有效性,主要从中心点热度图和骨干网络特征蒸馏两方面展开对比实验。图5 展示了近岸和远海场景下不同蒸馏策略下的PR 曲线。可以看出在远海场景下,目标分布较为分散且没有岛屿、礁石等干扰,检测准确率均在90%以上,各种蒸馏策略下的性能差异甚微。在近岸场景中,用普通热度图蒸馏(L2)或普通特征图蒸馏(L2)时与学生网络性能差异不大;当使用基于点对点相似度保持的蒸馏方法时,随着召回率的提升,改进方法的准确率更高,对应的PR 曲线与坐标轴包围面积更大。当进一步加入改进的特征图蒸馏后,由于结合了前景掩膜知识并建模了目标与周围上下文信息的语义联系,利用改进的热度图和特征蒸馏策略得到的学生网络在近岸条件下的检测性能比教师网络还稍有提升,进一步说明特征的知识迁移对近岸检测的性能影响较大。图5 不同蒸馏策略下PR 曲线比较 (a)近岸场景 (b)远海场景Fig. 5 Precision-Recall curves under different distillation strategies (a) inshore scene (b) offshore scene6 不同蒸馏策略下预测热度图比较Fig. 6 Comparison of predicted heatmaps under different distillation strategies6 对网络预测头输出的中心点热度图进行可视化,响应值强的地方对应目标的中心位置。从左至右分别是检测结果、基于均方差损失蒸馏的中心点热度图、本文所提蒸馏方法和教师网络预测的热度图。可以看出本文所提改进蒸馏方法产生的热度图上最亮点突出了目标的中心点位置,在目标附近的岛屿、礁石或者海岸上几乎未产生响应或响应值极弱。这是由于基于像素点对点相似度保持的蒸馏策略最大程度保留了教师网络对中心点位置的估计知识,且结合前景注意力掩膜的特征蒸馏能在学习前景特征的同时减少背景杂波的干扰。图 7 不同蒸馏策略下不同IoU 阈值下的检测定位精度变化图Fig. 7 Changes of detection performance under different IoU thresholds of different distillation strategies为衡量不同蒸馏策略下学生网络定位旋转框的精度,改变交并比阈值进行实验,检测精度随交并比阈值的变化曲线如图7 所示。通常用AP75 表示检测器的定位回归能力,可以看出基于点对点相似性度量的热度图蒸馏策略将AP75 提升了2.54%。进一步融合前景区域引导的特征蒸馏策略,AP7531.26%提升至34.86%,比加入未改进的特征蒸馏策略提升了1.44%。定位精度比教师网络AP751.15%,同时AP0.5:0.75 能达到61.58%,同教师网络相当(61.48%),说明蒸馏后的学生网络充分迁移了教师网络训练旋转框检测器中特征层面和不同预测分支尤其是热度图分支的知识。表3 不同蒸馏方法在近岸和远海场景下的检测性能比较Tab. 3 Detection performance comparison of different distillation methods under inshore and offsihore scenes近岸 远海蒸馏方法 P R F1 AP P R F1 APBaseline 0.6241 0.5231 0.5691 0.4819 0.9370 0.9282 0.9326 0.9190Mimic fea 0.6801 0.4924 0.5712 0.4912 0.9382 0.9279 0.9330 0.9194L2 热度图 0.6539 0.5153 0.5764 0.5061 0.9440 0.9321 0.9380 0.9228改进热度图蒸馏 0.6665 0.5685 0.6136 0.5389 0.9512 0.9321 0.9416 0.9269AT fea+改进热度图蒸馏 0.7114 0.5491 0.6198 0.5454 0.9533 0.9347 0.9439 0.9272改进特征+热度图蒸馏 0.7473 0.5664 0.6443 0.5778 0.9571 0.9279 0.9422 0.92553 展示了近岸和远海场景下结合不同蒸馏方法时的指标比较。Baseline 表示仅对偏置值、角度、和框回归参数蒸馏的学生网络,AT fea[28]Mimic fea[29]为检测任务中经典的蒸馏方法,将其引入特征层次进行蒸馏。可以看出单独使用Mimic 特征蒸馏或者均方差热度图蒸馏时,两者相对于未蒸馏学生网络性能提升程度相似(热力图的影响更大)。在改进的热度图蒸馏方法上结合不同的特征蒸馏形式后,本文方法在近岸场景下F1 AP 值比结合AT fea 蒸馏形式分别提升0.245 3.24%,即虚警和漏检相对较少。相对于Baseline 蒸馏的学生网络,近岸场景下平均精度提升高达9.59%,远海场景下也有0.65%的提升。3.2.3 主流旋转框检测算法对比实验在对基于关键点的旋转框检测方法进行改进高斯核设计,并引入前景注意力模块后得到基准教师检测网络,然后对骨干网络压缩的学生检测模型进行蒸馏,得到了本文最终的轻量化模型。为进一步验证所提算法的性能,将本文的轻量级检测器与其余基于旋转框的检测方法对比,主要分为双阶段、单阶段检测方法和其余无锚框检测方法。图8 展示了HRSID 数据集上由不同检测方法的准确率和召回率绘制的PR 曲线,统一每个检测器的置信度阈值为0.1。图8 HRSID 上不同旋转框检测方法的PR 曲线比较Fig. 8 Precision-Recall curves comparison of different oriented detection methods on HRSID从图8 可以看出双阶段旋转框检测方法的平均精度整体优于单阶段和无锚框检测方法。本文所提方法与BBAV[30]DAL[31]相比在高召回率下准确率更高,且蒸馏后的轻量化检测网络性能与教师网络性能接近。表4 展示了不同旋转框检测方法下的精度、模型参数量、检测速度等指标。测试时间为每张608*608 大小切片输入网络后经过图像预处理、网络检测以及图像后处理的总时间,表中由此计算出帧率。可以看出蒸馏后的学生网络相比于其他基于关键点的检测方法BBAVCenterNet-R 等帧率高出近1.5 倍。在保证检测精度的同时能达到较高的召回率,同时虚警较少, F1 值达到0.809 AP 值有80.71%。光学遥感图像上性能较好的双阶段检测器如RoI Transformer[32]以及Oriented-RCNN[33]等在SAR 图像上效果一般,精度在76%左右,这是由于SAR 图像中舰船目标所处场景更为复杂,和目标具有相似成像特性的岛礁、甲板等以及陆地强散射体的干扰会造成大量的虚警和漏检。而本文方法采取基于关键点的旋转框检测方法,考虑了目标的形状和方向角,同时结合了前景区域信息预测尺度,提高了召回率。同时进一步结合知识蒸馏策略压缩网络体积,能实现高精度条件下的轻量化检测。表4 典型旋转检测器上的性能比较Tab. 4 Performance comparison on typical oriented detectors检测器 准确率 召回率 F1 值 平均精度 参数量 帧率RoI Transformer 0.8524 0.7198 0.7805 0.7681 55.26 11.34Yolov3-R 0.8225 0.6531 0.7281 0.6907 59.68 9.13BBAV 0.8462 0.7332 0.7857 0.7720 71.83 19.08Oriented-RCNN 0.8369 0.7271 0.7781 0.7582 41.82 15.13DAL 0.8517 0.7603 0.8034 0.7896 36.34 8.06CenterNet-R 0.8628 0.7381 0.7956 0.7319 34.04 18.30RetinaNet-R 0.8301 0.6638 0.7377 0.7070 32.33 16.10本文方法 0.8475 0.7736 0.8089 0.8071 9.07 28.763.2.4 检测结果可视化为了验证本文算法的改进效果,在HRSID 数据集上选取了3 幅近岸场景下的测试图像,这些图像中包含海岸、岛礁和港口等复杂场景,目标排列紧密,分布形式多样化且与陆地背景区分度较差。图9 中从左至右分别是基于RetinaNet 的旋转框检测算法、BBAV、单阶段旋转框改进算法DAL 和本文所提方法的检测结果。其中绿色框表示算法正确检测出的结果,红色框为虚警目标,黄色框表示漏检目标。从图中可以看出RetinaNet-R 方法下的检测结果虚警、漏检较多。在舰船靠岸分布时,BBAV方法产生的漏检有所减少,但在陆地上仍存在不少虚警。DAL 方法对第二行中长宽比大的高分辨率舰船均能正确检测,仅有一个虚警和漏检,但在陆地上仍存在部分散射强度高的建筑物构成的虚警。而本文所提方法对于密集靠岸分布的目标、停靠码头的大长宽比目标以及岛礁、陆地强散射体干扰场景下的目标基本能正确检测,虚警和漏检个数最少。图9 不同旋转框检测方法下不同场景下的检测结果比较Fig. 9 Detection results of different oriented detection methods under different scenes3.2.5 大场景SAR 图像下的迁移实验为验证本文方法在复杂场景下SAR 图像近岸舰船目标检测的性能,使用HRSID 数据集上训练得到的模型对高分三号卫星SAR 舰船目标数据集AIR-SARShip-1.0[34]进行泛化性测试。测试图像包含两幅近岸和远海场景下不同尺度的舰船目标,由于岛礁、码头和海岸的存在背景相对复杂,部分目标还存在散焦和十字旁瓣等强散射干扰。图10 是两种算法迁移到该数据集上的检测结果。其中绿色框为算法检测结果,红色框中是错误检测的目标,黄色框表示漏检目标。由此证明所提出检测器具有较强的迁移能力,在不同传感器下的SAR 图像上具有一定的泛化能力。对于1000*1000 大小的大图输入,测试时间为1.84s 1.96s 左右。在图10 (a)和图10 (b)上能达到0.650 0.632 F1 值。可以看出远海目标均能正确检出,靠近码头的近岸目标基本都能检测到,但港口附近存在少许虚警和漏检。相较于其余检测方法,本文方法在保证检测精度的同时具有更高的实时性和部署灵活性。(a)(b)10 大场景图像迁移检测结果图 (a)图像1; (b)图像2Fig. 10 Migration Detection results on large scene images (a) figure 1; (b) figure 24 结论针对近岸目标易受复杂背景干扰和检测网络参数繁多难以部署的问题,本文提出一种基于CenterNet 和知识蒸馏的SAR 图像舰船目标旋转检测模型,能够较好满足实时性解译对模型轻量化和检测高精度的需求。文中首先改进了基于关键点检测框架中的高斯核,结合目标的形状和角度信息生成旋转的椭圆高斯热度图区域。其次,为抑制复杂背景杂波对感兴趣目标的影响,使得模型更加关注于前景信息,设计了前景区域注意力增强分支以监督目标尺度的回归。为进一步压缩模型容量且减少推理时间,引入了知识蒸馏策略,并将其应用于骨干网络特征、输出热度图以及检测头部的各回归参数中,完成教师模型知识的学习。通过结合近岸舰船周围背景复杂的特点,对目标热度图计算相似度改进蒸馏策略,同时结合前景区域掩膜对上下文信息建模的特征图加以蒸馏。基于公开舰船数据集HRSID 展开实验,最终能训练得到与教师模型性能相当(精度为80.71%)的轻量化学生检测模型(仅有9.07M)。下一步工作中,将更加关注靠岸舰船目标检测,结合不同传感器下的SAR 图像做网络结构优化,使得检测器的鲁棒性和适应性更强。参考文献[1] Du L, Dai H, Wang Y, et al. Target Discrimination Based on Weakly Supervised Learning for High-Resolution SARImages in Complex Scenes[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 58(1):461472. doi:10.1109/TGRS.2019.2937175.[2] Chen J, Zhang J, Jin Y, et al. Real- time processing of spaceborne SAR data with nonlinear trajectory based on variablePRF[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022,60: 112. doi: 10.1109/TGRS.2021.3067945[3] Gao G, Liu L, Zhao L, et al. An adaptive and fast CFAR algorithm based on automatic censoring for target detection inhigh-resolution SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2009, 47(6): 16851697. doi:10.1109/TGRS.2008.2006504.[4] D. J. Crisp. The state-of-the-art in ship detection in synthetic aperture radar imagery[R]. Defence Science AndTechnology Organisation Salisbury (Australia) Info Sciences Lab, 2004.[5] 李健伟, 曲长文, 彭书娟, . 基于卷积神经网络的SAR 图像舰船目标检测[J]. 系统工程与电子技术, 2018, 40(9):19531959.LI J W, QU C W, PENG S J, et al. Ship detection in SAR images based on convolutional neural network[J]. SystemsEngineering and Electronics, 2018, 40(9): 19531959. (in Chinese)[6] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6):11371149. doi:10.1109/TPAMI.2016.2577031.[7] ZHANG X H, WANG H P, XU C A, et al. A lightweight feature optimizing network for ship detection in SAR image[J].IEEE Access, 2019, 7: 141662141678. doi: 10.1109/ACCESS.2019.2943241.[8] Liu W, Anguelov D, Erhan D, et al. SSD: Single Shot MultiBox Detector[C]. The 14th European Conference onComputer Vision, Amsterdam, Netherlands, 2016:2137.doi: 10.1007/978-3-319-46448-0_2.[9] 张晓玲, 张天文, 师君, . 基于深度分离卷积神经网络的高速高精度SAR 舰船检测[J]. 雷达学报, 2019, 8(06):841851. doi:10.12000/JR19111.ZHANG Xiaoling, ZHANG Tianwen, SHI Jun, et al. High-speed and High-accurate SAR ship detection based on adepthwise separable convolution neural network[J]. Journal of Radars, 2019, 8(6): 841851. doi: 10.12000/JR19111.[10] Redmon J and Farhadi A. Yolov3: An incremental improvement[J]. arXiv preprint arXiv:1804.02767, 2018.[11] Gao S, Liu J M, Miao Y H, et al. A High-Effective Implementation of Ship Detector for SAR Images[J]. IEEEGeoscience and Remote Sensing Letters, 2022,19(): 15. doi: 10.1109/LGRS.2021.3115121[12] Zhu M, Hu G, Zhou H, et al. H2Det: A High-Speed and High-Accurate Ship Detector in SAR Images[J]. IEEE Journalof Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 1245512466. doi:10.1109/JSTARS.2021.313116.[13] FU J, SUN X, WANG Z, et al. An anchor-free method based on feature balancing and refinement network for multiscaleship detection in SAR images. IEEE Transactions on Geoscience and Remote Sensing, 2020, 59(2):13311344. doi:10.1109/TGRS.2020.3005151.[14] Tian Z, Shen C, Chen H, et al. FCOS: Fully Convolutional One-Stage Object Detection[C]. 2019 IEEE/CVFInternational Conference on Computer Vision (ICCV).IEEE, 2020.[15] 孙忠镇,戴牧宸,雷禹,等. 基于级联网络的复杂大场景SAR 图像舰船目标快速检测[J].信号处理,2021,37(06):941-951. doi: 10.16798/j.issn.10030530.2021.06.005.SUN Zhongzhen, DAI Muchen, LEI Yu, et al. Rapid detection of ship targets in SAR images in complex and largescenes based on cascaded network[J]. Signal Processing, 2021,37(06):941-951. doi: 10.16798/j.issn.10030530.2021.06.005.[16] Guo H, Yang X, Wang N, et al. A CenterNet ++ model for ship detection in SAR images[J]. Pattern Recognition,2021,112: 107787.[17] Zhou X, Wang D, and P Krhenbühl. Objects as Points[J]. http://arxiv.org/abs/1904.07850. 2019.[18] AN Q Z, PAN Z X, LIU L, et al. DRBox-v2: An improved detector with rotatable boxes for target detection in SARimages[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(11): 83338349. doi:10.1109/TGRS.2019.2920534.[19] Yang R, Pan Z, Jia X, et al. A Novel CNN-Based Detector for Ship Detection Based on Rotatable Bounding Box in SARImages[J], IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021,14: 19381958.doi: 10.1109/JSTARS.2021.3049851.[20] Lin T Y, Goyal P, Girshick R, et al. Focal Loss for Dense Object Detection[C]. 2017 IEEE International Conference onComputer Vision (ICCV). IEEE, 2017:2999-3007.[21] 徐英,谷雨,彭冬亮,等. 面向合成孔径雷达图像任意方向舰船检测的改进YOLOv3 模型[J]. 兵工学报, 2021,42(08): 16981707.XU Ying, GU Yu, PENG Dongliang, et al. Improved YOLOv3 model for ship detection in any direction in syntheticaperture radar images[J]. Acta Armamentarii, 2021, 42(08): 16981707.[22] Fu K, Fu J, Wang Z, et al. Scattering-Keypoint-Guided Network for Oriented Ship Detection in High-Resolution andLarge-Scale SAR Images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2021,14: 1116211178. doi: 10.1109/JSTARS.2021.3109469.[23] Xu Y, Fu M, Wang Q, et al. Gliding vertex on the horizontal bounding box for multi-oriented object detection[J]. IEEETransactions on Pattern Analysis and Machine Intelligence, 2020, 43(4): 14521459. doi:10.1109/TPAMI.2020.2974745.[24] Wang J, Sun K, Cheng T, et al. Deep high-resolution representation learning for visual recognition[J]. IEEE Transactionson Pattern Analysis and Machine Intelligence, early access, Apr. 1, 2020. doi: 10.1109/TPAMI.2020.2983686.[25] Zhang L and Ma K. Improve object detection with feature-based knowledge distillation: Towards accurate and efficientdetectors[C]. International Conference on Learning Representations, 2020. 3, 7.[26] Cao Y, Xu J, Lin S, et al. Gcnet: Non-local networks meet squeeze-excitation networks and beyond[C]. Proceedings ofthe IEEE/CVF Inter-national Conference on Computer Vision Workshops, pages 00, 2019. 2, 5, 8.[27] Wei S, Zeng X, Qu Q, et al. HRSID: A high-resolution SAR images dataset for ship detection and instancesegmentation[J]. IEEE Access, 2020,8(): 120234120254. doi: 10.1109/ACCESS.2020.3005861.[28] Sergey Zagoruyko and Nikos Komodakis. Paying more attention to attention: Improving the performance of convolutionalneural networks via attention transfer[J]. http://arxiv.org/abs/1612. 03928. 2016.[29] Adriana Romero, Nicolas Ballas, Samira Ebrahimi Kahou, et al. Fitnets: Hints for thin deep nets[J]. http://arxiv.org/abs/1412.6550, 2014.[30] Yi J, Wu P, Liu B, et al. Oriented object detection in aerial images with box boundary-aware vectors[C]. Proceedings ofthe IEEE Winter Conference on Applications of Computer Vision, Jan. 2021: 21502159.[31] Ming Q, Zhou Z, Miao L, et al. Dynamic anchor learning for arbitrary-oriented object detection[J].http://arxiv.org/abs/2012. 04150. 2020.[32] Ding J, Xue N, Long Y, et al. Learning RoI transformer for oriented object detection in aerial images[C]. Proceedings ofthe IEEE/CVF Conference on Computer Vision and Pattern Recognition, Jun. 2019: 28442853.[33] Xie X, Cheng G, Wang J, et al. Oriented R-CNN for Object Detection[C]. Proceedings of the IEEE/CVF InternationalConference on Computer Vision. 2021: 35203529.[34] 孙显, 王智睿, 孙元睿, . AIR-SARShip-1.0: 高分辨率SAR 舰船检测数据集[J]. 雷达学报, 2019, 8(6): 852862.doi:10.12000/JR19097.SUN Xian, WANG Zhirui, SUN Yuanrui, et al. AIRSARShip-1.0: High resolution SAR ship detection dataset[J]. Journalof Radars, 2019, 8(6): 852862. doi:10.12000/JR19097.作者简介:陈诗琪(1994-), 女,湖北武汉人,国防科技大学电子科学学院博士在读研究生,主要研究方向为SAR 目标检测识别等。王威(1989-),男,安徽宿州人,副研究员,博士。主要研究方向为SAR/极化SAR信息处理、雷达成像、自动目标识别,目前已发表论文三十余篇。占荣辉(1978-),男,江西玉山人,副研究员,博士。主要研究方向为雷达目标识别、目标跟踪技术。张军(1973-),男,湖南长沙人,研究员,博士。主要研究方向为雷达智能信号处理、制导雷达应用技术。刘盛启(1986-),男,广西桂林人,助理研究员,博士。主要研究方向为雷达信号处理与目标识别,目前已发表论文10 余篇。

[返回]

下一篇:视场非完全重叠的分布式雷达多目标跟踪方法