欢迎访问一起赢论文辅导网
本站动态
联系我们

手机:15327302358
邮箱:peter.lyz@163.com

Q Q:
910330594  
微信paperwinner
工作时间:9:00-24:00

博士论文
当前位置:首页 > 博士论文
基于无监督域适应的仿真辅助SAR目标分类方法
来源:一起赢论文网     日期:2022-07-29     浏览数:43     【 字体:

 基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析吕小玲①②③ 仇晓兰*①② 俞文明徐 丰⑤①(中国科学院空天信息创新研究院 北京 100094)②(中国科学院空间信息处理与应用系统技术重点实验室 北京 100190)③(中国科学院大学电子电气与通信工程学院 北京 100049)④(东南大学毫米波国家重点实验室 南京 210096)⑤(复旦大学电磁波信息科学教育部重点实验室 上海 200433)摘 要:卷积神经网络(CNN)在光学图像分类领域中得到广泛应用,然而,合成孔径雷达(SAR)图像样本标注难度大、成本高,难以获取满足CNN训练所需的样本数量。随着SAR仿真技术的发展,生成大量带标签的仿真SAR图像并不困难。然而仿真SAR图像样本与真实样本间难免存在差异,往往难以直接支撑实际样本的分类任务。为此,该文提出了一种基于无监督域适应的仿真辅助SAR目标分类方法,集成了多核最大均值差异(MKMMD)和域对抗训练,以解决由仿真图像分类任务迁移到真实图像分类任务中的域偏移问题。进一步使用逐层相关性传播(LRP)和对比逐层相关性传播(CLRP)两种可解释性方法,对域适应前后的模型进行了解释分析。实验结果表明,该文方法通过修正模型对输入数据的关注区域,找到了域不变的分类特征,显著提升了模型在真实SAR数据上的分类准确率。关键词:合成孔径雷达(SAR);目标分类;卷积神经网络(CNN);无监督域适应;可解释性中图分类号:TP753 文献标识码:A 文章编号:2095-283X(2022)x-0001-15DOI: 10.12000/JR21179引用格式:吕小玲, 仇晓兰, 俞文明, . 基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析[J].雷达学报, 待出版. doi: 10.12000/JR21179.Reference format: LYU Xiaoling, QIU Xiaolan, YU Wenming, et al. Simulation-assisted SAR targetclassification based on unsupervised domain adaptation and model interpretability analysis[J]. Journal ofRadars, in press. doi: 10.12000/JR21179.Simulation-assisted SAR Target Classification Based on UnsupervisedDomain Adaptation and Model Interpretability AnalysisLYU Xiaoling①②③ QIU Xiaolan*①② YU Wenming④ XU Feng⑤①(Aerospace Information Research Institute, Chinese Academy of Sciences, Beijing 100094, China)②(Key Laboratory of Technology in Geospatial Information Processing and Application System,Chinese Academy of Sciences, Beijing 100190, China)③(School of Electronic, Electrical and Communication Engineering, University of ChineseAcademy of Sciences, Beijing 100049, China)④(State Key Laboratory of Millimeter Waves, Southeast University, Nanjing 210096, China)⑤(Key Laboratory for Information Science of Electromagnetic Waves, Fudan University,Shanghai 200433, China)Abstract: Convolutional Neural Networks (CNNs) are widely used in optical image classification. In the case of收稿日期:2021-11-14;改回日期:2022-01-13*通信作者: 仇晓兰 xlqiu@mail.ie.ac.cn *Corresponding Author: QIU Xiaolan, xlqiu@mail.ie.ac.cn基金项目:国家自然科学基金(61991421)Foundation Item: The National Natural Science Foundation of China (61991421)责任主编:杜兰 Corresponding Editor: DU Lanx 卷第x 期雷 达 学 报Vol. xNo. x2 0 2 2xJournal of Radars x 2022网络首发时间:2022-01-10 14:37:37网络首发地址:https://kns.cnki.net/kcms/detail/10.1030.tn.20220105.1130.002.htmlSynthetic Aperture Radar (SAR) images, obtaining sufficient training examples for CNNs is challenging due tothe difficulties in and high cost of data annotation. Meanwhile, with the advancement of SAR image simulationtechnology, generating a large number of simulated SAR images with annotation is not difficult. However, dueto the inevitable difference between simulated and real SAR images, it is frequently difficult to directly supportthe real SAR image classification. As a result, this study proposes a simulation-assisted SAR targetclassification method based on unsupervised domain adaptation. The proposed method integrates Multi-KernelMaximum Mean Distance (MK-MMD) with domain adversarial training to address the domain shift problemencountered during task transition from simulated to real-world SAR image classification. Furthermore, LayerwiseRelevance Propagation (LRP) and Contrastive Layer-wise Relevance Propagation (CLRP) are utilized toexplore how the proposed method influences the model decision. The experimental results show that bymodifying the focus areas of the model to obtain domain-invariant features for classification, the proposedmethod can significantly improve classification accuracy.Key words: Synthetic Aperture Radar (SAR); Target classification; Convolutional Neural Network (CNN);Unsupervised Domain Adaptation (UDA); Interpretability1 引言合成孔径雷达(Synthetic Aperture Radar, SAR)是一种主动式微波遥感成像系统,具有全天时、全天候的观测能力。随着SAR成像技术的不断发展,SAR自动目标识别(Automatic Target Recognition,ATR)成为SAR图像智能解译的一个重要组成部分。SAR ATR主要由3个阶段组成:检测、鉴别和分类[ 1 ]。近年来,随着深度学习的快速发展,SAR ATR领域也涌现了很多基于深度学习的优秀算法[2,3]。然而,目前将深度学习应用于SAR ATR领域主要面临两方面的问题:一是深度神经网络往往需要大量标注数据才能有效提取目标特征,但SAR样本标注难度大、成本高,标注数量严重不足,很难达到和自然图像领域相当的标注样本量级;二是深度学习方法一直以来被视为黑盒模型,内部工作机理不透明,缺乏可解释性,难以为SAR ATR提供可靠的、可信任的应用服务。针对SAR目标识别中标注样本不足的问题,Chen等人[2]提出了全卷积网络(All-Convolutional Networks,A-ConvNets),使用卷积层代替全连接层,减少了需要训练的参数,有效缓解了直接使用SAR数据训练CNN容易导致过拟合的情况,在MSTAR数据集上取得了很好的分类效果。Pan等人[4]提出了一种基于度量学习(Metric learning)的孪生网络(Siamesenetwork),以样本对的形式输入训练图像,显著增加了训练数据量。但这些方法仍然不能完全摆脱对标注样本的依赖。为此,已有研究者尝试利用仿真的SAR图像样本来支撑真实样本的分类任务。关于SAR图像仿真技术的研究已有很多,其中经典方法是建立物体的3D模型,结合电磁计算和计算机图形学方法,得到SAR仿真图像[5]。随着SAR仿真技术的发展,对于某些目标而言,仿真图像与实际图像可以达到目视难以分辨的程度。然而,利用仿真图像训练的神经网络很难直接对真实图像精确分类,文献[6]和文献[7]都指出SAR仿真图像与实测图像属于非同源图像,在背景纹理、目标结构等方面不可避免地存在一定差异,其实验结果也表明仿真图像难以直接支撑零标注样本下的真实图像分类任务。目前已有一些在小样本或零样本情况下提升仿真辅助SAR目标分类性能的相关研究。文献[8]首次探讨了结合仿真图像进行迁移学习实现真实SAR目标分类的可行性,其结果表明,当真实样本标注数量不足时,利用仿真数据进行预训练可以有效加快模型收敛。Zhang等人[9]提出了一种双流深度网络结构,通过利用方位角、幅度和相位信息等SAR领域知识进行数据增强,提升小样本情况下SAR目标识别的性能。这些研究表明,在小样本情况下,SAR仿真样本可以为实测SAR目标分类任务提供可用信息,但未对零样本情况下的仿真辅助SAR目标分类的效果进行验证。Song等人[6]提出了一种非必要因素抑制的方法,对仿真图像和真实图像进行非极大值抑制、风格调整和分割这一系列预处理后输入神经网络,实现了仿真辅助的零样本SAR目标识别。然而,其实验中只是将MSTAR数据集中10类目标之一T72目标图像替换为仿真图像,这对仿真图像支撑真实图像分类效果的验证是有限的。笔者认为,为提高仿真辅助SAR图像分类的性能,需要找到一种可以有效拉近仿真图像和真实图像特征分布距离的方法以实现特征迁移。如何解决不同来源数据之间的特征迁移问题,是域自适应(Domain Adaptation)方法的研究内容。无监督域2 雷 达 学 报第x 卷适应(Unsupervised Domain Adaptation, UDA)方法可以实现从带标注源域(Source domain)数据集到无标注目标域(Target domain)数据集上的信息迁移,找到不同域之间通用的分类特征提取方法。现有的UDA方法主要可分为4[10](1)基于领域分布差异的方法[11–14](2)基于对抗学习的方法[15–19](3)基于重构的方法[20,21](4)基于样本生成的方法[22]。目前已有一些将域自适应方法应用到SAR目标识别领域的研究[23–26]Huang等人[23]从迁移什么、迁移到哪、如何迁移3方面展开探讨,提出了一种结合多源数据的域适应传递方法。Wang等人[24]提出了一个结合域对抗训练和元学习(Meta-learning)的模型,使用大量仿真数据预训练网络后再使用少量带标签真实数据微调网络,实现了跨域和跨任务的迁移学习。Zhang等人[25]提出了一种基于对抗学习的多级无监督域适应方法,用以解决多波段SAR图像分类问题。Xu等人[26]提出的基于判别适应正则化的迁移学习方法D-ARTL实现了由自动识别系统AIS信息到SAR图像域舰船分类任务的知识迁移。上述研究表明,域适应的方法在SAR遥感领域有很好的应用前景,但这些研究更多地关注了不同域之间的特征迁移是否成功,对域适应前后模型提取特征的变化分析不足。为此,本文针对利用SAR仿真样本来实现无须实测标注样本的SAR目标分类问题开展研究,提出了一个集成域对抗训练和距离度量的神经网络模型;同时,对模型进行了可解释性分析,结合逐层相关性传播(Layer-wise Relevance Propagation,LRP)[27]和对比层关联传播(Contrastive Layer-wiseRelevance Propagation, CLRP)[28]分析了域适应前后模型决策依据的变化。实验表明,本文方法能够显著提升仿真辅助SAR目标分类的准确率,可解释性分析的结果证明本文方法通过修正模型关注区域来提升仿真辅助SAR图像分类的性能,具有一定的合理性。本文的主要贡献可以概括如下:(1) 提出了一种新的基于无监督域适应的仿真辅助SAR目标分类的网络框架,不同于以往的利用仿真数据进行数据增强或网络预训练工作的方法[6–8],本文方法不需要人为设计复杂的图像预处理过程,而是通过网络学习来提升域混淆程度、缩小仿真样本和实测样本的域差异,在完全不使用实测数据类别标签的情况下实现了较高精度的仿真辅助SAR目标分类,为当下SAR样本标注少、目标识别难的问题提供了新的解决思路;(2) 本文通过LRP, CLRP等神经网络可解释性方法定位同类目标仿真和实测SAR图像中导致网络做出不同决策的区域,分析了域适应前后模型决策依据的变化,从可解释性角度分析了本文方法提升仿真辅助SAR目标分类性能的原因,可以为仿真方法的优化调整提供思路。本文的其余部分内容安排如下:第2节介绍了本文提出的基于无监督域适应的仿真辅助SAR图像分类方法;第3节介绍了本文采用的可解释性方法;第4节给出了实验数据、实验结果以及详细的解释分析;第5节进行总结与展望。2 无监督域适应的仿真辅助SAR目标分类如图1所示,当网络提取到的特征越是局限于特定的域,就越难找到两个域可共用的分类边界;而当提取到的特征越能体现不同域间的共性,就越易于找到可共用的分类边界。为了使特征提取器提取到域不变特征且尽量缩小域间差异,本文提出了一种集成域对抗训练和域差异度量多核最大均值差异(Multi-Kernel Maximum Mean Discrepancy, MKMMD)[29]的模型。其中,域对抗训练是指特征提取器和域判别器之间的对抗训练,域判别器通过最小化域分类损失来提升域判别能力,特征提取器则致力于学习可以欺骗域判别器的特征提取方法,以提取到域不变特征。域对抗训练虽然可以促进域混淆,但是不能保证拉近不同域样本在分类器隐藏层中的特征差异,为此本文方法在模型中添加域差异度量器,使用MK-MMD进行域差异计算,并以此为优化目标训练模型。2.1节对所提模型框架和网络结构进行介绍,2.2节给出了模型优化目标。2.1 模型框架和网络结构如图2所示,本文提出的网络模型可分为4个部分:特征提取器、目标分类器、域判别器和域差异度量器。本文方法使用带标签的仿真数据(即源域S)训练得到可以对仿真数据准确分类的特征提取器(a) 特征不具备域不变性(a) The features aredomain-specific(b) 特征具备域不变性(b) The features aredomain-invariant类别1类别2源域目标域图 1 特征是否具备域不变性对找到不同域通用分类器的影响Fig. 1 The influence of domain invariance of features on findinga general classifier between different domainsx 期吕小玲等:基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析3和分类器;同时利用无标签的实测样本(即目标域T)同仿真样本一起进行域对抗训练,帮助特征提取器提取到域不变特征,并结合MK-MMD度量进一步缩小仿真数据特征和真实数据特征在网络隐层中的差异;完成训练后,由特征提取器和分类器最终实现对实测样本的分类。图3给出了本文所提方法的网络结构参数,其中虚线所示结构仅在训练过程中激活,考虑到仿真SAR图像直接训练网络容易导致过拟合,特征提取器的网络层数不宜过多,因此参考了AlexNet[30]的卷积层设计,分类器和域判别器由两个全连接层组成。Ds = f(xsi; ysi )ni=1g xsii ysi ysi2 f1; 2; ...;NgDt = f(xti)mi=1g dixi  Ds di = 0 xi  Dt在网络训练过程中,源域S为网络模型提供带标签仿真样本,其中为源域的第个样本, 为该样本的类别标签, ,N代表类别数目;目标域T提供无标签实测样本。同时每个训练样本带有域标签,当样本来自源域即时, ;当di = 1 xf f^y f ^ dxs xte c dGe() Gc() Gd()f = Ge(x; e)^y = Gc(f; c) ^ d = Gd(f; d)时, 。对于每个输入样本,特征提取器计算得到其特征向量,分类器对进行类别预测得到,域判别器对进行域判别得到。对于来自不同域的样本和,域差异度量器计算二者在全连接层fc1, fc2处的MK-MMD,作为域差异优化目标。使用, 和分别代表特征提取器、分类器和域判别器的参数, , , 表示对应的映射函数,则有特征向量,类别预测结果,域预测结果。ysi^ysi LossclsLossdd训练时,将仿真数据和真实数据同时输入到网络模型。首先,基于仿真数据的标签真值和分类器预测输出计算得到,以此优化分类器和特征提取器。其次,引入梯度反转层(Gradient ReversalLayer, GRL)[15]实现特征提取器和域判别器之间的对抗训练,以使特征提取器提取到域不变特征。最后,使用MK-MMD在分类器全连接层(fc1,fc2)处计算每层输入特征的域差异(记为),以(a) 模型训练(a) Model training(b) 模型测试(b) Model test特征提取器fc1分类器fc2类别标签待测样本特征提取器fc1分类器fc2源域数据:仿真样本(带标签)BMP2 BTR70 T72目标域数据:真实样本(无标签)域判别器域差异度量器域标签类别标签源域数据前向传播目标域数据前向传播反向传播GRLLossddLossclsLossda∂qe∂Lossda∂qe∂Lossda-2 模型框架示意图Fig. 2 Schematic diagram of the model framework4 雷 达 学 报第x Losscls Lossdd Lossda更好地拉近网络深层处不同域样本特征的距离。此处, 以及域对抗训练的优化目标将在2.2节给出说明。2.2 优化目标LossclsLossdaLossdd本文所提模型的整体优化目标可分为3部分:一是源域样本分类损失最小化,保证特征提取器和分类器可以实现源域样本的精确分类;二是域对抗训练损失最小化,以实现域混淆,使特征提取器提取到域不变特征; 三是域差异最小化,进一步缩小不同域样本在网络隐层中的特征距离。下面分别给出计算公式。源域样本分类损失Losscls的计算方法如式(1)所示。Losscls =1nΣni=1di=0Jy (Gc (Ge (xi; e) ; c) ; yi) (1)n Jy()Ge() Gc()e cyi其中, 是源域训练样本总数量, 为softmax交叉熵损失函数, 和分别代表特征提取器和分类器的映射函数, 和分别为特征提取器和分类器的参数, 为样本类别标签。本文方法借助GRL实现域对抗训练,文献[15]最早将生成对抗网络(Generative Adversarial Network,GAN)[31]中对抗学习的思想引入到域适应任���Lossdamine;dLossda务中,通过GRL实现特征提取器和域判别器之间的博弈训练,之后的很多域适应模型都使用了这一结构[32,33]GRL不影响网络训练的前向传播过程,只是在反向传播的过程中将后一层的梯度乘以一个负常数( ),完成梯度反转后再传递给前一层,这样使得在训练过程中域判别器致力于分辨特征来自源域还是目标域,特征提取器则致力于提取到可以骗过域判别器的特征,通过二者之间的对抗训练使特征提取器提取到域不变的特征。域对抗训练损失根据式(2)计算得来,域对抗训练的目标则可表示为。Lossda=1qΣqi=1Jd(Gd(GRL(Ge(xi; e)); d); di) (2)q Jd()Ge() Gd()GRL()e ddi其中, 是源域和目标域的训练样本总数量,是二元交叉熵损失函数, 和分别代表特征提取器和域判别器的映射函数, 代表梯度反转层的映射函数, 和分别为特征提取器和域判别器的参数, 为样本域标签。Lossdd为进一步缩小域间样本特征差异,本文方法使用基于MK-MMD的域差异度量器计算分类器中每个全连接层输入特征的域差异。MMD是一种常用的度量不同域数据分布差异的方法,简单来说,就是将源域S和目标域T中数据的特征表示映射到再生核希尔伯特空间(Reproducing Kernel HilbertSpace, RKHS)中后,计算二者均值的距离。深度域混淆(Deep Domain Confusion, DDC)方法[11]最早将MMD引入到神经网络中,将源域特征和目标域特征之间的MMD作为域混淆度量加入到网络的目标函数当中。但DDC只对网络中的一层进行域适配,且只采用单核计算MMD,适配程度不够。为此,深度适配网络(Deep Adaptation Network,DAN)[12]对网络的多层进行适配,且引入了表征能力更强的MK-MMD,其为MMD的多核版本,表现出了比DDC更好的减小域差异的能力。受此启发,本文设计的域差异度量器使用MK-MMD对分类器中两个全连接层的输入同时进行域差异计算。本文的多层MK-MMD域差异计算方法如式(3)所示。Lossdd =lΣ=l2l=l1d2k(Dls;Dlt) (3)l1 l2Dll dk(Ds;Dt)其中, 和表示域差异度量器对应的网络层起止位置, 表示输入在第层的隐层表示,表示源域分布和目标域分布在RKHS中均值的距离,其定义如式(4)所示。输入图像Conv1. 64@11×11/ReLUMax pool 3×3Conv2. 192@5×5/ReLUMax pool 3×3Conv3. 384@3×3/ReLUMax pool 3×3Conv4. 256@3×3/ReLUConv5. 256@3×3/ReLUFlattenFC1. 256/ReLUDropoutFC2. NFC1. 256/ReLUDropoutFC2. 1/Sigmoid梯度反转层GRL类别预测结果域判别结果MK-MMD域差异Lossdd3 网络结构示意图Fig. 3 Schematic diagram of the model structurex 期吕小玲等:基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析5d2k(Ds;Dt) =jjEs[ϕ(xs)] ��� Et[ϕ(xt)]jj2Hk=Es⟨ϕ(xs); ϕ(x′s)⟩Hk+Et⟨ϕ(xt); ϕ(x′t)⟩Hk��� 2Es;t⟨ϕ(xs); ϕ(xt)⟩Hk (4)E[] D xx′ xs  Ds xt  Dt Hk kϕ() kk(x; y) = ⟨ϕ(x); ϕ(y)⟩Hkk U fkug其中, 代表对应分布的数学期望, 和独立同分布, , , 表示与核相关的RKHS, 表示与核相关的特征映射,有。核为个高斯核的凸组合,如式(5)所示。k(x; y) =ΣUu=1wuku(x; y); s:t:ΣUu=1wu = 1; wu > 0 8u(5)fwug kU = 5 k其中, 的相关约束是为了保证生成的多核是特有的,本文方法中。使用核后式(4)的经验估计如式(6)所示。d2k(Ds;Dt) =1n2Σni;j=1k(xsi; xsj)+1m2Σmi;j=1k(xti; xtj)��� 2mnΣn;mi;j=1k(xsi; xtj)(6)其中,n为源域训练样本数量,m为目标域训练样本数量。3 深度学习的可解释性方法本文针对SAR目标分类网络的可解释性研究,采用了LRP系列可解释性方法作为工具。相比于一些其他可解释性方法[34,35]LRP可以生成像素级的解释,能够更精细地刻画输入图像中影响决策的区域。SAR图像中目标和背景干扰大多以离散散射点的形式呈现,目标和背景之间、不同类别的目标之间可分性不强,使用LRP这种像素级解释的方法更利于分析。为便于对后文实验结果的理解,本节结合第2节提出的网络模型,简单介绍LRPCLRP方法的原理和应用。3.1 LRP方法L + 1 j XL+1j =ϕ(Σi(wLijXLi + bLi))ϕwLij i j bLiRL+1j L + 1 ji4给出了一个简单的神经网络中前向传播过程和L R P 后向传播过程, 在神经网络中, 第层第个神经元的输出可以表示为,其中代表神经元的激活函数, 是连接神经元到神经元的权重, 是对应的偏差。为了识别每个输入像素点的相关性,LRPsoftmax归一化之前的激活值从指定神经元逐层传播回输入空间。表示第层第个神经元的相关性,它可以分解到第L层的全部神经元上,如式(7)所示。第L层第个神经元的相关性RLiR(L;L+1)i j z+ ��� rule z

 ��� rule可以理解为第L+1层全部神经元的相关性分解后再求和,见式(8)LRP的传播规则由整流神经元网络的深度泰勒分解推导得来[36]。实际应用中,常用的计算规则有两种: 和,如式(9)和式(10)所示。RL+1j =Σi2(L)R(L;L+1)i!j (7)RLi =Σj2(L+1)R(L;L+1)i j (8)z+ ��� rule : R(L;L+1)i j =Σjxiw+Σ iji′xi′w+i′jRL+1j (9)z
���rule : R(L;L+1)i j=Σjxiwij ��� liw+ij��� hiw���ij Σi′(xi′w+i′j��� li′w+i′j��� hi′w���i′j)RL+1j (10)w+ij = wij 1wij>0 w���ij = wij 1wij<0 [l; h]xi其中, , ,是激活值对应的区域。3.2 CLRP方法RL+1j =max(0;XLWLj + bLj)i文献[28]指出,LRP生成的解释仅特定于实例,却不具备类别区分性,也即对于不同的类别,LRP生成的解释几乎是相同的。产生这一情况的原因,是LRP在解释的过程中使用了相同的特定于实例的结构信息( I n s t a n c e - S p e c i f i c S t r u c t u r eInformation, ISSInfo),主要是指神经网络中的ReLU和池化操作。这使得前文中提到的只在最后一层成立,在其他层均不满足这一条件。换言之,对于不同的类别,L-1LL+1ijRjL+1XjL+1Ri←j……………wLijL-1LL+1ij………输入图像预测结果LRP解释预测结果(L,L+1)4 LRP原理示意图Fig. 4 An overview of LRP6 雷 达 学 报第x LRP的反向传递过程是类似的,接收到非零相关性的神经元也相同,只是绝对值可能不相等。因此,无论选择哪个类别对应的得分进行反向传播,接收到非零相关性的神经元始终保持不变,这使得LRP生成的解释独立于类别信息。j njO nj W = fW1;W2; ...;WL���1;WLjg WLWLjjSnjR = fLRP(X;W; Snj )OOOOOW= fW1;W2; ...;WL���1;WLf���jgg WLf���jgj WLjW= fW1;W2; ...;WL���1;���1 WLjgOCLRP通过构建虚拟类以剔除LRP生成的解释中与目标类别不相关的信息,进而生成具备类别区分性的解释。图5给出了使用CLRP解释网络的基本流程,其中红色路径表示与目标类别无关的LRP解释,蓝色路径表示对目标类别直接进行LRP解释得到的信息。定义与第类相关的神经元描述了一个视觉概念, 通过权重与输入形成连接,其中表示连接第L –1层和第L层的权重, 表示连接第L–1层和第L 层中第个神经元的权重。对于输入样本X LRP将神经网络得分映射回输入空间,得到相关向量。使用对偶虚拟概念描述与相反的视觉信息,文献[28]给出了两种对建模的方法:一是选择除与对应类之外的其余所有类,也即对应的权重表示为,其中表示连接第L –1层和第L层除神经元外的权重;二是对权重求反直接构建一个虚拟类,即。的相关性可由式(11)计算得到,那么CLRP生成的解释如式(12)所示。Rdual = fLRP(X; W; Snj)(11)RCLRP = max(0; (R ��� Rdual)) (12)相比于LRP, CLRP更适用于分析一张图像中存在多个不同类别目标或待分类目标结构相似的情况,但是LRP生成的解释在语义上更完整,更利于理解。考虑到SAR图像中不同目标相似性较高,目视上难以区分,本文在进行模型可解释性分析时,将以CLRP解释为主、以LRP解释为辅。在解释时,主要关注图2(b)所示的网络模型的分类过程,也即主要关注特征提取器和分类器两部分。首先使用LRP分析网络模型在分类过程中更关注哪些区域,分析网络模型决策依据的语义意义;然后利用CLRP进一步生成具有类别区分性的解释,结合域适应前的错分样本分析域适应后网络模型分类性能提升的可能原因。4 实验结果与分析4.1 实验数据与实验设置实验中使用的仿真数据(即源域数据)由东南大学毫米波国家重点实验室提供,利用该实验室自研软件通过目标电磁建模和散射计算的方式生成。仿真数据包括3类目标:BMP2, BTR70, T72。为保证仿真样本的多样性,仿真数据包括2个俯仰角(15°, 17°)3种背景:(1)仿真软件自动生成的草地背景;(2)参考光学图像手动设置参数生成的草地背景;(3)参考光学图像手动设置参数生成的沙地背景。图6给出了3类目标的光学图像及典型方位角和俯仰角下的仿真与真实图像。每类目标在每个背景下每隔0.5°方位角生成一张仿真图像,仿真数据集共有12978张图像,按4:1划分仿真训练集和测试集。以移动与静止目标获取识别(Moving and StationaryTarget Acquisition and Recognition, MSTAR)数据集作为实验的目标域数据,MSTAR数据集通常分为标准工作条件(Standard Operating Condition,SOC)和扩展工作条件(Extended OperatingCondition, EOC)两类。其中SOC指训练集和测试集的数据成像条件相似;EOC指训练集和测试集的数据成像条件存在一定差异,一般又可分为3类情况,第1类为大俯仰角情况,如训练集数据成像俯仰角为17°,测试集为30°,记为EOC-1;第2类指车辆配置不同,即车辆上某些部件的增加和拆除,如T72移除车上的油罐,记为EOC-2;第3类指车辆版本和功能不同,如原始车辆变化为运输车、侦察车等,记为EOC-3。实验用到的全部数据集大小见表1,其中目标域数据集的SOC数据集、EOC测试集见表2—5mine;c(Losscls +   Lossdd)  > 0mine;dLossda实验中,通过在一个批次(batch)的训练中交替执行(惩罚因子)和以使模型各部分平滑收敛,具体的参数设置见表6,其中学习率随着训练轮次的增加逐渐减小,如式(13)所示。实验在Linux 3.10.0系统下基于Pytorch 1.4.0框架实现,硬件采用Intel(R)Xeon(R) Gold 5218R CPU @ 2.10GHzNVIDIATesla V100S GPUBTR70CNN前向传递CNN后向传递CNN后向传递CNN后向传递BTR70BMP2T72T72:0.000BTR70:1.000BMP2:0.0005 CLRP原理示意图Fig. 5 An overview of CLRPx 期吕小玲等:基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析7lr =lr0 (1 + 10 jepoch)0:75 (13)其中,lr0为初始学习率,j为当前的轮次数,epoch为总的训练轮次数。4.2 消融实验为验证所提方法的有效性,本文利用不同背景下的SAR仿真图像进行训练,在SOC数据集上进行表 1 数据集Tab. 1 Dataset数据集目标类别俯仰角数量源域(仿真)训练集BMP2 17°, 15° 3462BTR70 17°, 15° 3462T72 17°, 15° 3462源域(仿真)测试集BMP2 17°, 15° 864BTR70 17°, 15° 864T72 17°, 15° 864目标域(真实)训练集BMP2 17° 233BTR70 17° 233T72 17° 233目标域(真实)测试集(SOCEOC)BMP2 15°, 17° 1052BTR70 15° 196T72 15°, 17°, 30° 59062 SOC数据集Tab. 2 SOC dataset目标类别目标型号训练集测试集俯仰角数量俯仰角数量BMP2 9563 17° 233 15° 195BTR70 C71 17° 233 15° 196T72 132 17° 233 15° 1963 EOC-1测试集(大俯仰角)Tab. 3 EOC-1 test set (large depression variation)目标类别目标型号俯仰角数量T72 A64 30° 2884 EOC-2测试集(配置变化)Tab. 4 EOC-2 test set (configuration variant)目标类别目标型号俯仰角数量T72S7 15°, 17° 419A32 15°, 17° 572A62 15°, 17° 573A63 15°, 17° 573A64 15°, 17° 5735 EOC-3测试集(版本变化)Tab. 5 EOC-3 test set (version variant)目标类别目标型号俯仰角数量BMP29566 15°, 17° 428C21 15°, 17° 429812 15°, 17° 426A04 15°, 17° 573T72 A05 15°, 17° 573A07 15°, 17° 573A10 15°, 17° 567BMP2BTR70T72光学图像 MSTAR图像 仿真图像-背景仿真图像-背景仿真图像-背景6 SAR目标光学图像及典型角度下的真实图像和仿真图像Fig. 6 Optical images of SAR targets and the corresponding simulated and real SAR images under typical azimuths and depressions8 雷 达 学 报第x 卷测试,开展了消融实验,以比较MK-MMD多层自适应正则器和域对抗训练模块对模型分类性能的影响。消融实验的结果见表7。为避免单次训练的随机性,每组进行了3次实验,表7记录了3次实验结果的平均准确率及其标准差,其中仿真背景对应4.1节提到的3种仿真背景,表格最后一行指的是同时使用3种背景下的仿真训练集图像。可以看出,本文方法对不同仿真背景SAR图像构成的源域训练集都能有效提升真实样本的分类精度,且除只使用仿真背景图像的情况外,本文方法优于只使用多层MK-MMD自适应正则器或只采用域对抗训练的方法。对于在只使用仿真背景图像时本文方法未能达到最好性能这一现象,笔者认为可能是由仿真软件自动生成的背景与目标所处的实际背景差异较大,直接由仿真背景样本训练得到的模型对实测数据的分类性能较差,只有28.00%左右的准确率。对于本文实验中的3分类任务,仿真背景图像似乎未能为该任务提供正信息,这可能导致训练过程中以MK-MMD为度量缩减域差异时,也拉近了不同域中不同类别样本的距离,进而导致分类准确率提升效果不好,甚至不如只使用域对抗训练方法的提升效果好。4.3 SOC实验与EOC实验为深入评估模型的分类性能,本文在SOCEOC测试集上进行了分类测试,图7,图8给出了利用本文所提方法进行域适应前后的混淆矩阵,其中深色行对应域适应前的识别结果,浅色行对应域适应后。实验结果表明,本文方法能显著提升模型在SOCEOC数据上的分类准确率。表8给出了使用不同仿真背景数据时,本文所提域适应方法和条件域对抗(Conditional DomainAdversarial Network, CDAN)[19]及深度子域对齐(DeepSubdomain Adaptation Network, DSAN)[14]SOC测试集上的准确率对比。实验结果表明,针对不同仿真背景情况下的数据,本文方法都能较好地提升仿真辅助SAR目标分类的准确率,尤其在使用全部仿真背景数据时,本文方法分类准确率显著高于CDANDSAN方法。表明本文方法集成了域对抗训练和域差异度量两种域适应策略,比使用单一域适应策略的方法具有更好的域适配能力。4.4 模型可解释性分析图9给出了使用t-SNE[37]对特征提取器提取到的仿真数据特征和真实数据特征降维可视化的结果,可见本文方法有效地拉近了仿真和真实SAR图像的特征分布。为了对模型的决策机制有更深层次的理解,本文使用LRPCLRP可视化了输入像素对模型决策结果的影响。实验过程中,参照文献[36]的设置,表 6 网络训练过程中参数设置Tab. 6 Parameters for the model training procedure名称参数值batch size 32优化器SGD初始学习率lr0 0.01GRL参数 1惩罚因子 1epoch 500iteration/epoch 357 结合不同背景仿真SAR图像的消融实验结果Tab. 7 Results of ablation experiments with simulation SARimages of different backgrounds仿真背景方法准确率 (%)MK-MMD 域对抗训练①× × 28.00±1.39× √ 47.53±1.39√ × 35.48±0.52√ √ 43.44±2.22②× × 73.20±1.38× √ 77.40±2.18√ × 85.20±1.19√ √ 87.03±1.29③× × 65.07±0.52× √ 65.19±2.89√ × 73.57±0.62√ √ 77.29±1.58全部应用× × 74.79±1.35× √ 83.99±1.19√ × 85.85±2.33√ √ 90.43±0.95类别BMP2 BTR70 T72 Acc (%)BMP2152 20 23 77.95171 2 22 87.69BTR7022 174 0 88.785 191 0 97.45T7258 19 119 60.7125 3 168 85.71平均准确率域适应前75.81域适应后90.297 SOC测试集的混淆矩阵Fig. 7 The confusion matrix of the SOC test setx 期吕小玲等:基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析9z
 ��� rulez+ ��� rule1层卷积层应用,其余的卷积层和全连接层使用。对于最大池化层,将相关性系数重新分配到池化区域内值最大的神经元。相关性传播过程中,忽略偏差和标准化层。首先,在由真实数据训练得到的模型上对LRPCLRP方法进行对比评估,结果如图10、图11所示。图中最左侧一列为输入图像,右侧3列依次为对应类别BMP2, BTR70, T72的解释,其中左上角标注了对应类别的预测得分。LRP生成的解释虽然不具备类别区分性,却能对影响网络决策的区域有一个语义上比较完整的表示,从LRP的解释结果可以看出,影响真实数据分类的关键在于SAR图像中强散射点的分布区域,而这些一般对应于目标中结构或装配复杂的地方,如炮筒、炮台等。CLRP的结果则更有助于理解模型认为不同目标之间的异同之处,从图11可以看出,模型认为BMP2BTR70在背景上更加相似,而BMP2T72在结构上更相似,这也与MSTAR提供的光学图像(6)中反映出来的目标实际结构和所处背景中体现出来的信息一致。从结构上来说,BMP2T72均为履带式车辆且装有圆形炮台和炮筒,BTR70为轮式运输车,没有装配火炮;从背景上来看,BMP2BTR70目标所处的背景相近,而T72与之相异。图12展示了仿真数据训练所得模型对不同背景下仿真图像的LRP解释及对应真值类别的CLRP解释,其中从左至右依次对应仿真背景。可以看出,LRPCLRP解释对于同一目标的不同图像关注区域大体一致,一定程度上可以证明这两种解释方法的有效性和鲁棒性。此外,从图12的解释结果中也可以看出仿真数据训练的模型也学习到了不同目标之间结构上的差异,较少关注背景区域。前文提到,由于仿真图像和真实图像之间的域偏移,直接用仿真数据训练得到的模型对真实数据表 8 使用不同仿真背景数据时,各方法在SOC测试集上的分类准确率对比Tab. 8 Comparison of the classification accuracy on the SOCtest set when using different methods with simulated dataunder different backgrounds训练方法准确率 (%)全部仿真背景仿真背景仿真背景仿真背景③CNN(仅仿真训练集) 75.81 27.77 73.59 59.63CDAN[19] 76.83 41.74 77.85 72.23DSAN[14] 84.84 38.33 88.08 69.67本文域适应方法90.29 41.91 88.76 78.36(a) EOC-1测试集的混淆矩阵(a) The confusion matrix of the EOC-1 test set(b) EOC-2测试集的混淆矩阵(b) The confusion matrix of the EOC-2 test set(c) EOC-3测试集的混淆矩阵(c) The confusion matrix of the EOC-3 test set类别型号BMP2 BTR70 T72 Acc (%)T72 A64137 30 121 42.01144 14 130 45.14类别型号BMP2 BTR70 T72 Acc (%)T72S7174 21 224 53.4687 7 325 77.57A32220 34 318 55.59215 11 346 60.49A62258 75 240 41.88220 30 323 56.37A63294 40 239 41.71238 17 318 55.50A64257 96 220 38.39273 32 268 46.77平均准确率平均准确率域适应前45.79域适应后58.30类别型号BMP2 BTR70 T72 Acc (%)BMP29566321 33 74 75.00318 11 99 74.30C21332 65 32 77.39382 16 31 89.04T72812203 26 197 46.24121 8 297 69.72A04206 69 298 52.01205 32 336 58.64A05215 59 299 52.18193 24 356 62.13A07238 43 292 50.96210 16 347 60.56A10228 56 283 49.91224 23 320 56.44域适应前56.65域适应后66.018 EOC测试集的混淆矩阵Fig. 8 The confusion matrixes of the EOC test set(a) 域适应前(a) Non-adapted(b) 域适应后(b) AdaptedBMP2 仿真BMP2 BTR70 仿真BTR70 T72 仿真T729 使用t-SNE进行特征可视化Fig. 9 Visualization of extracted features using t-SNE10 雷 达 学 报第x 卷分类结果并不理想,本文尝试结合可解释性方法对仿真辅助真实数据分类任务中的域偏移问题给出一个具象的解释。图7所示的混淆矩阵中,在域适应前,T 7 2的目标图像中有相当一部分被误判为BMP2。从这一现象出发,本文使用LRPCLRP分析由仿真数据训练得到的模型(即域适应前的模型)对仿真和真实T72图像判断依据的异同,并结合CLRP进一步分析域适应前后模型对真实T72图像判断依据的变化。图13给出了域适应前的模型对仿真和真实图像的分类结果及对应的解释,其中CLRPT72表示由CLRP分析得到的模型认为输入样本像T72的地方,CLRP可视化图像中左上方标注了对应类别的得分。图13用红色标注出了模型决策依据中存在较大差异的区域,图13(a)中这一区域大致对应T72目标的炮台结构,可以看出,在仿真图像中这一区域散射强度较大,而实测图像中散射较弱,仿真图像训练的网络模型在仿真图像上关注到了该区域特征,而应用到实测图像上则关注不到该区域特征,从而导致误判;图13(b)中差异较大的区域大致对应车头和车尾,实测图像中对应区域的散射强度高于仿真图像,对模型决策造成干扰,从而导致误判。图14给出了域适应前后的模型对真实T72图像判断依据的变化,其中图14(a)对应域适应前后模型决策由错到对的T72样本,图14(b)则对应域适应后模型仍旧给出错误判断的样本。结合图13来看,BMP2BTR70T72BMP2:1.000 BTR70:0.000 T72:0.000BMP2:0.000 BTR70:1.000 T72:0.000BMP2:0.071 BTR70:0.000 T72:0.92910 LRP可视化真实数据训练得到的模型决策依据Fig. 10 Using LRP to visualize the decision basis of the model trained by the real dataBMP2BTR70T72BMP2:0.000 BTR70:1.000 T72:0.000BMP2:1.000 BTR70:0.000 T72:0.000BMP2:0.071 BTR70:0.000 T72:0.92911 CLRP可视化真实数据训练得到的模型决策依据Fig. 11 Using CLRP to visualize the decision basis of the model trained by the real datax 期吕小玲等:基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析11(a) 仿真BMP2图像()及其LRP解释()CLRP解释()(a) Simulated images of BMP2 (top)and the explanations generated byLRP (middle) and CLRP (bottom)(b) 仿真BTR70图像()及其LRP解释()CLRP解释()(b) Simulated images of BTR70 (top)and the explanations generated byLRP (middle) and CLRP (bottom)(c) 仿真T72图像()及其LRP解释()CLRP解释()(c) Simulated images of T72 (top)and the explanations generated byLRP (middle) and CLRP (bottom)12 LRPCLRP可视化仿真数据训练得到的模型决策依据Fig. 12 Using LRP and CLRP to visualize the decision basis of the model trained by the simulated data真实T72图像LRP CLRP-T72 CLRP-BMP2真实T72图像LRP CLRP-T72 CLRP-BMP2仿真T72图像 LRP CLRP-T72 CLRP-BMP2仿真T72图像 LRP CLRP-T72 CLRP-BMP2T72: 0.000 BMP2: 1.000T72: 1.000 BMP2: 0.000(a) 示例1(a) Example 1(b) 示例2(b) Example 2T72: 0.000 BMP2: 0.999T72: 1.000 BMP2: 0.00013 域适应前模型对T72图像的LRPCLRP解释Fig. 13 The predicted results of the T72 images by the model before domain adaptation and thecorresponding explanations generated by LRP and CLRP12 雷 达 学 报第x 卷图14(a)中域适应后的模型小范围修正了关注区域,提取到了炮台等区域的特征,给出了更准确的决策。但对于域适应后仍旧错分的样本,可能是域适应前的关注区域与应该关注的区域偏离较大,使得网络在域适应训练后对该样本的关注区域无法有效修正,反而引入了较多的背景区域,导致网络依然只能给出错误的判别结果。5 结束语本文针对深度学习在SAR目标识别领域面临的标注样本少、标注样本难的问题,提出了一种集成域对抗训练和MK-MMD的无监督域适应方法,以充分利用仿真SAR图像可以快速生成且天然具备标签的优势,实现较高精度的仿真辅助的SAR目标分类。同时,考虑到深度学习可解释性差、可信任程度不足等问题,本文使用可解释性方法LRPCLRP对所提出的模型进行深入分析。结果表明,本文神经网络是通过修正模型关注区域来提升仿真辅助SAR图像分类的性能,具有一定的合理性。但是,从可解释性分析的结果来看,模型并非对所有样本都找到了可靠的决策依据,且当仿真样本训练模型对真实数据直接分类效果较差时(如仿真背景训练的模型),本文方法提升效果不明显,仍旧存在一定的局限性。未来的工作中,考虑从以下两方面继续优化本文方法:(1)本文方法虽然在MSTAR 3分类任务上表现出了不错的提升效果,但目前仿真目标类别较少,缺少在更多类别上的实验验证;(2)本文使用可解性方法分析了模型性能提升的原因,也找到了可能导致仿真和真实图像之间域偏移的目标主要结构,后续将考虑利用解释结果指导仿真方法调整和优化,并利用可解释性方法引导网络训练,帮助网络模型找到可靠的决策依据。参 考 文 献EL-DARYMLI K, MCGUIRE P, POWER D, et al. Targetdetection in synthetic aperture radar imagery: A state-ofthe-art survey[J]. Journal of Applied Remote Sensing, 2013,7(1): 071598. doi: 10.1117/1.JRS.7.071598.[1]CHEN Sizhe, WANG Haipeng, XU Feng, et al. Targetclassification using the deep convolutional networks for SARimages[J]. IEEE Transactions on Geoscience and RemoteSensing, 2016, 54(8): 4806–4817. doi: 10.1109/TGRS.2016.2551720.[2]ZHANG Zhimian, WANG Haipeng, XU Feng, et al.Complex-valued convolutional neural network and itsapplication in polarimetric SAR image classification[J].IEEE Transactions on Geoscience and Remote Sensing,2017, 55(12): 7177–7188. doi: 10.1109/TGRS.2017.2743222.[3]PAN Zongxu, BAO Xianjie, ZHANG Yueting, et al.Siamese network based metric learning for SAR targetclassification[C]. IGARSS 2019 – 2019 IEEE InternationalGeoscience and Remote Sensing Symposium, Yokohama,Japan, 2019: 1342–1345. doi: 10.1109/IGARSS.2019.8898210.[4]董纯柱, 胡利平, 朱国庆, . 地面车辆目标高质量SAR图像快速仿真方法[J]. 雷达学报, 2015, 4(3): 351–360. doi: 10.12000/JR15057.DONG Chunzhu, HU Liping, ZHU Guoqing, et al. Efficientsimulation method for high quality SAR images of complexground vehicles[J]. Journal of Radars, 2015, 4(3): 351–360.doi: 10.12000/JR15057.[5]SONG Qian, CHEN Hui, XU Feng, et al. EM simulationaidedzero-shot learning for SAR automatic targetrecognition[J]. IEEE Geoscience and Remote SensingLetters, 2020, 17(6): 1092–1096. doi: 10.1109/LGRS.2019.2936897.[6]胡利平, 董纯柱, 刘锦帆, . 基于SAR仿真图像的地面车辆非同源目标识别[J]. 系统工程与电子技术, 2021, 43(12):[7]BMP2:1.000 BTR70:0.000 T72:0.000BMP2:0.040 BTR70:0.102 T72:0.858域适应前域适应后域适应前域适应后BMP2:0.702 BTR70:0.059 T72:0.015BMP2:0.999 BTR70:0.001 T72:0.000(a) 域适应后分类正确的T72样本示例及其解释结果(a) An example of T72 which is classified correctlyafter domainadaptation and its explanations(b) 域适应后仍分类错误的T72样本示例及其解释结果(b) An example of T72 which is still classified falselyafter domain adaptation and its explanations14 域适应前后模型对T72真实图像的预测结果及CLRP解释Fig. 14 The predicted results of the real T72 image by the model before and after domain adaptation and thecorresponding explanations generated by CLRPx 期吕小玲等:基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析133518–3525. doi: 10.12305/j.issn.1001-506X.2021.12.13.HU Liping, DONG Chunzhu, LIU Jinfan, et al. Nonhomologoustarget recognition of ground vehicles based onSAR simulation image[J]. Systems Engineering andElectronics, 2021, 43(12): 3518–3525. doi: 10.12305/j.issn.1001-506X.2021.12.13.MALMGREN-HANSEN D, KUSK A, DALL J, et al.Improving SAR automatic target recognition models withtransfer learning from simulated data[J]. IEEE Geoscienceand Remote Sensing Letters, 2017, 14(9): 1484–1488.doi: 10.1109/LGRS.2017.2717486.[8]ZHANG Linbin, LENG Xiangguang, FENG Sijia, et al.Domain knowledge powered two-stream deep network forfew-shot SAR vehicle recognition[J]. IEEE Transactions onGeoscience and Remote Sensing, 2022, 60: 1–15. doi: 10.1109/TGRS.2021.3116349.[9]范苍宁, 刘鹏, 肖婷, . 深度域适应综述: 一般情况与复杂情况[J]. 自动化学报, 2021, 47(3): 515–548. doi: 10.16383/j.aas.c200238.FAN Cangning, LIU Peng, XIAO Ting, et al. A review ofdeep domain adaptation: General situation and complexsituation[J]. Acta Automatica Sinica, 2021, 47(3): 515–548.doi: 10.16383/j.aas.c200238.[10]TZENG E, HOFFMAN J, ZHANG Ning, et al. Deepdomain confusion: Maximizing for domain invariance[EB/OL].https://arxiv.org/abs/1412.3474v1, 2014.[11]LONG Mingsheng, CAO Yue, WANG Jianmin, et al.Learning transferable features with deep adaptationnetworks[C]. The 32nd International Conference onInternational Conference on Machine Learning, Lille,France, 2015: 97–105.[12]LONG Mingsheng, ZHU Han, WANG Jianmin, et al. Deeptransfer learning with joint adaptation networks[C]. The34th International Conference on Machine Learning,Sydney, Australia, 2017: 2208–2217.[13]ZHU Yongchun, ZHUANG Fuzhen, WANG Jindong, et al.D e e p s u b d o m a i n a d a p t a t i o n n e t w o r k f o r i m a g eclassification[J]. IEEE Transactions on Neural Networks andLearning Systems, 2021, 32(4): 1713–1722. doi: 10.1109/TNNLS.2020.2988928.[14]GANIN Y, USTINOVA E, AJAKAN H, et al. Domainadversarialtraining of neural networks[J]. The Journal ofMachine Learning Research, 2016, 17(1): 2096–2030.[15]SAITO K, WATANABE K, USHIKU Y, et al. Maximumc l a s s i f i e r d i s c r e p a n c y f o r u n s u p e r v i s e d d o m a i nadaptation[C]. 2018 IEEE/CVF Conference on ComputerVision and Pattern Recognition, Salt Lake City, USA, 2018:3723–3732. doi: 10.1109/CVPR.2018.00392.[16]PEI Zhongyi, CAO Zhangjie, LONG Mingsheng, et al.Multi-adversarial domain adaptation[C]. The 32nd AAAI[17]Conference on Artificial Intelligence, New Orleans, USA,2018: 3934–3941.DU Zhekai, LI Jingjing, SU Hongzu, et al. Cross-domaingradient discrepancy minimization for unsupervised domainadaptation[C]. 2021 IEEE/CVF Conference on ComputerVision and Pattern Recognition (CVPR), Nashville, USA,2021: 3936–3945. doi: 10.1109/CVPR46437.2021.00393.[18]LONG Mingsheng, CAO Zhangjie, WANG Jianmin, et al.Conditional adversarial domain adaptation[C]. NeuralInformation Processing Systems, Montréal, Canada, 2018:1647–1657.[19]GHIFARY M, KLEIJN W B, ZHANG Mengjie, et al. Deepreconstruction-classification networks for unsuperviseddomain adaptation[C]. The 14th European Conference onComputer Vision, Amsterdam, The Netherlands, 2016:597–613. doi: 10.1007/978-3-319-46493-0_36.[20]BOUSMALIS K, TRIGEORGIS G, SILBERMAN N, et al.Domain separation networks[C]. The 30th InternationalConference on Neural Information Processing Systems,Barcelona, Spain, 2016: 343–351.[21]SANKARANARAYANAN S, BALAJI Y, CASTILLO C D,et al. Generate to adapt: Aligning domains using generativeadversarial networks[C]. 2018 IEEE/CVF Conference onComputer Vision and Pattern Recognition, Salt Lake City,USA, 2018: 8503–8512. doi: 10.1109/CVPR.2018.00887.[22]HUANG Zhongling, PAN Zongxu, and LEI Bin. What,where, and how to transfer in SAR target recognition basedon deep CNNs[J]. IEEE Transactions on Geoscience andRemote Sensing, 2020, 58(4): 2324–2336. doi: 10.1109/TGRS.2019.2947634.[23]WANG Ke, ZHANG Gong, and LEUNG H. SAR targetrecognition based on cross-domain and cross-task transferlearning[J]. IEEE Access, 2019, 7: 153391–153399. doi: 10.1109/ACCESS.2019.2948618.[24]ZHANG Wei, ZHU Yongfeng, and FU Qiang. Adversarialdeep domain adaptation for multi-band SAR imagesclassification[J]. IEEE Access, 2019, 7: 78571–78583. doi: 10.1109/ACCESS.2019.2922844.[25]XU Yongjie, LANG Haitao, NIU Lihui, et al. Discriminativeadaptation regularization framework-based transfer learningfor ship classification in SAR images[J]. IEEE Geoscienceand Remote Sensing Letters, 2019, 16(11): 1786–1790.doi: 10.1109/LGRS.2019.2907139.[26]BACH S, BINDER A, MONTAVON G, et al. On pixel-wiseexplanations for non-linear classifier decisions by layer-wiserelevance propagation[J]. PLoS One, 2015, 10(7): e0130140.doi: 10.1371/journal.pone.0130140.[27]G U J i n d o n g , Y A N G Y i n c h o n g , a n d T R E S P V .Understanding individual decisions of CNNs via contrastivebackpropagation[C]. The 14th Asian Conference on[28]14 雷 达 学 报第x Computer Vision, Perth, Australia, 2018: 119–134. doi: 10.1007/978-3-030-20893-6_8.GRETTON A, SRIPERUMBUDUR B, SEJDINOVIC D,et al. Optimal kernel choice for large-scale two-sampletests[C]. The 25th International Conference on NeuralInformation Processing Systems, Lake Tahoe, USA, 2012:1205–1213.[29]KRIZHEVSKY A, SUTSKEVER I, and HINTON G E.ImageNet classification with deep convolutional neuralnetworks[C]. The 25th International Conference on NeuralInformation Processing Systems, Lake Tahoe, USA, 2012:1097–1105.[30]GOODFELLOW I J, POUGET-ABADIE J, MIRZA M,et al. Generative adversarial nets[C]. The 27th InternationalConference on Neural Information Processing Systems,Montreal, Canada, 2014: 2672–2680.[31]CHOI J, JEONG M, KIM T, et al. Pseudo-labelingcurriculum for unsupervised domain adaptation[C]. The30th British Machine Vision Conference, Cardiff, UK, 2019:67.[32][33] SHU Yang, CAO Zhangjie, LONG Mingsheng, et al.Transferable curriculum for weakly-supervised domainadaptation[C]. The 33rd AAAI Conference on ArtificialIntelligence, Hawaii, USA, 2019: 4951–4958. doi: 10.1609/aaai.v33i01.33014951.SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-CAM: Visual explanations from deep networks via gradientbasedlocalization[C]. 2017 IEEE International Conferenceon Computer Vision (ICCV), Venice, Italy, 2017: 618–626.doi: 10.1109/ICCV.2017.74.[34]Z E I L E R M D a n d F E R G U S R . V i s u a l i z i n g a n dunderstanding convolutional networks[C]. The 13thEuropean Conference on Computer Vision, Zurich,Switzerland, 2014: 818–833. doi: 10.1007/978-3-319-10590-1_53.[35]MONTAVON G, LAPUSCHKIN S, BINDER A, et al.Explaining nonlinear classification decisions with deeptaylor decomposition[J]. Pattern Recognition, 2017, 65:211–222. doi: 10.1016/j.patcog.2016.11.008.[36]VAN DER MAATEN L and HINTON G. Visualizing datausing t-SNE[J]. Journal of Machine Learning Research,2008, 9(86): 2579–2605.[37]作 者 简 介吕小玲(1997–),女,四川人,中国科学院空天信息创新研究院在读硕士,研究方向为SAR目标识别。仇晓兰(1982–),女,江苏人,中国科学院空天信息创新研究院研究员,博士生导师,主要研究方向为SAR成像处理、SAR图像理解,担任IEEE高级会员、IEEE地球科学与遥感快报副主编、雷达学报青年编委。俞文明(1980–),男,浙江人,东南大学信息科学与工程学院副研究员,主要研究方向为电磁场数值计算。徐 丰(1982–),男,浙江人,复旦大学信息科学与工程学院教授,主要研究方向为SAR图像解译、电磁散射建模、人工智能,担任IEEE地球科学与遥感快报副主编、IEEE地球科学与遥感学会上海分会主席。第x 期吕小玲等:基于无监督域适应的仿真辅助SAR目标分类方法及模型可解释性分析15

[返回]
上一篇:无人驾驶汽车协同感知信息传输负载优化技术
下一篇:智能反射面辅助雷达通信双功能系统的多载波波形优化方法