欢迎访问一起赢论文辅导网
本站动态
联系我们

手机:15327302358
邮箱:peter.lyz@163.com

Q Q:
910330594  
微信paperwinner
工作时间:9:00-24:00

机械论文
当前位置:首页 > 机械论文
基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别
来源:一起赢论文网     日期:2022-01-30     浏览数:318     【 字体:

  基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别马  琳①②③      潘宗序*①②③      黄钟泠①②③        冰①②③     胡玉新①②③        晓①②        斌①②③①(中国科学院空天信息创新研究院   北京   100190)(中国科学院空间信息处理与应用系统技术重点实验室   北京   100190)(中国科学院大学   北京   100049)   要:SAR多通道引起的虚假目标与散焦的船舶目标形状纹理特征非常相似,在全孔径SAR图像中难以区分。针对此类虚假目标造成的虚警问题,该文提出一种基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别方法。首先,对复数SAR图像进行幅值计算得到幅度图像,利用迁移学习方法提取幅度图像中的全孔径特征;接着,对复数SAR图像进行子孔径分解获得一系列子孔径图像,然后用栈式卷积自编码器(SCAE)提取子孔径图像中的子孔径特征;最后,将子孔径和全孔径特征进行串联并利用联合特征进行分类。在高分三号超精细条带模式SAR图像上的实验结果表明,该方法可以有效的鉴别船舶目标和多通道虚假目标,与仅使用全孔径特征学习的方法相比准确率提升了16.32%。关键词:合成孔径雷达;深度学习;子孔径特征学习;船舶目标鉴别;多通道虚假目标中图分类号:TN958; TP183 文献标识码:A 文章编号:2095-283X(2021)01-0159-14DOI: 10.12000/JR20106引用格式:马琳潘宗序黄钟泠基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别[J]. 雷达学报,2021, 10(1): 159172. doi: 10.12000/JR20106.Reference format: MA Lin, PAN Zongxu, HUANG Zhongling, et al. Multichannel false-target discrimination inSAR images based on sub-aperture and full-aperture feature learning[J]. Journal of Radars, 2021, 10(1):159172. doi: 10.12000/JR20106.Multichannel False-target Discrimination in SAR Images Based onSub-aperture and Full-aperture Feature LearningMA Lin①②③      PAN Zongxu*①②③      HUANG Zhongling①②③      HAN Bing①②③     HU Yuxin①②③      ZHOU Xiao①②      LEI Bin①②③①(Aerospace Information Research Institute, Chinese Academy of Science, Beijing 100190, China)(Key Laboratory of Technology in Geo-spatial Information Processing and Application System,Beijing 100190, China)(University of Chinese Academy of Sciences, Beijing 100049, China)Abstract: False targets caused by multichannel Synthetic Aperture Radar (SAR) are similar to a defocused shipin both shape and texture, making it difficult to discriminate in the full-aperture SAR image. To address theissue of false alarms caused by such false targets, this paper proposes a multichannel SAR false-targetdiscrimination method based on sub-aperture and full-aperture feature learning. First, amplitude calculation isperformed on complex SAR images to obtain the amplitude images, and transfer learning is utilized to extractthe full-aperture features from the amplitude images. Then, sub-aperture decomposition is performed oncomplex SAR images to obtain a series of sub-aperture images, and the Stacked Convolutional Auto-Encoders  收稿日期:2020-07-23;改回日期:2020-09-09;网络出版:2020-10-09*通信作者: 潘宗序 zxpan@mail.ie.ac.cn        *Corresponding Author: PAN Zongxu, zxpan@mail.ie.ac.cn基金项目:国家自然科学基金(61701478)Foundation Item: The National Natural Science Foundation of China (61701478)责任主编:计科峰     Corresponding Editor: JI Kefeng10卷第1期 雷      Vol. 10No. 120212Journal of Radars Feb. 2021(SCAE) are applied to extract the sub-aperture features from the sub-aperture images. Finally, the sub-aperture and the full-aperture features are concatenated to form the joint features, which are used toaccomplish target discrimination. The accuracy of the method proposed in this paper is 16.32% higher thanthat of the approach only using the full-aperture feature on GF-3 UFS SAR images.Key words: Synthetic Aperture Radar (SAR); Deep learning; Sub-aperture feature learning; Ship targetdiscrimination; Multichannel false-target1    引言合成孔径雷达(Synthetic Aperture Radar, SAR)是一种主动的微波传感器,具备全天时全天候的探测能力和高分辨率成像能力,是实现海洋监测的重要手段之一,在军事和民用领域具有重要的意义[1]。特别是星载SAR系统,同时满足了高分辨率和宽测绘带的需求,能够以较长工作时间运行,在船舶识别检测中被广泛应用。高分三号(GF-3)卫星是我国发射的第1C波段高分辨率卫星,是目前世界上成像模式最多的SAR卫星,具有12种成像模式。GF-3超精细条带(UltraFine Strip-map, UFS)模式与常规的条带模式不同,采用一发双收,即在方位向上有两个接收天线分别接收雷达回波,在该模式下的图像中存在多通道引起的虚假目标。与传统单通道SAR系统方位向欠采样引起的方位模糊不同,该类虚假目标产生的原因主要有两个方面[24](1)方位向信号的非均匀采样。卫星姿态误差导致各子孔径相位中心相对位置发生变化,由此产生的多通道方位向非均匀采样信号不加处理直接进行脉冲压缩将会导致成对虚假目标的出现[2](2)通道间幅相不平衡[3,4]。在实际星载系统中,受工作环境辐射、通道间元器件性能不一致、通道开机时间存在误差等影响,通道间存在幅相不平衡,导致虚假目标的出现。图1给出了GF-UFS图像中多通道虚假目标的示意图,如图1所示多通道引起的虚假目标在方位向上成对出现,并沿真实目标对称分布,且与对应真实目标相比在强度上有一定的衰减。2017Pan等人[5]根据雷达系统参数计算真实目标与多通道虚假目标之间的相对位置[6]来去除虚假目标,但这种方法不能鉴别真实目标和其他目标附近的虚假目标位置的情况。SAR多通道虚假目标的存在给SAR船舶检测带来了巨大的挑战。这些虚假目标相对于海面的亮度很高,在海面这样的低散射区域出现时会被误检,造成虚警。虽然多通道虚假目标与对应真实目标相比在亮度上存在一定的衰减,但与其他非对应的真实目标之间没有明确的亮暗关系,因此无法根据绝对的亮度去鉴别。更为严峻的是,在SAR成像过程中,船舶的运动造成了多普勒参数的改变,进而造成方位向上匹配滤波的失配,因此船舶目标在SAR图像中会产生不同程度的散焦现象[7,8]。在全孔径图像中很难将多通道引起的虚假目标与真实的散焦目标进行区分,这一问题目前尚未得到解决。针对上述问题,本文提出一种基于子孔径与全孔径特征学习的SAR船舶目标鉴别算法,在利用深度卷积神经网络提取全孔径特征的同时,将复数SAR图像进行子孔径分解并利用栈式卷积自编码网络提取子孔径特征,通过子孔径特征所蕴含的鉴别信息实现真实目标和多通道虚假目标的区分,本文的创新点主要体现在:(1) 通过子孔径分解分析真实目标和多通道虚假目标在子孔径图像之间的差异;(2) 提出一种利用栈式卷积自编码网络学习子孔径特征的方法;(3) 利用GF-3数据验证所提方法在区分多通道虚假目标和真实目标,特别是散焦船舶目标上的有效性。本文余下章节安排如下,第2节介绍相关工作;第3节详细介绍本文提出的SAR目标鉴别方法;第4节结合GF-3超精细条带实验数据和部分仿真的散焦数据对本文方法的实验结果进行分析;第5节给出结论。 多通道虚假目标真实目标  1 GF-3 UFS图像中的多通道虚假目标示意图Fig. 1  An example of multichannel false-targetin a GF-3 UFS SAR image160       报 第102    相关工作深度学习方法相较于传统方法具有自动提取特征的优势,已有不少学者将深度神经网络如FasterR-CNN[9], SSD[10]等应用于SAR船舶检测和识别中[1113],取得了很好的效果。针对训练样本不足的问题,文献[14]通过改进网络模型在小样本条件下仍能得到良好的识别效果。然而,上述方法只考虑了目标和背景的幅度差异,SAR图像本身是一种带有相位信息的复数数据,它蕴含了丰富的目标电磁散射信息。文献[15,16]通过复数SAR统计建模的方法进行SAR舰船检测和鉴别。同时,Zhang等人[17]提出的复数卷积网络模型、Huang等人[18]提出的Deep SAR-Net以及Tang等人[19]在改进的孪生网络模型中都使用了复数SAR数据,都是从SAR本身的散射特性出发,深入研究学习SAR成像的物理机制。以上方法仅考虑了全孔径图像中的特征,并未考虑子孔径图像中的特征。全孔径SAR图像提供了高分辨率的细节表征,但在合成孔径过程中却损失了目标其他有用的信息。文献[20]表明子孔径图像分析方法相对于传统技术的主要优势在于,即使在船舶的强度与杂波水平相似的情况下仍能够检测到船舶。目前,利用子孔径图像实现SAR船舶检测的方法主要包括子视图相干法(Sub-Look Cross-cor-relation, SLC)、广义似然比检验(GeneralizedLikelihood Ratio Test, GLRT)[2124],这些方法通过增强目标与杂波之间的对比度来检测船舶,但在复杂场景下这些方法不能将多通道虚假目标与真实目标很好地进行鉴别。因此,为了解决上述问题,本文结合深度学习方法,提出一种基于子孔径与全孔径特征学习的SAR船舶目标鉴别算法(Sub- and Full-apertureFeature Learning, SFFL),实现SAR船舶目标与多通道虚假目标的鉴别。3    基于深度网络的子孔径特征学习目前针对SAR船舶目标鉴别的研究大多基于全孔径幅度图像,并未充分利用复数SAR图像中的信息,使得方法难以区分具有相似视觉特征的真实船舶目标和多通道虚假目标。在SAR成像过程中,目标会随着方位角的变化在不同子孔径图像中呈现不同的散射特性,在子孔径图像中,目标特征将得到更加精细的表征。基于子孔径图像的上述优势,本文提出一种基于深度学习的子孔径特征学习方法,用于解决SAR目标鉴别问题。方法的网络架构如图2所示,网络分为子孔径特征提取和全孔径特征 编码器解码器ResBlock-64ResBlock-128ResBlock-64ResBlock-256ResBlock-512ResBlock-128ResBlock-256ResBlock-512全连接层,Softmax子孔径图像全孔径图像重建子孔径图像复数SAR图像舰船目标虚假目标子孔径特征全孔径特征子孔径分解特征拼接无监督学习迁移层ResBlock-64ResBlock-128ResBlock-64ResBlock-256ResBlock-512ResBlock-128ResBlock-256ResBlock-5127d fc, SoftmaxTerraSAR-XMGD图像预训练网络模型输入输出卷积层BNReLU最大池化层平均池化层Residual Block  2 结合子孔径与全孔径特征学习的网络框架Fig. 2  The detailed implementations of SFFL framework1期 马  琳等:基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别 161提取两部分,通过基于栈式卷积自编码网络的无监督学习方法提取子孔径特征,利用ResNet-18的预训练模型经迁移学习后提取全孔径特征,将子孔径特征和全孔径特征做归一化后进行拼接,之后连接全连接层和softmax层,判断输出目标类别。本章后续安排如下:3.1节本文通过对多通道虚假目标和真实船舶目标作子孔径分解,分析两类目标在子孔径图像中所体现出的特性;3.2节详细阐述利用栈式卷积自编码网络提取子孔径特征的方法;3.3节给出利用迁移学习提取全孔径特征的方法;3.4节介绍特征拼接和分类方法;3.5节对所提方法进行总结。3.1  子孔径分解与分析子孔径图像可以通过对单视复数(Single LookComplex, SLC)SAR图像沿着方位向做子视处理得到,也称为子孔径分解。一般情况下,子孔径分解流程如图3所示[25],首先对原始SAR图像沿着方位向做一维的傅里叶变换转换到距离-多普勒域,通过对距离向幅值取平均估计权重函数,计算权重函数的逆函数并归一化得到纠正函数,将纠正函数作用于多普勒域来消除天线权重的影响,根据所需子孔径数目再对得到的频谱数据进行无重叠的分割,得到多个子频谱,然后对这些子频谱进行加窗处理,以改善相关的点目标响应。由于一个舰船目标所在范围较小,天线权重影响可以忽略不计,本文对频谱直接进行分割,本文所用窗函数为汉明窗(hamming window)。最后,通过傅里叶逆变换,将加窗后的子频谱转换回时域,从而生成所需子孔径图像。经过子孔径分解获得的子孔径图像,它的分辨率会随着子孔径数目的增加而成比例降低。图4比较了高分三号超精细条带模式下真实船舶目标、纯海面、多通道虚假目标切片的全孔径和子孔径图像,第1列为全孔径图像,第25列为4个子孔径图像,图4(a)—图4(d)对应4个真实船舶目标切片,其中图4(b)和图4(c)分别对应聚焦较好的船舶目标和散焦的船舶目标切片,图4(e)对应纯海面切片,图4(f)—图4(h)对应3个多通道虚假目标切片。通过比较图4中的真实和虚假目标可见在全孔径图像上3个真实目标与虚假目标较为接近,难以进行有效地区分。真实目标的子孔径图像,虽然因为子视处理分辨率降低,但在每个子孔径图像中均有目标。虚假目标的能量几乎全部集中在一到两幅子孔径图像中,其他几幅子孔径图像中,虚假目标则呈现出和海杂波相似的特征。以上子孔径图像分析结果表明,真实船舶目标的子孔径图像具有一致性,多通道虚假目标的子孔径图像具有明显的差异性,因此通过提取子孔径图像特征能够实现真实船舶目标和多通道虚假目标的有效区分。3.2  基于子孔径特征学习的卷积自编码网络lxl 1l  1 xl 1yl 1yl 1xl 1xl 1yl 1本文采用基于栈式卷积自编码网络的无监督学习方法提取子孔径图像特征,具体网络结构如图5所示,包含编码和解码两部分。输入子孔径图像,通过编码部分提取嵌入特征,再经过解码部分重建图像,并利用输入图像和重建图像的差异构建网络的损失函数。栈式卷积自编码网络由一组自编码单元堆叠而成,自编码单元由包含卷积层的编码器和包含反卷积层的解码器构成,每个自编码单元的训练方法相同,并采用逐层训练再堆叠的方式来训练整个网络。每层训练时都是一个较浅的自编码单元,在训练第 个自编码单元时,其输入 是第个自编码单元编码的输出, 经过包含卷积层、批归一化层、非线性激活层、下采样层的编码器和包含上采样层、反卷积层、批归一化层、非线性激活层的解码器,得到输出 。训练目标是要使解码器的输出 能够重建 ,训练中通过计算输入图 与重建图 的均方根误差损失,更新网络参数,优化网络模型。 SAR图像方位向傅里叶变换估计权重函数计算、归一化纠正函数频谱分割加窗方位向傅里叶逆变换子孔径图像  3 子孔径分解流程图Fig. 3  Flowchart of sub-aperture decomposition162       报 第10 (a)  真实目标1,全孔径图像(a) Ship 1, SLC image(a1) 真实目标1,子孔径图像1(a1) Ship 1, sub-look 1(a2) 真实目标1,子孔径图像2(a2) Ship 1, sub-look 2(a3) 真实目标1,子孔径图像3(a3) Ship 1, sub-look 3(a4) 真实目标1,子孔径图像4(a4) Ship 1, sub-look 4(b)  真实目标2,全孔径图像(b) Ship 2, SLC image(b1) 真实目标2,子孔径图像1(b1) Ship 2, sub-look 1(b2) 真实目标2,子孔径图像2(b2) Ship 2, sub-look 2(b3) 真实目标2,子孔径图像3(b3) Ship 2, sub-look 3(b4) 真实目标2,子孔径图像4(b4) Ship 2, sub-look 4(c)  真实目标3,全孔径图像(c) Ship 3, SLC image(c1) 真实目标3,子孔径图像1(c1) Ship 3, sub-look 1(c2) 真实目标3,子孔径图像2(c2) Ship 3, sub-look 2(c3) 真实目标3,子孔径图像3(c3) Ship 3, sub-look 3(c4) 真实目标3,子孔径图像4(c4) Ship 3, sub-look 4(d)  真实目标4,全孔径图像(d) Ship 4, SLC image(d1) 真实目标4,子孔径图像1(d1) Ship 4, sub-look 1(d2) 真实目标4,子孔径图像2(d2) Ship 4, sub-look 2(d3) 真实目标4,子孔径图像3(d3) Ship 4, sub-look 3(d4) 真实目标4,子孔径图像4(d4) Ship 4, sub-look 4(e)  纯海面,全孔径图像(e) Sea, SLC image(e1) 纯海面,子孔径图像1(e2) 纯海面,子孔径图像2(e2) Sea, sub-look 2(e3) 纯海面,子孔径图像3(e3) Sea, sub-look 3(e4) 纯海面,子孔径图像4(e4) Sea, sub-look 4(f)  虚假目标1,全孔径图像(f) False target 1,SLC image(f1)  虚假目标1,子孔径图像1(f1) False target 1,sub-look 1(f2)  虚假目标1,子孔径图像2(f2) False target 1,sub-look 2(f3)  虚假目标1,子孔径图像3(f3) False target 1,sub-look 3(f4)  虚假目标1,子孔径图像4(f4) False target 1,sub-look 4(g)  虚假目标2,全孔径图像(g) False target 2,SLC image(g1) 虚假目标2,子孔径图像1(g1) False target 2,sub-look 1(g2) 虚假目标2,子孔径图像2(g2) False target 2,sub-look 2(g3) 虚假目标2,子孔径图像3(g3) False target 2,sub-look 3(g4) 虚假目标2,子孔径图像4(g4) False target 2,sub-look 4(h)  虚假目标3,全孔径图像(h) False target 3,SLC image(h1) 虚假目标3,子孔径图像1(h1) False target 3,sub-look 1(h2) 虚假目标3,子孔径图像2(h2) False target 3,sub-look 2(h3) 虚假目标3,子孔径图像3(h3) False target 3,sub-look 3(h4) 虚假目标3,子孔径图像4(h4) False target 3,sub-look 4(e1) Sea, sub-look 1  4 真实船舶目标、纯海面、多通道虚假目标切片的全孔径图像及其对应子孔径图像Fig. 4  Examples of sublook amplitude for ships (a)(d), sea (e), multichannel false-targets (f)(h) and the relevant amplitude SLC images1期 马  琳等:基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别 163lxl 1Ml 1xl 11;xl 12;···;xl 1Ml 1 jalj卷积层:对于第 个自编码单元,设其输入具有 个通道,记为 ,则通过卷积层后的特征图的第 个通道 按照式(1)进行计算:alj=Ml 1 i=1xl 1iWlij+blj; j= 1;2;···;Ml(1)Wlijblj其中, 和 表示卷积层的卷积核和偏置参数,代表二维卷积操作。批归一化层:批归一化层(Batch Normaliza-tion, BN)通过将输出信号归一化到相同的分布,消除训练过程中由于权重大小导致的梯度消失和爆炸,保证网络的稳定性,加快网络的收敛速度,计算公式如式(2)所示zlj=alj (alj)2(alj)+"+ (2)aljzlj2() ()其中, 表示输入, 表示输出,参数ξ和η通过训练自动学习获得, 和 为求方差和均值操作,ε为趋近0的常数,防止出现分母为0的情况。f()非线性激活层:通过非线性激活函数能提升模型的非线性映射表征能力,加快收敛速度,可写成式(3)形式,其中 代表非线性激活函数,本文采用ReLU非线性激活函数,计算如式(4)所示hlj=f(zlj)(3)f(x)={0; x < 0x; x0(4)下采样层和上采样层:在下采样的过程中,不仅需要保留采样之后的数据,还要保留采样的位置,便于在解码部分能够更好地恢复图像局部特征,下采样和上采样可写成如式(5)和式(6)的形式DS_h=Ds(hl)(5)US_h=Us(DS_h) (6) Ds() Us()其中, 和 分别表示下采样和上采样操作。反卷积层:用于特征图的重建,重建的过程如式(7)所示yl 1i=f0@Ml j=1US_hR(Ql 1ji)+cl 1i1A;i=1;2;···;Ml 1(7) QcR() Q其中, 和 表示反卷积层的卷积核和偏置参数,表示将卷积核 旋转180°。l损失函数计算:将输入图与重建图的均方根误差作为网络的损失,因此,训练第个自编码单元时所用到的损失函数如式(8)所示Loss=Ml 1 i=1xl 1i yl 1i2F(8)各个自编码单元的卷积层设计如表1所示,反卷积层的通道数和卷积核尺寸与卷积层一致。表 1 各个自编码单元的卷积层设计Tab. 1  Design of convolutional layers in each auto-encoder unit自编码单元 通道数 卷积核尺寸1 32 5×52 64 5×53 64 3×34 128 4×4 32×32×114×14×3210×10×648×8×644×4×641×1×12828×28×3232×32×128×28×3214×14×3210×10×648×8×644×4×64重构误差第l层重构误差卷积下采样反卷积上采样重建图像输入图像特征图xl重建特征图xl编码部分解码部分… …  5 基于子孔径特征学习的网络结构Fig. 5  Network structure based on sub-aperture feature learning164       报 第103.3  基于迁移学习的全孔径特征提取由于SAR目标切片的样本过少,直接训练深层网络将会导致严重的过拟合问题,使得网络模型的泛化能力急剧下降,迁移学习方法可以解决小样本问题。借助NWPU-RESISC45数据集与TerraSAR-X标注数据集[26]传递的迁移学习方法,大大缩小了SAR图像与自然光学图像的差距,并且在MSTAR分类任务上具有良好的泛化能力[27]。因此,本文选择采用传递式迁移学习方法提取全孔径特征,迁移学习的流程如图6所示。首先,选择在ImageNet上预先训练的ResNet-18作为初始预训练模型1,然后用NWPU-RESISC45遥感数据集对卷积层进行微调,得到遥感增强模型(预训练模型2)作为第1个迁移源;之后利用与遥感数据集有相似类别的高质量TerraSAR-X标注数据集[26]在遥感模型的基础上进行微调,得到预训练模型3作为本文迁移学习的将要应用的迁移源。然后,在预训练模型3上利用少量高分三号超精细条带模式下的影像切片对模型参数进行微调从而得到适用于SAR船舶鉴别任务的模型。TerraSAR-X标注土地覆盖数据集[26]X波段TerraSAR-X卫星[28]收集获得。该数据集选择高分辨率聚束模式、HH极化方式的多视地面距离探测(Multilook Ground range Detected, MGD)产品,分辨率为2.9 m,入射角在20°~50°之间,包含100000多个切片,具有150个类别的层次3级标注。在本文只使用其1级标签,包含移民区、工业设施、公共交通、农田、植被、裸露的地面、水体7类目标。ResNet-18包含4种类型的残差块(ResBlock),分别重复两次,并且分别具有64, 128, 256512个输出特征图,共有17个卷积层和1个全连接层。残差块结构如图7所示,由两层卷积层、BN层和ReLU非线性激活层组成[29]。虽然网络深度越大,学习特征的能力越强,但训练深层的网络会导致梯度弥散/爆炸,无法收敛,即网络层数的增加会导致更大的误差。残差网络(ResNet)通过在原有卷积网络的旁路上叠加恒等映射解决深层网络的退化问题。x设残差网络的输入为 ,则输出通过式(9)计算y=x+f(x) (9) f()其中, 表示卷积操作,在ResNet-18所有卷积层后紧跟一个平均池化层,使得全孔径特征的尺寸与子孔径特征相同。3.4  特征拼接与分类C(x;y) I(x;y) S(x;y)用 表示输入的复数图像, 表示全孔径幅度图像,用 表示经过子孔径分解获得的子孔径图像。利用通过迁移学习方法训练的网络提取全孔径特征,如式(12)所示C(x;y) =A(x;y) +jB(x;y) (10)I(x;y) =A(x;y)2+B(x;y)2(11) φ1(x;y) =F1(I(x;y);1)(12)A(x;y) B(x;y) F1 F1其中, 和 分别表示复数图像的实部和虚部, 表示全孔径特征提取器,θ1是 中的参数。利用通过栈式卷积自编码网络训练的模型提取子孔径特征,如式(13)所示φ2(x;y) =F2(S(x;y);2)(13)F2 F2其中, 表示子孔径特征提取器,θ2是 中的参数。提取到的全孔径特征和子孔径特征需要进行归一化操作后才能拼接,具体归一化操作如式(14)所示 i(x;y) =φi(x;y) (φi(x;y))2(φi(x;y)) ; i = 1;2 (14)2() ()其中, 和 表示求方差和均值操作。将归一 ImageNet预训练模型1 预训练模型2 预训练模型3 微调 微调 微调 新模型NWPU-RESISC45数据集大量高质量TerraSAR-X标注数据集[26]少量GF-3 UFS目标切片  6 传递式迁移学习方法流程图Fig. 6  Flowchart of transitive transfer learning method1期 马  琳等:基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别 165 1(x;y)  2(x;y)  (x;y)  (x;y)化后的全孔径特征 与子孔径特征沿通道进行拼接,得到新联合特征 ,再将输入到softmax层得到SAR船舶目标的鉴别结果。3.5  总结基于子孔径与全孔径特征学习的SAR船舶目标鉴别方法算法如表2所示。4    实验4.1  实验数据(1) 高分三号数据。本文选取了8幅高分三号超精细条带L1A级图像,图像的相关参数如表3所示,DH极化方式表示信号在水平极化下发射一次,在水平极化和垂直极化下分别接收两次。SLC是单视复数据的简称,是GF-3卫星的一种产品类型。将AIS结合人工标注和确认标记的真实船舶目标和多通道虚假目标,根据标注框的位置和长宽信息裁剪复数数据,切片大小设置为128×128,每个切片包含一个样本。将4幅图像中的70个真实目标样本和70个虚假目标样本按照1:1的比例随机划分为训练集和验证集,训练过程保证样本数量类别均衡。测试集选择剩余4幅图像数据,包含72个真实目标样本,161个多通道虚假目标样本。(2) 仿真散焦数据集。由于多通道虚假目标与散焦的船舶目标在全孔径图像下更加相似,在视觉上更加难以区分,为了进一步验证本文算法的有效性,本文仿真了少量的散焦图像,具体仿真算法流程如图8所示。在目标切片的距离-多普勒域添加二次相位误差,二次相位误差如式(15)∆φ=ax2+c (15)a0>a >  1:2634 a< 1:2634 a其中, 控制相位误差曲线开口的大小,当时,目标会发生轻微的散焦;时,将会产生较为明显的散焦,且散焦程度随 的减小而加剧。∆φ<π/4 ∆φ>π/4,运动目标会发生轻微的散焦,对成像结果的影响可忽略不计; ,运动目标将会根据相位误差的大小产生不同程度的散焦[7,8]。据此,图9给出了5种不同程度散焦的图像及其对应表 2 基于子孔径与全孔径特征学习的算法Tab. 2  SFFL algorithmC(x;y) 输入:复数SAR图像C(x;y) for 所有训练样本  doS(x;y)   (1) 通过子孔径分解获得子孔径图像F2 φ2(x;y)   (2) 训练栈式卷积自编码网络 ,获得子孔径特征S(x;y)     for 子孔径图像  dol      for 所有自编码单元 doyl 1i=F20@Ml 1 i=1xl 1i;21A       计算自编码单元的输出       Loss=Ml 1 i=1xl 1i yl 1i2F       计算损失函数              反向传播,更新参数θ2      end for     end forI(x;y) =A(x;y)2+B(x;y)2   (3) 计算全孔径幅度图像F1 φ1(x;y)   (4) 迁移学习ResNet-18预训练模型 ,微调参数θ1,获得   全孔径特征φ1(x;y) φ2(x;y)   (5) 特征归一化 ,  (x;y)   (6) 特征拼接得到   (7) 计算损失函数(交叉熵)   (8) 反向传播,更新参数θ end for 输出:最终模型表 3 GF-3超精细条带图像参数Tab. 3  The detailed information of GF-3 UFS SAR imagesused in the experiment参数 图像1—图像8成像模式 UFS产品类型 SLC产品级别 L1A级轨道模式 升轨极化方式 DH斜距分辨率(m) 2.55.0方位向分辨率(m) 3幅宽(km) 30像元间距[Rg×Az](m) 1.124×1.729入射角(º) 39.5441.52 C, conv3×3 C, conv3×3 +卷积层BNReLU输入输出  7 残差块结构图Fig. 7  The architecture of residual block (ResBlock)166       报 第10c=21的相位误差曲线,这里选择 。本文对比与多通道虚假目标在视觉上的相似程度,仿真了12个散焦船舶目标并且全部用于测试。4.2  实现细节实验硬件环境:处理器显卡为Tesla K40,两块显存,每块12 G,终端8 G内存,3.2 GHz,英特尔i5处理器,Windows64位环境。软件环境为Torch0.4.0, torchvisions0.1.9, tqdm4.19.1.post1,Python3.6.5, Pillow 4.2.1, tensorboardX 1.12。栈式卷积自编码网络训练使用SGD优化器来进行网络参数迭代更新,并且训练400epoch,初始学习率设置为0.1,权重衰减参数为0.0005。总网络的训练使用Adam优化器,初始学习率设置为0.01。使用Tensorboard监测训练过程,梯度下降更新参数。4.3  评价指标多通道虚假目标与真实目标的鉴别可看作一个二分类问题,混淆矩阵定义如表4。准确率(accuracy),定义为Accuracy=TP+TNTP+TN+FP+FN(16)4.4  实验结果与分析表5为基于子孔径与全孔径特征学习方法(Su-b- and Full-aperture Feature Learning, SFFL)和基于子视图相关的方法(Sub-Look Cross-correla-tion Feature+Support Vector Machine, SLCF+SVM)、子孔径特征的学习方法(Sub-apertureFeature Learning, SFL)、全孔径特征学习方法(Full-aperture Feature Learning, FFL)的对比结果,实验对比结果显示,仅使用子孔径特征比仅使用全孔径特征可以取得更好的结果。与SFL方法和表 4 二分类问题混淆矩阵Tab. 4  Confusion matrix of binary classification预测结果 实际为真 实际为假预测为真 TP FP预测为假 FN TN5 不同方法的鉴别性能对比Tab. 5  Comparison of discrimination performance ofdifferent methods实验方法 准确率(%) 运行时间(s)SLCF+SVM 90.56 0.8823SFL 90.99 4.9824FFL 83.69 4.2189SFFL 96.57 5.3546 复图像数据 方位向FFT添加二次相位误差方位向IFFT仿真的散焦图像  8 散焦图像仿真算法流程图Fig. 8  Flowchart of defocused image simulation algorithm (a)  原始SAR图像(a) OriginalSAR image(b)  散焦图像(a=-0.75)(b) Defocusedimage (a=-0.75)(c)  散焦图像(a=-1.26)(c) Defocusedimage (a=-1.26)(d)  散焦图像(a=-2.81)(d) Defocusedimage (a=-2.81)(e)  散焦图像(a=-3.50)(e) Defocusedimage (a=-3.50)(f)  散焦图像(a=-4.31)(f) Defocusedimage (a=-4.31)(b0 )方位误差曲线(a=-0.75 (b0 Azimuth errorcurve (a=-0.75 (c0) 方位误差曲线(a=-1.26)(c0) Azimuth errorcurve (a=-1.26)(d0) 方位误差曲线(a=-2.81)(d0) Azimuth errorcurve (a=-2.81)(e0) 方位误差曲线(a=-3.50)(e0) Azimuth errorcurve (a=-3.50)(f0)  方位误差曲线(a=-4.31)(f0) Azimuth errorcurve (a=-4.31)数值 (rad)3020100-10-20-30-40-4 -2 0 2 4方位时间 (s)3020100-10-20-30-40-4 -2 0 2 4方位时间 (s)3020100-10-20-30-40-4 -2 0 2 4方位时间 (s)3020100-10-20-30-40-4 -2 0 2 4方位时间 (s)3020100-10-20-30-40-4 -2 0 2 4方位时间 (s)  9 不同程度散焦图像及其对应方位误差曲线图Fig. 9  Different degrees of defocused images and their corresponding azimuth error curves1期 马  琳等:基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别 167FFL方法相比,SFFL方法的运行时间略有增加,但其在多通道虚假目标鉴别任务中可以获得最高的准确率。它们的混淆矩阵如表6所示,对于测试集的161个虚假目标,FFL方法识别出其中的126个,SFFL方法识别出156个,可见结合子孔径特征和全孔径特征的方法能够更有效的识别虚假目标。FFLSFFL方法的准确率分别为83.69%96.57%,表明子孔径特征的利用能显著的提升准确率。FFLSFFL方法在原图中的分类结果如图10所示,红色圆圈代表多通道虚假目标,黄色方框代表真实目标,FFL方法将其中4个多通道虚假目标错分为真实目标,SFFL方法中9个多通道虚假目标与4个真实目标均被正确分类。同时,本文也利用t-SNE对两种鉴别方法的结果进行可视化,即将两种方法的输出特征映射到二维平面上,图中的紫色点和红色点分别表示真实船舶目标和多通道虚假目标。从分类效果可视化图11中可以看出,多数多通道虚假目标与真实的船舶目标在全孔径特征空间混在一起无法正确区分,如图11(a)所示,而同时利用子孔径特征与全孔径特征时多通道虚假目标和真实目标可以进行有效的区分,如图11(b)所示。对于两个多通道虚假目标,图12比较了FFLSFFL方法预测两个样本为虚假目标的置信度。由结果所知,基于子孔径特征学习的方法预测概率均在0.9以上,远高于FFL方法的预测结果,证明了本文方法在区分真实目标和多通道虚假目标上的有效性。由于在真实情况下,动目标在SAR成像过程中会出现一定程度的散焦,因此,本文在测试集上添加了仿真散焦船舶目标,图13(a)展示了真实聚焦的船舶目标,在轮廓、纹理特征上非常相似的仿真的船舶目标图13(c)和多通道虚假目标图13(b),其中图13(c)仿真目标是由真实聚焦的船舶目标图13(a)按照本文所提的仿真方法获得,仿真参数为a=3.8, c=21FFLSFFL方法在新测试集上的准确率比较如表7所示,在加入仿真散焦数据后,FFL方法的准确率由83.69%下降到80.41%SFFL方法的准确率由96.57%提高到96.73%,该实验结果进一步验证了子孔径特征在区分多通道虚假目标上的优势。本文还探究了子孔径数目对SFFL方法的影响,图14比较了不同子孔径数目下SFFL方法的准确率,从图中可以观察到,子孔径数目取4时方法表 6 不同方法的混淆矩阵Tab. 6  Confusion matrix of different methods方法 预测结果 识别结果实际为真 识别结果实际为假SLCF+SVM预测为真 70 20预测为假 2 141SFL预测为真 68 17预测为假 4 144FFL预测为真 69 35预测为假 3 126SFFL预测为真 69 5预测为假 3 156 (a)  真实值(a) Ground truth(b) FFL 分类结果(b) Results of FFL(c) SFFL分类结果(c) Results of SFFL多通道虚假目标 真实目标  10 原图分类结果比较Fig. 10  Comparison of FFL and SFFL results in the original image168       报 第10卷取得了最优的准确率,当子孔径数目大于4时,准确率会有所下降,这是由于随着子孔径数目的增多,子孔径图像的分辨率会降低,可分辨的细节特征也会相应地减少,因而当子孔径的数目过多时,会影响方法的识别率;当子孔径数目小于4时,方法也未达到最佳的识别性能,这是因为子孔径数目过少,子孔径分解得不够精细,子孔径图像所能提供的额外有效信息被隐藏,可进行鉴别的差异性特征也会减少,方法的识别率无法达到最佳。由上述结果可知子孔径数目的确定需在子孔径分解的精细程度和子孔径图像的分辨率之间折中,根据实验结果,本文将子孔径数目设为45    结论针对多通道虚假目标与真实目标在全孔径图像表 7 加入散焦数据结果对比(%)Tab. 7  Comparison of two methods after adding defocus data (%)测试数据 FFL方法准确率 SFFL方法准确率GF-3数据 83.69 96.57GF-3数据+仿真散焦数据 80.41 96.73 (a)  全孔径特征可视化结果(a) FFL visualization results(b)  结合子孔径特征与全孔径特征可视化结果(b) SFFL visualization resultsMulti-channel false targetShip targetMulti-channel false targetShip target  11 t-SNE降维特征可视化结果比较Fig. 11  Comparison of FFL and SFFL visualization results using t-SNE (a)  多通道虚假目标1(a) Multichannel false-target 1(b)  多通道虚假目标2(b) Multichannel false-target 2FFL 给出的置信度:0.4440SFFL给出的置信度:0.9061标签:多通道虚假目标FFL 给出的置信度:0.0718SFFL给出的置信度:0.9320标签:多通道虚假目标  12 纹理特征与真实目标相似的多通道虚假目标切片鉴别结果详细说明Fig. 12  The elaborate explanation of the discrimination results of multichannel false-targets similar to real targets in texture (a)  聚焦目标(a) Focused target(b)  多通道虚假目标(b) Multichannel false-target(c)  仿真散焦目标 ( a=-3.8,  c=21)(c) Simulated defocus target (a=-3.8,  c=21)  13 测试集仿真散焦目标示例Fig. 13  An example of simulated defocus target in test set 准确率 (%)0.960.950.940.930.920.910.900 1 2 3 4 5 6 7 8子孔径数目 (  14 不同子孔径数目下SFFL方法的准确率Fig. 14  Overall accuracy of SFFL method with differentnumbers of sub-apertures1期 马  琳等:基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别 169下识别难的问题,本文首先通过子孔径分解分析了真实目标和多通道虚假目标的子孔径图像分别具备一致性和差异性,然后,基于上述分析结果本文提出了一种结合子孔径和全孔径特征学习的方法,利用栈式卷积自编码网络提取子孔径特征,通过迁移学习的方法提取全孔径特征,最后在高分三号数据上验证了该方法的有效性,与仅用全孔径特征相比,本文方法能更有效地区分多通道虚假目标和真实目标;加入仿真散焦数据后,与仅用全孔径特征相比,本文方法在区分多通道虚假目标上的优势更加明显。参 考 文 献杜兰王兆成王燕复杂场景下单通道SAR目标检测及鉴别研究进展综述[J]. 雷达学报, 2020, 9(1): 3454. doi:10.12000/JR19104.DU Lan, WANG Zhaocheng, WANG Yan, et al. Survey ofresearch progress on target detection and discrimination ofsingle-channel SAR images for complex scenes[J]. Journal ofRadars, 2020, 9(1): 3454. doi: 10.12000/JR19104.[1]吴亮雷斌韩冰卫星姿态误差对多通道SAR成像质量的影响[J]. 测绘通报, 2015, (1): 124130. doi: 10.13474/j.cnki.11-2246.2015.0026.WU Liang, LEI Bin, HAN Bing, et al. The impact ofsatellite attitude error on multi-channel SAR imagequality[J]. Bulletin of Surveying and Mapping, 2015, (1):124130. doi: 10.13474/j.cnki.11-2246.2015.0026.[2]张双喜乔宁邢孟道多普勒频谱模糊情况下的星载方位向多通道高分宽幅SAR-GMTI杂波抑制方法[J]. 雷达学报,2020, 9(2): 295303. doi: 10.12000/JR20005.ZHANG Shuangxi, QIAO Ning, XING Mengdao, et al. Anovel clutter suppression approach for the space-bornemultiple channel in the azimuth high-resolution and wide-swath SAR-GMTI system with an ambiguous Dopplerspectrum[J]. Journal of Radars, 2020, 9(2): 295303. doi:10.12000/JR20005.[3]ZHANG Shuangxi, XING Mengdao, XIA Xianggen, et al.Multichannel HRWS SAR imaging based on range-variantchannel calibration and multi-Doppler-direction restrictionambiguity suppression[J]. IEEE Transactions on Geoscienceand Remote Sensing, 2014, 52(7): 43064327. doi:10.1109/TGRS.2013.2281329.[4]PAN Zongxu, LIU Lei, QIU Xiaolan, et al. Fast vesseldetection in Gaofen-3 SAR images with ultrafine strip-mapmode[J]. Sensors, 2017, 17(7): 1578. doi: 10.3390/s17071578.[5]DI MARTINO G, IODICE A, RICCIO D, et al. Filtering ofazimuth ambiguity in stripmap synthetic aperture radarimages[J]. IEEE Journal of Selected Topics in Applied EarthObservations and Remote Sensing, 2014, 7(9): 39673978.doi: 10.1109/JSTARS.2014.2320155.[6]温雪娇仇晓兰尤红建高分辨率星载SAR起伏运动目标精细聚焦与参数估计方法[J]. 雷达学报, 2017, 6(2): 213220.doi: 10.12000/JR17005.WEN Xuejiao, QIU Xiaolan, YOU Hongjian, et al. Focusingand parameter estimation of fluctuating targets in highresolution spaceborne SAR[J]. Journal of Radars, 2017,6(2): 213220. doi: 10.12000/JR17005.[7]WEN Xuejiao, QIU Xiaolan, and YOU Hongjian. Focusingand parameter estimating of fluctuating target in highresolution spaceborne SAR[C]. 2016 CIE InternationalConference on Radar, Guangzhou, China, 2016: 15. doi:10.1109/RADAR.2016.8059537.[8]REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with regionproposal networks[J]. IEEE Transactions on PatternAnalysis and Machine Intelligence, 2017, 39(6): 11371149.doi: 10.1109/TPAMI.2016.2577031.[9]LIU Wei, ANGUELOV D, ERHAN D, et al. SSD: Singleshot MultiBox detector[C]. The 14th European Conferenceon Computer Vision, Amsterdam, Holland, 2016. doi:10.1007/978-3-319-46448-0_2.[10]LI Jianwei, QU Changwen, and SHAO Jiaqi. Ship detectionin SAR images based on an improved faster R-CNN[C].2017 SAR in Big Data Era: Models, Methods andApplications, Beijing, China, 2017: 16. doi: 10.1109/BIGSARDATA.2017.8124934.[11]KANG Miao, LENG Xiangguang, LIN Zhao, et al. Amodified faster R-CNN based on CFAR algorithm for SARship detection[C]. 2017 International Workshop on RemoteSensing with Intelligent Processing, Shanghai, China, 2017:14. doi: 10.1109/RSIP.2017.7958815.[12]LIU Lei, CHEN Guowei, PAN Zongxu, et al. Inshore shipdetection in SAR images based on deep neural networks[C].2018 IEEE International Geoscience and Remote SensingSymposium, Valencia, Spain, 2018: 2528. doi: 10.1109/IGARSS.2018.8519555.[13]ZHANG Fan, WANG Yunchong, NI Jun, et al. SAR targetsmall sample recognition based on CNN cascaded featuresand AdaBoost rotation forest[J]. IEEE Geoscience andRemote Sensing Letters, 2020, 17(6): 10081012. doi:10.1109/LGRS.2019.2939156.[14]LENG Xiangguang, JI Kefeng, ZHOU Shilin, et al. Shipdetection based on complex signal kurtosis in single-channelSAR imagery[J]. IEEE Transactions on Geoscience andRemote Sensing, 2019, 57(9): 64476461. doi: 10.1109/TGRS.2019.2906054.[15]LENG Xiangguang, JI Kefeng, ZHOU Shilin, et al.Discriminating ship from radio frequency interference basedon noncircularity and non-gaussianity in sentinel-1 SARimagery[J]. IEEE Transactions on Geoscience and Remote[16]170       报 第10Sensing, 2019, 57(1): 352363. doi: 10.1109/TGRS.2018.2854661.ZHANG Zhimian, WANG Haipeng, XU Feng, et al.Complex-valued convolutional neural network and itsapplication in polarimetric SAR image classification[J].IEEE Transactions on Geoscience and Remote Sensing,2017, 55(12): 71777188. doi: 10.1109/TGRS.2017.2743222.[17]HUANG Zhongling, DATCU M, PAN Zongxu, et al. DeepSAR-Net: Learning objects from signals[J]. ISPRS Journalof Photogrammetry and Remote Sensing, 2020, 161:179193. doi: 10.1016/j.isprsjprs.2020.01.016.[18]TANG Jiaxin, ZHANG Fan, ZHOU Yongsheng, et al. Afast inference networks for SAR target few-shot learningbased on improved siamese networks[C]. 2019 IEEEInternational Geoscience and Remote Sensing Symposium,Yokohama, Japan, 2019: 12121215. doi: 10.1109/IGARSS.2019.8898180.[19]OUCHI K, TAMAKI S, YAGUCHI H, et al. Ship detectionbased on coherence images derived from cross correlation ofmultilook SAR images[J]. IEEE Geoscience and RemoteSensing Letters, 2004, 1(3): 184187. doi: 10.1109/LGRS.2004.827462.[20]MARINO A, SANJUAN-FERRER M J, HAJNSEK I, et al.Ship detection with spectral analysis of synthetic apertureradar: A comparison of new and well-known algorithms[J].Remote Sensing, 2015, 7(5): 54165439. doi: 10.3390/rs70505416.[21]RENGA A, GRAZIANO M D, and MOCCIA A.Segmentation of marine SAR images by sublook analysisand application to sea traffic monitoring[J]. IEEETransactions on Geoscience and Remote Sensing, 2019,57(3): 14631477. doi: 10.1109/TGRS.2018.2866934.[22]BREKKE C, ANFINSEN S N, and LARSEN Y. Subbandextraction strategies in ship detection with the subaperturecross-correlation magnitude[J]. IEEE Geoscience andRemote Sensing Letters, 2013, 10(4): 786790. doi:10.1109/LGRS.2012.2223656.[23]SOUYRIS J C, HENRY C, and ADRAGNA F. On the useof complex SAR image spectral analysis for target detection:Assessment of polarimetry[J]. IEEE Transactions onGeoscience and Remote Sensing, 2003, 41(12): 27252734.doi: 10.1109/TGRS.2003.817809.[24]FERRO-FAMIL L, REIGBER A, POTTIER E, et al. Scenecharacterization using subaperture polarimetric SARdata[J]. IEEE Transactions on Geoscience and RemoteSensing, 2003, 41(10): 22642276. doi: 10.1109/TGRS.2003.817188.[25]DUMITRU C O, SCHWARZ G, and DATCU M. Landcover semantic annotation derived from high-resolutionSAR images[J]. IEEE Journal of Selected Topics in AppliedEarth Observations and Remote Sensing, 2016, 9(6):22152232. doi: 10.1109/JSTARS.2016.2549557.[26]HUANG Zhongling, DUMITRU C O, PAN Zongxu, et al.Classification of large-scale high-resolution SAR images withdeep transfer learning[J]. IEEE Geoscience and RemoteSensing Letters, 2021, 18(1): 107111. doi: 10.1109/LGRS.2020.2965558.[27]TerraSAR-X Basic Product Specification Document,Issue1.9[Online]. http://sss.terrasar-x.dlr.de/pdfs/TX-GS-DD-3302.pdf, 2013.[28]HUANG Zhongling, PAN Zongxu, and LEI Bin. What,where, and how to transfer in SAR target recognition basedon deep CNNs[J]. IEEE Transactions on Geoscience andRemote Sensing, 2020, 58(4): 23242336. doi: 10.1109/TGRS.2019.2947634.[29]作 者 简 介 马 琳(1996),女,河南南阳人,中国科学院空天信息创新研究院硕士研究生,2018年获郑州大学信息工程学院学士学位。主要研究方向为深度学习,SAR图像目标识别研究。潘宗序(1986),男,黑龙江哈尔滨人,2015年获清华大学电子工程系博士学位,现为中国科学院空天信息创新研究院副研究员,硕士生导师。主要研究方向为深度学习在遥感中的应用研究,包括光学和SAR图像中的目标检测与识别,遥感图像质量提升与超分辨率重建,遥感图像语义级分割及精细化解译。 黄钟泠(1994),女,重庆人,中国科学院空天信息创新研究院博士研究生,2015年获北京师范大学信息科学与技术学院学士学位,201810月至20199月赴德国韦斯林德国航空航天中心(DLR)交流学习。主要研究方向为遥感、合成孔径雷达(SAR)目标识别,SAR图像理解和深度学习。韩 冰(1980),女,北京人,2008年获中国科学院研究生院博士学位,现为中国科学院空天信息创新研究院研究员,硕士生导师。主要研究方向为新体制多模式SAR成像算法、面向海洋遥感应用的SAR精细化处理和针对典型目标的SAR遥感信息智能提取等。第1期 马  琳等:基于子孔径与全孔径特征学习的SAR多通道虚假目标鉴别 171胡玉新(1981),男,内蒙古赤峰人,中国科学院电子学研究所获博士学位,现为中国科学院空天信息创新研究院研究员,硕士生导师。主要研究方向为星载SAR信号处理,遥感卫星地面系统、空间信息处理系统体系架构。周 晓(1986),男,辽宁兴城人,2014年获北京大学摄影测量与遥感博士学位,现为中国科学院空天信息创新研究院助理研究员。主要研究方向为高分辨率遥感影像处理与应用,合成孔径雷达图像定标。雷 斌(1978),男,贵州黔西人,2000年获清华大学电机系学士学位,2014年在中国科学院电子学研究所获博士学位,现为中国科学院空天信息创新研究院研究员,博士生导师。主要研究方向为多传感器遥感信息处理系统体系架构设计、SAR 信号并行处理、SAR图像处理与图像质量提升和 SAR系统性能预估与优化等。172       报 第10

[返回]
上一篇:融合极化旋转域特征和超像素技术的极化SAR舰船检测
下一篇:频率添加奇异值分解算法及其在故障特征提取中的应用_赵学智