Processing math: 8%
  • 摘要

    针对传统云图检索方法难于获得理想的检索精度且检索效率低的问题,提出了一种基于深度度量学习的云图检索方法。首先设计了残差3D-2D卷积神经网络,以提取云图的空间及光谱特征。鉴于传统基于分类的深度网络所提取的特征可能存在类内差异大、类间差异小的问题,采用三元组训练网络,依据云图之间的相似性将云图映射到度量空间中,以使同类云图在嵌入空间中的距离小于非同类云图。在模型训练时,通过对无损三元组损失函数增加正样本对间距离的约束,改善了传统三元组损失的收敛性能,提高了云图检索的精度。在此基础上,通过哈希学习,将度量空间中的云图特征变换成哈希码,在保证检索精度的条件下提高了检索效率。实验结果表明,在东南沿海云图数据集和北半球区域云图数据集上,本文算法的平均精度均值(mean average precision, mAP)分别达到75.14%和80.14%,优于其他对比方法。

    关键词

    Abstract

    Due to the traditional cloud image retrieval methods are difficult to obtain ideal retrieval accuracy and retrieval efficiency, a cloud image retrieval method based on deep metric learning is proposed. Firstly, a residual 3D-2D convolutional neural network is designed to extract spatial and spectral features of cloud images. Since the features extracted by the traditional classify-based deep network may have greater differences intra-classes than inter-classes, the triplet strategy is used to train the network, and the cloud images are mapped into the metric space according to the similarity between cloud images, so that the distance of similar cloud images in the embedded space is smaller than that of non-similar cloud images. In model training, the convergence performance of traditional triplet loss is improved and the precision of cloud image retrieval is increased by adding a constraint on the distance between positive sample pairs to the lossless triplet loss function. Finally, through hash learning, the cloud features in the metric space are transformed into hash codes, so as to ensure the retrieval accuracy and improve the retrieval efficiency. Experimental results show that the mean average precision (mAP) of the proposed algorithm is 75.14% and 80.14% for the southeast coastal cloud image dataset and the northern hemisphere cloud image dataset respectively, which is superior to other comparison methods.

    Keywords

  • 随着人脑视觉感知机制研究的兴起,深度学习在各领域异军突起,特别是深度卷积神经网络(deep convolutional neural networks,DCNN)在图像分类[]、检索[]和分割[]等领域都得到了广泛的应用。区别于传统自然图像,卫星云图具有多波段特点,当使用传统二维卷积神经网络(2D convolutional neural networks,2D CNN)提取特征时,难以有效刻画云图的波段信息。受Roy等人在高光谱图像分类工作[-]的启发,本文通过构建残差三维-二维卷积神经网络(residual 3D-2D convolutional neural network,R3D-2D CNN),提出了一种基于深度度量学习的卫星云图检索方法。该方法首先利用三维卷积和二维卷积分别提取云图的光谱信息和空间信息,以空谱联合特征捕捉的策略表征云图蕴含的气象语义信息。在此基础上,针对部分云图在特征空间存在类内差异大类间差异小的问题,采用深度度量学习[-](deep metric learning,DML),通过三元组训练方法[],将云图映射到度量空间中,使得样本特征间的距离满足检索的要求。同时,鉴于传统三元组损失易使模型落入局部最优的情况,本文对三元组损失函数进行改进,在解决早熟收敛问题的同时,进一步拉近相似云图在嵌入空间中的距离,并引入哈希学习以汉明距离计算云图间的相似度,从而在保证检索精度的情况下提高了检索效率。

    气象卫星能从空中监测不同尺度的天气现象,其所获取的卫星云图对于天气分析与预报均有重要的作用。近年来,随着气象卫星技术的发展,卫星云图的空间光谱分辨率和采集频率不断提高,如何管理海量的卫星云图,设计高效的云图检索系统成为困扰气象工作者的难题。卫星云图检索属于图像检索范畴,主要包括基于文本的图像检索(text-based image retrieval,TBIR)和基于内容的图像检索(content-based image retrieval,CBIR)。由于TBIR需耗费大量时间进行标注,CBIR已成为图像检索的主流技术,并在云图检索中得到应用。徐坚[]设计了一个基于颜色和纹理特征的云图检索系统,提高了云图特征的表达能力;上官伟[]通过提取云图的形状特征,并对特征加权提高了检索精度;李秀馨[]利用模糊C均值聚类分割出各云系后,提取云系特征,进一步改善了对于云系的表征能力;徐晔晔[]结合Otsu和改进分形维数算法首先对云系进行分割,并利用多特征融合实现了红外云图检索。虽然上述方法在云图检索性能上各有优势,但均采用人工定义的底层特征来表征云图,难以捕获云图蕴含的气象语义信息,且特征维度往往较高,算法的计算复杂度不容忽视。

    在此基础上,为了刻画完整的天气系统,本文参考云图数据集LSCIDMR[]的构建方法,以1000 pixels×1000 pixels大小的滑动窗口对Himawari-8的北半球云图进行截取,并参照LSCIDMR的标注将所截取的云图标注为热带飓风、锋面、西风急流、雪等不同的天气系统;为了控制算法的计算复杂度,本文将6通道的1000 pixels×1000 pixels的云图缩小为128 pixels×128pixels;为了使不同类别天气系统的云图数量基本均衡,我们筛选了632个时次的锋面云图、628个时次的西风急流云图、717个时次的雪天云图和698个时次的热带飓风云图组成北半球区域云图数据集,图2给出了不同天气系统可见光波段1的云图示例。下文的研究将分别基于东南沿海区域云图数据集和北半球区域云图数据集展开,为了叙述简洁,将它们分别简称为沿海云图数据集和北半球云图数据集。

    本文所选取的Himawari-8气象卫星云图由日本宇宙航空研究开发署的P-Tree系统所发布,研究区域为东经121°~125°,北纬28°~32°的中国东南沿海,时间范围包括2017与2018年每日北京时间10点至11点。我们将全圆盘云图数据依据研究区域的经纬度进行截取,生成大小为81 pixel×81 pixel的不同时刻的6波段云图后组成数据集,并对各云图依据对应气象站的历史天气状况记录进行标注。数据集包括1244个时次的阴天云图、372个时次的晴天云图、1219个时次的雨天云图和792个时次的台风云图,图1为研究区域不同天气状况的可见光波段1的云图示例。

    图 1 不同天气可见光波段1的云图。
    图  1 

    不同天气可见光波段1的云图。

    (a) 阴天;(b) 雨天;(c) 晴天;(d) 台风
    Figure  1. 

    Visible band 1 cloud images of different weather

    (a) Cloudy; (b) Rainy; (c) Fair; (d) Typhoon
    图 2 不同天气系统可见光波段1的云图。
    图  2 

    不同天气系统可见光波段1的云图。

    (a) 雪;(b) 锋面;(c) 西风急流;(d) 热带飓风
    Figure  2. 

    Visible band 1 cloud images of different weather systems.

    (a) Snow; (b) Frontal surface; (c) Westerly jet; (d) Tropical cyclone

    Himawari-8气象卫星是日本发射的新一代静止卫星,其上搭载的成像仪(Advanced Himawari Imager, AHI)较上一代卫星在频带数量、空间分辨率和时间频率方面都有很大改善[]。该卫星具有3个可见光、3个近红外和10个红外观测波段,3个可见光波段中心波长分别为0.46 μm、0.51 μm和0.64 μm,3个近红外波段中心波长分别为0.96 μm、1.6 μm和2.3 μm,10个红外波段中心波长分布于3.9 μm~13.3 μm之间。其中,可见光和近红外波段的云图数据以反射率形式呈现,而红外波段以亮度温度形式呈现,二者可以分别反映云层的厚度和云层的高度[]。如果将不同模态的卫星云图简单融合设计云图检索系统,不仅难于提高检索的准确度,而且将带来额外的计算复杂度。因此传统云图检索算法往往基于3个可见光波段进行设计,这就忽略了能够提供如水/冰相态、粒子大小和光学厚度等云物理参数的其它波段[]的信息。为了综合利用不同波段的信息,本研究选取3个可见光和3个近红外波段的云图数据开展检索系统的研究。

    本模型采用两个时次的同类云图和一个时次的非同类云图组成三元组,开展度量学习训练。三元组通过R3D-2D CNN生成近似哈希码,经过二值化操作转换成哈希码后存储到哈希码库中。在测试阶段,待检索云图的哈希码同云图库中历史云图的哈希码进行比对,并通过计算汉明距离返回检索结果。

    图 3 算法流程图
    图  3 

    算法流程图

    Figure  3. 

    Overall algorithm flow chart

    设卫星云图数据集为I={x1,x2,...,xi,xn}n代表数据集样本的数量,xi为每时次的云图,其对应的天气标签为yi。为了实现云图检索系统,本模型应用哈希函数将卫星云图编码为二值哈希码:{\boldsymbol{h}}:I\to {\left\{-1, 1\right\}}^{K\times n},其中K为哈希码的位数。我们首先构建残差三维–二维卷积神经网络模型以刻画云图的空谱联合特征,然后通过度量学习监督模型训练,提取云图的哈希码特征。图3为算法流程图。

    图 4 残差3D-2D卷积神经网络
    图  4 

    残差3D-2D卷积神经网络

    Figure  4. 

    Residual 3D-2D convolution neural network

    为了提取卫星云图的空间及多波段光谱特征,本文在二维卷积网络的基础上,构建了如图4所示的残差3D–2D卷积神经网络。

    从图中可知,残差3D-2D卷积神经网络分为两个模块:光谱特征学习模块(spectral feature learning)和空间特征学习模块(spatial feature learning)。其中在光谱特征学习模块(图4上半部分)中,为了加快模型收敛并克服网络退化,引入了残差块(Spectral_ResBlock)[]的结构,通过多个残差块,不仅可以提取云图的深层光谱特征,而且通过恒等映射,模型训练时梯度能在高低层间迅速传递,从而促进和规范化模型的训练过程。为有利于云图光谱特征的提取,本文在模型中引入了通道注意力机制。首先通过全局平均池化(global average pooling)和全局最大池化(global max pooling)对特征图进行聚合,之后将聚合的特征图输入一个共享的多层感知机(multilayer perceptron,MLP)来生成对应的特征向量,特征向量按各元素相加并经过sigmoid激活后获得通道注意力权重向量。最后运用权重向量对原始特征图进行加权,以细化特征图中各个通道的权重,使模型关注有意义的通道而削弱对无意义通道的关注度。在提取云图光谱信息的基础上,为了进一步刻画云图的空间信息,该模型通过矩阵变维操作,改变特征图的维度,输入空间特征学习模块。在空间特征学习模块中(图4下半部分),本文以残差块的形式构建二维卷积来提取云图的空间信息。考虑到网络最终以哈希码的形式表示卫星云图,我们采用全局平均池化整合特征图的全局空间信息,并输入神经元个数为K的全连接层,以双曲正切函数(\tanh )作为全连接层的激活函数,获得K位(−1,1)的近似哈希码。

    由于采用传统交叉熵分类损失训练的深度网络难于全面刻画云图间的差异,致使所提取的云图特征会存在类间差异小、类内差异大的情况[]。为了解决这一问题,本文引入度量学习,采用三元组训练将云图特征映射到度量空间,使得在度量空间中同类云图间的距离小于非同类云图。三元组t = \left\{ {\left( {{g^{\text{a}}},{g^{\text{p}}},{g^{\rm{n}}}} \right)} \right\}由锚样本、正样本和负样本组成,其中锚样本ga和正样本gp类别相同,而负样本gn则属于不同类别。在训练时,gagp组成一组正样本对,而gagn组成一组负样本对,通过网络训练,使得正样本对间距离缩小,负样本对间距离扩大[],如图5所示。

    图 5 训练后正样本对间距离缩小,负样本对间距离扩大
    图  5 

    训练后正样本对间距离缩小,负样本对间距离扩大

    Figure  5. 

    After training, the distance of the anchor-positive decreases and the distance of the anchor-negative increases

    Lmetric=i=1D(ln(f(gia)f(gip)22N+1+ε)ln(Nf(gia)f(gin)22N+1+ε))+λi=1Dmax(0,f(gia)f(gip)22β),
    L=i=1Dmax(0,f(gia)f(gip)22f(gia)f(gin)22+σ),
    Lf(gia)=Lf(gip)Lf(gin),

    其中\xi \left( {} \right)代表指示函数,当三元组损失L大于0时为1,其他情况为0。可以看出,三元组损失所训练网络的性能依赖于阈值的设置,当正样本对间的距离与阈值之和小于负样本对间的距离时,梯度为0,模型参数无法得到更新,模型陷入早熟收敛。为解决此问题,Arsenault提出了无损三元组损失[]

    传统三元组度量学习采用哈希码以汉明距离来计算样本间的距离,造成使用三元组损失进行模型训练时梯度难于计算,文献[]对二进制约束进行连续松弛(continuous relaxation),将离散的哈希码转换成近似哈希码(即连续的云图特征向量),经过连续松弛后三元组损失如下:

    式中:D代表三元组的数目,{{g}}_i^{\text{a}}{{g}}_i^{\text{p}} {{g}}_i^{\text{n}} 为锚样本、正样本和负样本,它们经过网络后所生成的近似哈希码分别为f\left( {{{g}}_i^{\text{a}}} \right)f\left( {{{g}}_i^{\text{p}}} \right)f\left( {{{g}}_i^{\text{n}}} \right)\sigma 为最小边际阈值。三元组损失能够抑制类内差异,并扩大非同类云图间的距离。在模型训练时,三元组损失相对于正样本、负样本和锚样本似哈希码的梯度分别为[]

    Lf(gin)=i=1D2(f(gia)f(gin))ζ(L>0),

    式中: N 为哈希码位数的4倍即4K\varepsilon 是一个小正数以避免ln0的出现。由于正样本对间的距离\left\| {f\left( {{{g}}_i^{\text{a}}} \right) - f\left( {{{g}}_i^{\text{p}}} \right)} \right\|_2^2 \in \left( {0,4K} \right),因此\dfrac{{\left\| {f\left( {{{g}}_i^{\text{a}}} \right) - f\left( {{{g}}_i^{\text{p}}} \right)} \right\|_2^2}}{N} \in \left( {0,1} \right)。利用此损失函数,只有当锚样本与正样本间的距离接近0时,损失函数才会达到最小值,因此能解决传统三元组损失的早熟收敛问题。然而,式(5)计算的三元组损失缺少对正样本对间距离的限制,从而可能造成同类云图在嵌入空间中不够紧密[],并降低模型的检索性能。为此,我们在无损三元组损失的基础上对正样本对间的距离进行约束,得到如下所示的损失函数:

    Lf(gip)=i=1D2(f(gip)f(gia))ζ(L>0),
    Lmetric=i=1D(ln(f(gia)f(gip)22N+1+ε)ln(Nf(gia)f(gin)22N+1+ε)),

    式中:\lambda 为平衡参数,而\beta 规定类内相似度的阈值。我们将卫星云图所对应的近似哈希码使用符号函数(sign)进行二值化处理,生成云图对应的哈希码。在云图检索时,通过待检索云图与云图库中历史云图的哈希码的比较,即可返回检索结果。

    式中:L为检索时给定的返回云图数量,m\left( {{x_i}} \right)代表返回结果中与待检索云图{x_i}同类别的云图数量,Q为待检索图像的总数,为了表示简洁,将P_{{\rm{Precision@L}}}统一简写为P@L。式(8)中,AP为每张云图的检索精度均值(average precision, AP),计算方法如下:

    mAP=q=1QAP(xi)Q,

    式中:M\left( {{x_i}} \right)表示在云图数据集中与{x_i}同类别的云图数量,在第j次检索时,当给定返回的云图数量为{L_j}时,系统刚好检索到j个时次的同类别云图。以下将通过实验分析损失函数和哈希码长度对模型性能的影响,并将本文模型与其他检索算法进行比较。

    AP(xi)=1M(xi)j=1M(xi)jLj,

    本文实验的硬件环境为Intel Core i5-10600KF CPU@4.10 GHz,32 GB内存,NVIDIA GeForce RTX 3060,基于Keras和tensorflow框架构建深度网络模型。我们将沿海云图数据集和北半球云图数据集分别按8:2和7:3划分训练集和测试集。对每时次的云图旋转90°、180°和270°以扩增训练集,尽量减轻网络的过拟合问题。参照文献[]的策略将锚样本与容易正样本&困难负样本(easy positive & hard negative)组成三元组,采用自适应矩估计(adaptive moment estimation,Adam)优化器进行网络训练,初始学习率设置为{10^{ - 5}},目标函数中的超参数\lambda \beta 分别设置为0.01和0.002。采用准确率(precision, P)和平均精度均值(mean average precision, mAP)两个指标对检索方法的性能进行评估[]

    PPrecision@L=1Qi=1Qm(xi)L,

    为了评价不同损失函数对于本模型的影响,分别以三元组损失(triplet loss,TL)、无损三元组损失(lossless triplet loss,LTL)和限制正样本对距离的无损三元组损失(constrained lossless triplet loss,C-LTL)作为目标函数对模型进行训练,并比较了采用不同损失函数模型的检索性能。实验中,哈希码长度设为64位,三元组损失中的阈值设定为0.2,实验结果如表1表2所示。

    The model retrieval performance of different loss functions in coastal cloud image dataset

    沿海云图数据集中不同损失函数的模型检索性能

    LossP@5/%P@20/%mAP/%
    TL83.6172.5364.21
    LTL85.9576.0271.64
    C-LTL90.9678.1475.14
    下载: 导出CSV 
    | 显示表格

    The model retrieval performance of different loss functions in the North hemisphere cloud image dataset

    北半球云图数据集中不同损失函数的模型检索性能

    LossP@5/%P@20/%mAP/%
    TL80.5779.4771.23
    LTL87.7082.5573.07
    C-LTL85.2085.6380.14
    下载: 导出CSV 
    | 显示表格

    表1表2可以看出,基于传统三元组损失函数的模型在两个数据集的检索实验中,检索准确率与平均精度均值均不理想,这可能是由于采用传统三元组损失函数时模型早熟收敛落入伪优造成的;采用无损三元组损失的模型在检索准确率及平均精度均值指标上均有所改善,在返回20张云图时,在两个数据集上检索准确率分别提高了3.49%和3.08%。而采用限制正样本对距离的无损三元组损失函数模型,由于对正样本对间的距离施加约束,使得嵌入空间中同类云图的类簇更加紧密,模型的检索性能得到了进一步的提高,在两个数据集上mAP分别达到了75.14%和80.14%。

    图 6 哈希码长度对模型的影响
    图  6 

    哈希码长度对模型的影响

    Figure  6. 

    The effects of the hash code length on model performance

    从上图可以看出,当K=32时,在返回30张云图时,准确率仅为68.69%,虽然随着K值的增大,检索性能会得到改善,然而当K达到64后,模型性能基本趋于稳定。从计算效率上看,K=256时检索一张云图约需1.71 ms,而K=64时检索一张云图仅需0.96 ms,综合考虑检索性能与计算效率,本文将哈希码长度设定为64位。

    不同的哈希码长度会对检索系统的性能产生影响,以沿海云图数据集为例,将哈希码长度K,分别设定为32、64、128和256位,开展检索性能的对比实验,结果如图6所示。

    图 7 多云天气云图实例检索结果
    图  7 

    多云天气云图实例检索结果

    Figure  7. 

    Retrieval results of cloudy weather image

    从上表可以看出,KSH方法的检索性能最不理想,mAP仅有60%左右,这主要是由于KSH所采用的人工定义的特征难于捕捉云图的深层信息;基于深度学习的DLBHS、DSH与Milan方法在获得图像的深度特征后,再生成哈希码,可以有效表征云图的深层信息,因此检索性能有所改善。相较于本文算法,这些基于深度学习方法的检索性能不够理想,一方面是因为在特征提取阶段未能有效刻画云图的光谱信息;另一方面是因为在哈希码生成阶段所采用的相关度量损失函数不够优化。本文方法则通过R3D-2D CNN更好地表征了云图的空间和光谱信息,而且采用改进的无损三元组损失优化了嵌入空间中的样本分布,因此检索性能有了进一步的改善,在沿海云图数据集和北半球云图数据集上,mAP分别达到75.14%和80.14%。

    图 8 西风急流云图实例检索结果
    图  8 

    西风急流云图实例检索结果

    Figure  8. 

    Retrieval results of westerly jet cloud image

    Comparison of retrieval performance between different retrieval methods

    各数据集在不同方法下的检索准确度

    DatasetMethodsmAP/%P@5/%P@10/%P@20/%P@30/%
    沿海云图数据集KSH60.1073.6271.7367.7666.30
    DLBHS72.4476.1975.2874.3572.15
    MiLan68.0973.3872.5471.3770.92
    DSH68.6185.7681.1776.8973.24
    Proposed75.1490.9682.4178.1476.68
    北半球云图数据集KSH60.2768.5368.4367.4166.92
    DLBHS78.1384.6583.7083.0082.71
    MiLan74.9781.3380.6480.1679.85
    DSH70.2269.8672.8073.4073.90
    Proposed80.1485.2085.8485.6384.90
    下载: 导出CSV 
    | 显示表格

    图7可以看出,KSH方法的检索结果不够理想,Top7中包含了雨天云图(rainy);DLBHS、DSH与Milan方法虽然返回的云图均属于多云天气,但没能有效返回相邻时次的相似云图,从视觉表现上看,与待检索云图相似度的排序也不合理,而且返回结果中部分云图的云团形状与纹理表现和待检索云图差异较大;本文方法不仅有效返回了相邻时次的相似云图,而且返回结果大都与待检索云图具有一致的形状与纹理表现。对于北半球云图数据集,选取了2019年4月21日的西风急流云图(Westerly Jet)进行检索实验,结果如图8所示。

    图8可以看出,KSH方法的表现最不理想,返回的云图大都为锋面云图(frontal surface);DSH与Milan方法的返回结果也均包含与待检索云图非同类的锋面云图,虽然DLBHS方法的返回结果均为西风急流云图,但从视觉相似度上看,本文方法的返回结果与待检索云图的相似度排序更加合理。

    为了直观展示本文方法的检索性能,给出了不同方法的检索实例。对于沿海云图数据集,选取2018年1月30日的多云天气云图(cloudy)作为待检索云图,检索结果如图7所示。

    为了验证本文算法的有效性,在沿海云图数据集和北半球云图数据集上开展了与其它检索算法的对比实验,对比算法包括:1) 基于核的监督哈希(kernel-based supervised Hashing,KSH)[];2) 基于深度学习的二进制哈希(DLBHS)[];3) 基于度量学习的深度哈希(metric-learning-based deep Hashing network,MiLan)[];4) 深度监督哈希(deep supervised Hashing,DSH)[]。其中KSH方法采用三个可见光通道叠加后所提取的GIST特征[],DLBHS方法使用VGG16作为特征提取器,所有方法的哈希码长度均为64位,实验结果如表3所示。

    Figure undefined. Overall algorithm flow chart
      . 

    Overall algorithm flow chart

    为了提取多波段卫星云图的光谱和空间信息,本文通过残差3D–2D卷积神经网络来表征卫星云图,同时引入度量学习,采用三元组训练得到云图的哈希码特征,实现云图检索。在模型训练时,通过对无损三元组损失函数增加正样本对间距离的约束,改善了传统三元组损失的收敛性能。实验结果表明,在东南沿海云图数据集和北半球区域云图数据集上,mAP分别达到了75.14%和80.14%,优于其它对比方法;下一步将研究如何更好地利用卫星云图的红外与可见光信息,以提高云图检索方法的性能。

    所有作者声明无利益冲突

  • 参考文献

    [1]

    徐坚. 基于内容的卫星云图检索系统设计与实现[D]. 南京: 河海大学, 2004.

    Xu J. Contented based cloudy satellite images retrieval system design and practice[D]. Nanjing: Hohai University, 2004.

    [2]

    上官伟. 基于内容的卫星云图处理与信息检索技术研究[D]. 哈尔滨: 哈尔滨工程大学, 2008.

    Shangguan W. Research of content-based satellite cloud image processing and information retrieval technology[D]. Harbin: Harbin Engineering University, 2008.

    [3]

    李秀馨. 基于内容的卫星云图检索技术研究[D]. 南京: 南京航空航天大学, 2013.

    Li X X. Research on the technology of content-based satellite cloud image retrieval[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2013.

    [4]

    徐晔烨. 基于多特征的红外云图检索技术研究[D]. 南京: 南京航空航天大学, 2014.

    Xu Y Y. Infrared cloud image retrieval technology research based on multi-feature[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2014.

    展开
  • 期刊类型引用(4)

    1. 郑宗生,霍志俊,高萌,王政翰,周文睆,张月维. 基于类中心优化辅助三元组损失的遥感图像检索. 计算机工程. 2025(05): 305-313 . 百度学术
    2. 郭泽昕,钟国韵,何剑锋,张军. 基于深度学习的超市果蔬检索方法. 计算机与现代化. 2024(04): 60-65 . 百度学术
    3. 杨原,勾万祥,李崇辉,佟帅,张超,张俊章. 白昼红外星图星点提取方法. 空间科学学报. 2024(05): 948-956 . 百度学术
    4. 郝金骁,王龑,郭倩宇,张文强. 早期工作阶段滚动轴承剩余寿命预测算法. 计算机工程. 2024(12): 48-58 . 百度学术

    其他类型引用(2)

  • 版权信息

    版权属于中国科学院光电技术研究所,但文章内容可以在本网站免费下载,以及免费用于学习和科研工作
  • 关于本文

    DOI: 10.12086/oee.2022.210307
    引用本文
    Citation:
    金柱璋, 方旭源, 黄彦慧, 尹曹谦, 金炜. 基于深度度量学习的卫星云图检索[J]. 光电工程, 2022, 49(4): 210307. DOI: 10.12086/oee.2022.210307
    Citation:
    Jin Zhuzhang, Fang Xuyuan, Huang Yanhui, Yin Caoqian, Jin Wei. Satellite cloud image retrieval based on deep metric learning. Opto-Electronic Engineering 49, 210307 (2022). DOI: 10.12086/oee.2022.210307
    导出引用
    出版历程
    • 收稿日期 2021-09-22
    • 修回日期 2022-01-17
    • 网络出版日期 2022-04-19
    • 刊出日期 2022-04-24
    文章计量
    访问数(8479) PDF下载数(969)
    分享:
  • 相关文章

    [1] 吴刚, 葛芸, 储珺, 叶发茂. 面向遥感图像检索的级联池化自注意力研究 [J]. 光电工程, 2022, 49(12): 220029. DOI: 10.12086/oee.2022.220029
    [2] 李涛, 金炜, 符冉迪, 李纲, 尹曹谦. 结合遥感卫星及深度神经决策树的夜间海雾识别 [J]. 光电工程, 2022, 49(9): 220007. DOI: 10.12086/oee.2022.220007
    [3] 江曼, 张皓翔, 程德强, 郭林, 寇旗旗, 赵雷. 融合HSV与方向梯度特征的多尺度图像检索 [J]. 光电工程, 2021, 48(11): 210310. DOI: 10.12086/oee.2021.210310
    [4] 张介嵩, 黄影平, 张瑞. 基于CNN的点云图像融合目标检测 [J]. 光电工程, 2021, 48(5): 200418. DOI: 10.12086/oee.2021.200418
    [5] 陈朋, 任金金, 王海霞, 汤粤生, 梁荣华. 基于深度学习的真实尺度运动恢复结构方法 [J]. 光电工程, 2019, 46(12): 190006. DOI: 10.12086/oee.2019.190006
    [6] 徐亮, 符冉迪, 金炜, 唐彪, 王尚丽. 基于多尺度特征损失函数的图像超分辨率重建 [J]. 光电工程, 2019, 46(11): 180419. DOI: 10.12086/oee.2019.180419
    [7] 唐彪, 金炜, 李纲, 尹曹谦. 结合稀疏表示和子空间投影的云图检索 [J]. 光电工程, 2019, 46(10): 180627. DOI: 10.12086/oee.2019.180627
    [8] 汪荣贵, 姚旭晨, 杨娟, 薛丽霞. 基于深度迁移学习的微型细粒度图像分类 [J]. 光电工程, 2019, 46(6): 180416. DOI: 10.12086/oee.2019.180416
    [9] 罗振杰, 曾国强. 基于改进MTI算法的视频图像空间目标检测 [J]. 光电工程, 2018, 45(8): 180048. DOI: 10.12086/oee.2018.180048
  • LossP@5/%P@20/%mAP/%
    TL83.6172.5364.21
    LTL85.9576.0271.64
    C-LTL90.9678.1475.14
    文章中查看 下载
  • LossP@5/%P@20/%mAP/%
    TL80.5779.4771.23
    LTL87.7082.5573.07
    C-LTL85.2085.6380.14
    文章中查看 下载
  • DatasetMethodsmAP/%P@5/%P@10/%P@20/%P@30/%
    沿海云图数据集KSH60.1073.6271.7367.7666.30
    DLBHS72.4476.1975.2874.3572.15
    MiLan68.0973.3872.5471.3770.92
    DSH68.6185.7681.1776.8973.24
    Proposed75.1490.9682.4178.1476.68
    北半球云图数据集KSH60.2768.5368.4367.4166.92
    DLBHS78.1384.6583.7083.0082.71
    MiLan74.9781.3380.6480.1679.85
    DSH70.2269.8672.8073.4073.90
    Proposed80.1485.2085.8485.6384.90
    文章中查看 下载
[1]

徐坚. 基于内容的卫星云图检索系统设计与实现[D]. 南京: 河海大学, 2004.

Xu J. Contented based cloudy satellite images retrieval system design and practice[D]. Nanjing: Hohai University, 2004.

[2]

上官伟. 基于内容的卫星云图处理与信息检索技术研究[D]. 哈尔滨: 哈尔滨工程大学, 2008.

Shangguan W. Research of content-based satellite cloud image processing and information retrieval technology[D]. Harbin: Harbin Engineering University, 2008.

[3]

李秀馨. 基于内容的卫星云图检索技术研究[D]. 南京: 南京航空航天大学, 2013.

Li X X. Research on the technology of content-based satellite cloud image retrieval[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2013.

[4]

徐晔烨. 基于多特征的红外云图检索技术研究[D]. 南京: 南京航空航天大学, 2014.

Xu Y Y. Infrared cloud image retrieval technology research based on multi-feature[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2014.

[5]

Zhang C J, Li G D, Lei R M, et al. Deep feature aggregation network for hyperspectral remote sensing image classification[J]. IEEE J Select Top Appl Earth Observ Remote Sens, 2020, 13: 5314−5325.

DOI: 10.1109/JSTARS.2020.3020733

[6]

Fang J S, Fu H Z, Liu J. Deep triplet hashing network for case-based medical image retrieval[J]. Med Image Anal, 2021, 69: 101981.

DOI: 10.1016/j.media.2021.101981

[7]

Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation[C]//Proceedings of the 2015 18th International Conference on Medical Image Computing and Computer-Assisted Intervention, 2015: 234–241.

[8]

Roy S K, Krishna G, Dubey S R, et al. HybridSN: exploring 3-D–2-D CNN feature hierarchy for hyperspectral image classification[J]. IEEE Geosci Remote Sens Lett, 2020, 17(2): 277−281.

DOI: 10.1109/LGRS.2019.2918719

[9]

Feng F, Wang S T, Wang C Y, et al. Learning deep hierarchical spatial–spectral features for hyperspectral image classification based on residual 3D-2D CNN[J]. Sensors, 2019, 19(23): 5276.

DOI: 10.3390/s19235276

[10]

Hermans A, Beyer L, Leibe B. In defense of the triplet loss for person re-identification[Z]. arXiv: 1703.07737, 2017. https://doi.org/10.48550/arXiv.1703.07737

[11]

Kaya M, Bilge H Ş. Deep metric learning: A survey[J]. Symmetry, 2019, 11(9): 1066.

DOI: 10.3390/sym11091066

[12]

Schroff F, Kalenichenko D, Philbin J. FaceNet: a unified embedding for face recognition and clustering[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition, 2015: 815–823.

[13]

Bessho K, Date K, Hayashi M, et al. An introduction to Himawari-8/9—Japan’s new-generation geostationary meteorological satellites[J]. J Meteor Soc Jpn Ser II, 2016, 94(2): 151−183.

DOI: 10.2151/jmsj.2016-009

[14]

郁凡, 陈渭民. 双光谱云图的云分类探讨[J]. 南京气象学院学报, 1994, 17(1): 117−124.

Yu F, Chen W M. Research on the cloud classification for the bi-spectrum cloud picture[J]. J Nanjing Inst Meteor, 1994, 17(1): 117−124.

[15]

Bai C, Zhang M J, Zhang J L, et al. LSCIDMR: large-scale satellite cloud image database for meteorological research[J]. IEEE Trans Cybern, 2021.

DOI: 10.1109/TCYB.2021.3080121

[16]

He K M, Zhang X Y, Ren S Q, et al. Deep residual learning for image recognition[C]//Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770–778.

[17]

Huang K K, Ren C X, Liu H, et al. Hyperspectral image classification via discriminative convolutional neural network with an improved triplet loss[J]. Pattern Recogn, 2021, 112: 107744.

DOI: 10.1016/j.patcog.2020.107744

[18]

Roy S, Sangineto E, Demir B, et al. Metric-learning-based deep hashing network for content-based retrieval of remote sensing images[J]. IEEE Geosci Remote Sens Lett, 2021, 18(2): 226−230.

DOI: 10.1109/LGRS.2020.2974629

[19]

Liu H M, Wang R P, Shan S G, et al. Deep supervised hashing for fast image retrieval[C]//Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016: 2064–2072.

[20]

Kim S, Seo M, Laptev I, et al. Deep metric learning beyond binary supervision[C]//Proceedings of the 2017 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 2283–2292.

[21]

Arsenault Marc-Olivier. Lossless Triplet loss[EB/OL]. (2018-02-15). http://coffeeanddata.ca/lossless-triplet-loss.

[22]

Cheng D, Gong Y H, Zhou S P, et al. Person Re-identification by multi-channel parts-based CNN with improved triplet loss function[C]//Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016: 1335–1344.

[23]

Xuan H, Stylianou A, Pless R. Improved embeddings with easy positive triplet mining[C]//Proceedings of the 2020 IEEE Winter Conference on Applications of Computer Vision, 2020: 2463–2471.

[24]

廖列法, 李志明, 张赛赛. 基于深度残差网络的迭代量化哈希图像检索方法[J]. 计算机应用, 2021. doi: 10.11772/j.issn.1001-9081.2021071135.

Liao L F, Li Z M, Zhang S S. Image retrieval method based on deep residual network and iterative quantization hashing[J]. J Comput Appl, 2021. doi: 10.11772/j.issn.1001-9081.2021071135.

[25]

Liu W, Wang J, Ji R R, et al. Supervised hashing with kernels[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition, 2012: 2074–2081.

[26]

Lin K, Yang H F, Hsiao J H, et al. Deep learning of binary hash codes for fast image retrieval[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops, 2015: 27–35.

[27]

Torralba A, Murphy K P, Freeman W T, et al. Context-based vision system for place and object recognition[C]//Proceedings of the Ninth IEEE International Conference on Computer Vision, 2003: 273–280.

基于深度度量学习的卫星云图检索
  • 图  1
  • 图  2
  • 图  3
  • 图  4
  • 图  5
  • 图  6
  • 图  7
  • 图  8
  •   1
基于深度度量学习的卫星云图检索
  • LossP@5/%P@20/%mAP/%
    TL83.6172.5364.21
    LTL85.9576.0271.64
    C-LTL90.9678.1475.14
  • LossP@5/%P@20/%mAP/%
    TL80.5779.4771.23
    LTL87.7082.5573.07
    C-LTL85.2085.6380.14
  • DatasetMethodsmAP/%P@5/%P@10/%P@20/%P@30/%
    沿海云图数据集KSH60.1073.6271.7367.7666.30
    DLBHS72.4476.1975.2874.3572.15
    MiLan68.0973.3872.5471.3770.92
    DSH68.6185.7681.1776.8973.24
    Proposed75.1490.9682.4178.1476.68
    北半球云图数据集KSH60.2768.5368.4367.4166.92
    DLBHS78.1384.6583.7083.0082.71
    MiLan74.9781.3380.6480.1679.85
    DSH70.2269.8672.8073.4073.90
    Proposed80.1485.2085.8485.6384.90
  • 表  1

    沿海云图数据集中不同损失函数的模型检索性能

      1/3
  • 表  2

    北半球云图数据集中不同损失函数的模型检索性能

      2/3
  • 表  3

    各数据集在不同方法下的检索准确度

      3/3