あなたは歯科・医療関係者ですか?

WHITE CROSSは、歯科・医療現場で働く方を対象に、良質な歯科医療情報の提供を目的とした会員制サイトです。

日本語AIでPubMedを検索

日本語AIでPubMedを検索

PubMedの提供する医学論文データベースを日本語で検索できます。AI(Deep Learning)を活用した機械翻訳エンジンにより、精度高く日本語へ翻訳された論文をご参照いただけます。
Sensors (Basel).2023 Sep;23(19).

SARターゲット認識のためのターゲットと影の特徴の統合

Integrating Target and Shadow Features for SAR Target Recognition.

PMID: 37836861

抄録

合成開口レーダ(SAR)センサは、その斜視画像処理により、しばしばターゲットと対になった影を生成します。その結果、SAR画像中の影は、ターゲットの輪郭や相対位置など、分類器にとって重要な識別特徴を提供することができます。しかし、影は低輝度であったり、窪み角度に敏感であったりと、ターゲットとは異なる独特の性質を持っているため、畳み込みニューラルネットワーク(CNN)を用いて影から直接奥行き特徴を抽出することは困難である。本論文では、ターゲットと影の情報を総合的に利用する新しいSAR画像分類フレームワークを提案する。まず、ターゲット領域とシャドウマスクを抽出するためのSAR画像セグメンテーション手法を設計する。次に、SARの投影幾何学に基づき、窪み角度の違いによる影の幾何学的歪みを補正するデータ補正法を提案する。最後に、深さ方向に分離可能な畳み込み(DSC)と畳み込みブロックアテンションモジュール(CBAM)に基づく特徴強調モジュール(FEM)を導入し、ディープネットワークがターゲットと影の特徴を適応的に融合することを可能にする。Moving and Stationary Target Acquisition and Recognition (MSTAR)データセットを用いた実験結果から、ターゲットと影の情報のみを用いる場合、公表されているディープラーニングモデルは、FEMを組み込んでもなお最先端の性能を達成できることが示される。

Synthetic aperture radar (SAR) sensor often produces a shadow in pairs with the target due to its slant-viewing imaging. As a result, shadows in SAR images can provide critical discriminative features for classifiers, such as target contours and relative positions. However, shadows possess unique properties that differ from targets, such as low intensity and sensitivity to depression angles, making it challenging to extract depth features from shadows directly using convolutional neural networks (CNN). In this paper, we propose a new SAR image-classification framework to utilize target and shadow information comprehensively. First, we design a SAR image segmentation method to extract target regions and shadow masks. Second, based on SAR projection geometry, we propose a data-augmentation method to compensate for the geometric distortion of shadows due to differences in depression angles. Finally, we introduce a feature-enhancement module (FEM) based on depthwise separable convolution (DSC) and convolutional block attention module (CBAM), enabling deep networks to fuse target and shadow features adaptively. The experimental results on the Moving and Stationary Target Acquisition and Recognition (MSTAR) dataset show that when only using target and shadow information, the published deep-learning models can still achieve state-of-the-art performance after embedding the FEM.