あなたは歯科・医療関係者ですか?

WHITE CROSSは、歯科・医療現場で働く方を対象に、良質な歯科医療情報の提供を目的とした会員制サイトです。

日本語AIでPubMedを検索

日本語AIでPubMedを検索

PubMedの提供する医学論文データベースを日本語で検索できます。AI(Deep Learning)を活用した機械翻訳エンジンにより、精度高く日本語へ翻訳された論文をご参照いただけます。
Med Image Anal.2019 07;55:88-102. S1361-8415(18)30252-4. doi: 10.1016/j.media.2019.04.005.Epub 2019-04-18.

臓器アテンションネットワークと統計的融合を用いた腹部多臓器セグメンテーション

Abdominal multi-organ segmentation with organ-attention networks and statistical fusion.

  • Yan Wang
  • Yuyin Zhou
  • Wei Shen
  • Seyoun Park
  • Elliot K Fishman
  • Alan L Yuille
PMID: 31035060 DOI: 10.1016/j.media.2019.04.005.

抄録

CT上の腹部臓器の正確でロバストなセグメンテーションは、コンピュータ支援診断やコンピュータ支援手術などの多くの臨床応用に不可欠である。しかし、このタスクは、臓器の境界が弱いこと、背景の複雑さ、異なる臓器の大きさの可変性のために困難である。そこで本研究では、3次元CTボリュームの2次元ビューに適用される逆接続を持つ臓器注目ネットワーク(OAN-RC)を用いて、腹部領域の多臓器セグメンテーションを行うための新しいフレームワークを導入し、構造的類似性を利用した統計的融合による推定値を出力する。具体的には、OANは2段階の深層畳み込みネットワークであり、第1段階で得られた深層ネットワークの特徴を第2段階で元の画像と組み合わせることで、複雑な背景を減らし、対象臓器の識別情報を向上させることができる。直感的には、OANは、各臓器がその局所的な背景から識別するだけでよいように注意を集中させることで、複雑な背景の影響を軽減することができます。RCは第1段階に追加され、下位層により多くの意味情報を与えることで、異なる臓器の大きさに適応できるようにします。我々のネットワークは2Dビュー(スライス)で訓練されているので、全体的な情報を使用することができ、効率的な計算が可能になります(3Dパッチを使用する場合と比較して)。元の3DボリュームCTの限られた断面情報、例えば、隣のスライス間の接続性を補償するために、マルチセクション画像は、3つの異なる2Dビューの方向から再構成されています。次に、統計的融合を用いて異なるビューからのセグメンテーション結果を、2Dビューの構造的類似性と元の3D構造とを関連付ける新しい用語で結合する。ネットワークを訓練し、結果を評価するために、13の構造を4人の人間の評価者によって手動でアノテーションされ、236の正常なケースについて上級専門家によって確認された。我々は4回のクロスバリデーションによりアルゴリズムをテストし、13個の構造の推定値を評価するためにDice-Sørensen類似度係数(DSC)と表面距離を計算した。実験の結果、提案手法は、DSCと平均表面距離の点で、2Dおよび3Dパッチベースの最先端の手法よりも優れた結果を与えることが示された。

Accurate and robust segmentation of abdominal organs on CT is essential for many clinical applications such as computer-aided diagnosis and computer-aided surgery. But this task is challenging due to the weak boundaries of organs, the complexity of the background, and the variable sizes of different organs. To address these challenges, we introduce a novel framework for multi-organ segmentation of abdominal regions by using organ-attention networks with reverse connections (OAN-RCs) which are applied to 2D views, of the 3D CT volume, and output estimates which are combined by statistical fusion exploiting structural similarity. More specifically, OAN is a two-stage deep convolutional network, where deep network features from the first stage are combined with the original image, in a second stage, to reduce the complex background and enhance the discriminative information for the target organs. Intuitively, OAN reduces the effect of the complex background by focusing attention so that each organ only needs to be discriminated from its local background. RCs are added to the first stage to give the lower layers more semantic information thereby enabling them to adapt to the sizes of different organs. Our networks are trained on 2D views (slices) enabling us to use holistic information and allowing efficient computation (compared to using 3D patches). To compensate for the limited cross-sectional information of the original 3D volumetric CT, e.g., the connectivity between neighbor slices, multi-sectional images are reconstructed from the three different 2D view directions. Then we combine the segmentation results from the different views using statistical fusion, with a novel term relating the structural similarity of the 2D views to the original 3D structure. To train the network and evaluate results, 13 structures were manually annotated by four human raters and confirmed by a senior expert on 236 normal cases. We tested our algorithm by 4-fold cross-validation and computed Dice-Sørensen similarity coefficients (DSC) and surface distances for evaluating our estimates of the 13 structures. Our experiments show that the proposed approach gives strong results and outperforms 2D- and 3D-patch based state-of-the-art methods in terms of DSC and mean surface distances.

Copyright © 2019. Published by Elsevier B.V.