あなたは歯科・医療関係者ですか?

WHITE CROSSは、歯科・医療現場で働く方を対象に、良質な歯科医療情報の提供を目的とした会員制サイトです。

日本語AIでPubMedを検索

日本語AIでPubMedを検索

PubMedの提供する医学論文データベースを日本語で検索できます。AI(Deep Learning)を活用した機械翻訳エンジンにより、精度高く日本語へ翻訳された論文をご参照いただけます。
Ann. Neurol..2020 Jul;doi: 10.1002/ana.25839.Epub 2020-07-03.

ディープラーニング対専門家神経眼科医による視床分類

Optic disc classification by deep learning versus expert neuro-ophthalmologists.

  • Valérie Biousse
  • Nancy J Newman
  • Raymond P Najjar
  • Caroline Vasseneix
  • Xinxing Xu
  • Daniel S Ting
  • Léonard B Milea
  • Jeong-Min Hwang
  • Dong Hyun Kim
  • Hee Kyung Yang
  • Steffen Hamann
  • John J Chen
  • Yong Liu
  • Tien Yin Wong
  • Dan Milea
PMID: 32621348 DOI: 10.1002/ana.25839.

抄録

目的:

人工知能ディープラーニングシステムの診断性能を、専門家である神経眼科医の視床外観の分類性能と比較する。

OBJECTIVE: To compare the diagnostic performance of an artificial intelligence deep learning system with that of expert neuro-ophthalmologists in classifying optic disc appearance.

方法:

ディープラーニングシステムは、国際的な19のセンターから集められた14,341枚の眼底写真を用いて訓練され、検証された。このシステムの性能を800枚の新しい眼底写真(正常な視床写真400枚、乳頭浮腫(頭蓋内圧上昇による椎間板浮腫)201枚、その他の視床異常199枚)で評価し、臨床情報なしでランダムに提示された同じ画像を独立してレビューした2人の神経眼科専門医の性能と比較した。レシーバーの動作特性曲線、精度、感度、特異度を算出した。

METHODS: The deep learning system was previously trained and validated on 14,341 ocular fundus photographs from 19 international centers. The performance of the system was evaluated on 800 new fundus photographs (400 normal optic discs, 201 papilledema [disc edema from elevated intracranial pressure], 199 other optic disc abnormalities) and compared with that of two expert neuro-ophthalmologists who independently reviewed the same randomly-presented images without clinical information. Area-under-the-receiver-operating-characteristic-curve, accuracy, sensitivity and specificity were calculated.

結果:

システムは678/800枚(84.7%)の写真を正しく分類しましたが、エキスパート1では675/800枚(84.4%)、エキスパート2では641/800枚(80.1%)の写真を正しく分類しました。このシステムは、正常な椎間板、乳頭腫、およびその他の椎間板異常の検出について、それぞれ、受信機の動作特性曲線の下の面積が0.97(CI 95%、0.96-0.98)、0.96(CI 95%、0.94-0.97)、および0.89(CI 95%、0.87-0.92)であった。本システムの視床分類の精度、感度、特異度は、2人の専門家と同等かそれ以上であった。眼レベルでの学年間一致度は、エキスパート1とエキスパート2の間で0.71(CI 95%、0.67-0.76)、システムとエキスパート1の間で0.72(CI 95%、0.68-0.76)、システムとエキスパート2の間で0.65(CI 95%、0.61-0.70)であった。

RESULTS: The system correctly classified 678/800 (84.7%) photographs, compared with 675/800 (84.4%) for Expert 1 and 641/800 (80.1%) for Expert 2. The system yielded area-under-the-receiver-operating-characteristic-curves of 0.97 (CI 95%, 0.96 - 0.98), 0.96 (CI 95%, 0.94 - 0.97) and 0.89 (CI 95%, 0.87 - 0.92) for the detection of normal discs, papilledema and other disc abnormalities, respectively. The accuracy, sensitivity and specificity of the system's classification of optic discs were similar or better than the two experts. Inter-grader agreement at the eye level was 0.71 (CI 95%, 0.67-0.76) between Expert 1 and Expert 2, 0.72 (CI 95%, 0.68-0.76) between the system and Expert 1, and 0.65 (CI 95%, 0.61-0.70) between the system and Expert 2.

インタープリテーション:

このディープラーニングシステムの視床異常の分類における性能は、少なくとも2人の神経眼科専門医と同等であった。関連する臨床現場での診断補助としてこのシステムを検証するためには、将来の前向きな研究が必要である。この記事は著作権で保護されています。すべての権利を保有しています。

INTERPRETATION: The performance of this deep learning system at classifying optic disc abnormalities was at least as good as two expert neuro-ophthalmologists. Future prospective studies are needed to validate this system as a diagnostic aid in relevant clinical settings. This article is protected by copyright. All rights reserved.

This article is protected by copyright. All rights reserved.