国内最大級の歯科向け情報サイト WHITE CROSSへアクセスしようとしています。

あなたは歯科・医療関係者ですか?

WHITE CROSSは歯科・医療関係者に向けて、良質な歯科医療情報を提供することを目的とした会員制サイトです。
一般の方への情報提供を目的としたサイトではありませんのでご了承ください。

WHITE CROSSは歯科医師の3人に1人が利用する、国内最大級の歯科専門情報サイトです。歯科医師や歯科衛生士、歯科技工士をはじめ、医療関係者の皆様へ最新の歯科医療臨床・経営、ニュース、セミナー情報などを配信しています。

説明可能なAIと自律的適応知性への道。ディープラーニング、適応共鳴、知覚、感情、行動のモデル | 日本語AI翻訳でPubMed論文検索

日本語AIでPubMedを検索

PubMedの提供する医学論文データベースを日本語で検索できます。AI(Deep Learning)を活用した機械翻訳エンジンにより、精度高く日本語へ翻訳された論文をご参照いただけます。
Front Neurorobot.2020;14:36. doi: 10.3389/fnbot.2020.00036.Epub 2020-06-25.

説明可能なAIと自律的適応知性への道。ディープラーニング、適応共鳴、知覚、感情、行動のモデル

A Path Toward Explainable AI and Autonomous Adaptive Intelligence: Deep Learning, Adaptive Resonance, and Models of Perception, Emotion, and Action.

  • Stephen Grossberg
PMID: 32670045 PMCID: PMC7330174. DOI: 10.3389/fnbot.2020.00036.

抄録

脳が心を作る生物学的ニューラルネットワークモデルは、自律的適応知性の理解に役立つ。この論文では、知覚、認知、感情、行動に関するこのようなモデルのダイナミクスと出現特性が説明可能であり、大規模なアプリケーションに自信を持って実装できる理由をまとめている。その説明可能性の鍵となるのは、これらのモデルが高速活性化(短期記憶(STM)の痕跡)と学習済み重み(長期記憶(LTM)の痕跡)をどのように組み合わせているかということである。視覚と聴覚の知覚モデルは、それぞれ表面シュラウド共鳴とストリームシュラウド共鳴の視覚表面と聴覚ストリームの説明可能な意識的STM表現を持っている。ディープラーニングは、データを分類するためにしばしば使用される。しかし、ディープラーニングは壊滅的な忘却を経験することがある。学習のどの段階でも、その記憶の予測不可能な部分が崩壊することがあります。ある程度正確な分類ができたとしても、それは説明がつかないため、自信を持って使うことができません。ディープラーニングはこのような問題をバックプロパゲーションアルゴリズムと共有しており、1980年代にはミスマッチ学習時の非局所的な重み輸送による計算上の問題が記述されていた。ディープラーニングが普及したのは、これらの問題があったにもかかわらず、非常に高速なコンピュータと巨大なオンラインデータベースが利用できるようになってからです。適応共鳴理論(ART)アルゴリズムは、バックプロパゲーションとディープラーニングの計算問題を克服しています。ARTは、教師なし学習と教師あり学習の任意の組み合わせと局所的に計算可能な量のみを使用して漸進的に学習する自己組織化生産システムであり、大規模な非定常データベースを壊滅的な忘却を経験することなく迅速に分類することができます。ARTの分類と予測は、それらが構築されたSTMの出席した重要な特徴パターンを用いて説明可能である。ファジィ ARTMAP アルゴリズムの LTM 適応重みは、どのような特徴の組み合わせが成功した結果を予測するかを説明するファジィ IF-THEN ルールを生成します。ARTは、リモートセンシング、医療データベースの予測、ソーシャルメディアデータのクラスタリングなど、大規模な実世界の複数のアプリケーションで成功裏に利用されています。また、強化学習と認知的感情的相互作用のMOTIVATORモデルや、リーチ、音声生成、空間ナビゲーション、自律的適応知能のVITE、DIRECT、DIVA、SOVEREREIGNモデルも説明可能である。これらの生物学的モデルは、相補的なコンピューティングを例示し、ディープラーニングの問題を回避するマッチ学習とミスマッチ学習に局所法則を用いる。

Biological neural network models whereby brains make minds help to understand autonomous adaptive intelligence. This article summarizes why the dynamics and emergent properties of such models for perception, cognition, emotion, and action are explainable, and thus amenable to being confidently implemented in large-scale applications. Key to their explainability is how these models combine fast activations, or short-term memory (STM) traces, and learned weights, or long-term memory (LTM) traces. Visual and auditory perceptual models have explainable conscious STM representations of visual surfaces and auditory streams in surface-shroud resonances and stream-shroud resonances, respectively. Deep Learning is often used to classify data. However, Deep Learning can experience catastrophic forgetting: At any stage of learning, an unpredictable part of its memory can collapse. Even if it makes some accurate classifications, they are not explainable and thus cannot be used with confidence. Deep Learning shares these problems with the back propagation algorithm, whose computational problems due to non-local weight transport during mismatch learning were described in the 1980s. Deep Learning became popular after very fast computers and huge online databases became available that enabled new applications despite these problems. Adaptive Resonance Theory, or ART, algorithms overcome the computational problems of back propagation and Deep Learning. ART is a self-organizing production system that incrementally learns, using arbitrary combinations of unsupervised and supervised learning and only locally computable quantities, to rapidly classify large non-stationary databases without experiencing catastrophic forgetting. ART classifications and predictions are explainable using the attended critical feature patterns in STM on which they build. The LTM adaptive weights of the fuzzy ARTMAP algorithm induce fuzzy IF-THEN rules that explain what feature combinations predict successful outcomes. ART has been successfully used in multiple large-scale real world applications, including remote sensing, medical database prediction, and social media data clustering. Also explainable are the MOTIVATOR model of reinforcement learning and cognitive-emotional interactions, and the VITE, DIRECT, DIVA, and SOVEREIGN models for reaching, speech production, spatial navigation, and autonomous adaptive intelligence. These biological models exemplify complementary computing, and use local laws for match learning and mismatch learning that avoid the problems of Deep Learning.

Copyright © 2020 Grossberg.