あなたは歯科・医療関係者ですか?

WHITE CROSSは、歯科・医療現場で働く方を対象に、良質な歯科医療情報の提供を目的とした会員制サイトです。

日本語AIでPubMedを検索

日本語AIでPubMedを検索

PubMedの提供する医学論文データベースを日本語で検索できます。AI(Deep Learning)を活用した機械翻訳エンジンにより、精度高く日本語へ翻訳された論文をご参照いただけます。
Proc. Natl. Acad. Sci. U.S.A..2020 Jul;117(28):16596-16605. 2007018117. doi: 10.1073/pnas.2007018117.Epub 2020-06-24.

サルの前頭頂内ニューロンのフォーマット依存性活動から観察された行動を安定に読み出す

Stable readout of observed actions from format-dependent activity of monkey's anterior intraparietal neurons.

  • Marco Lanzilotto
  • Monica Maranesi
  • Alessandro Livi
  • Carolina Giulia Ferroni
  • Guy A Orban
  • Luca Bonini
PMID: 32581128 DOI: 10.1073/pnas.2007018117.

抄録

ヒトは、網膜画像が大きく動的に変化し、さまざまな視覚提示形式にもかかわらず、観察された行動を正確に識別することができる。霊長類の脳領域の大規模なネットワークは他者の行動の処理に参加しており、前頭頂内野(AIP)は観察された操作的行動(OMA)に関する情報をネットワークの他のノードにルーティングする上で重要な役割を果たしている。本研究では、AIPが異なる視覚フォーマットにおけるOMAの不変なコーディングにも寄与しているかどうかを調べた。本研究では、2頭のマカクのAIPニューロン活動を記録し、7つの操作行動(ドラッグ、ドロップ、把持、プッシュ、ロール、回転、スクイズ)を4つの視覚フォーマットで表現した動画を観察した。それぞれのフォーマットは、俳優の2つの体勢(立っている、座っている)と2つの視点(横方向、正面)を組み合わせたものです。297個の記録ユニットのうち、38%が少なくとも1つのフォーマットでOMA選択的でした。刺激提示後まもなく、視点と俳優の身体姿勢に関する頑健な母集団コードが出現し、OMA選択性が続いた。完全に不変なOMA選択性ニューロンは見つからなかったが、視覚形式に関係なく行動例を分類できる母集団コードを発見した。このコードは、OMAアイデンティティと視覚フォーマットに関する信号の乗算的な混合に依存しており、特に、各フォーマットの視覚的特異性に応じて発火速度が大幅に変化するにもかかわらず、フォーマット間で比較的安定したOMA選択性を維持しているユニットがあることが明らかになった。これらの結果から、AIPはフォーマットに依存した情報と他者の行動の視覚的特徴を統合し、観察された操作的行動の同一性を安定して読み出すことができることが示唆された。

Humans accurately identify observed actions despite large dynamic changes in their retinal images and a variety of visual presentation formats. A large network of brain regions in primates participates in the processing of others' actions, with the anterior intraparietal area (AIP) playing a major role in routing information about observed manipulative actions (OMAs) to the other nodes of the network. This study investigated whether the AIP also contributes to invariant coding of OMAs across different visual formats. We recorded AIP neuronal activity from two macaques while they observed videos portraying seven manipulative actions (drag, drop, grasp, push, roll, rotate, squeeze) in four visual formats. Each format resulted from the combination of two actor's body postures (standing, sitting) and two viewpoints (lateral, frontal). Out of 297 recorded units, 38% were OMA-selective in at least one format. Robust population code for viewpoint and actor's body posture emerged shortly after stimulus presentation, followed by OMA selectivity. Although we found no fully invariant OMA-selective neuron, we discovered a population code that allowed us to classify action exemplars irrespective of the visual format. This code depends on a multiplicative mixing of signals about OMA identity and visual format, particularly evidenced by a set of units maintaining a relatively stable OMA selectivity across formats despite considerable rescaling of their firing rate depending on the visual specificities of each format. These findings suggest that the AIP integrates format-dependent information and the visual features of others' actions, leading to a stable readout of observed manipulative action identity.

Copyright © 2020 the Author(s). Published by PNAS.