あなたは歯科・医療関係者ですか?

WHITE CROSSは、歯科・医療現場で働く方を対象に、良質な歯科医療情報の提供を目的とした会員制サイトです。

日本語AIでPubMedを検索

日本語AIでPubMedを検索

PubMedの提供する医学論文データベースを日本語で検索できます。AI(Deep Learning)を活用した機械翻訳エンジンにより、精度高く日本語へ翻訳された論文をご参照いただけます。
Vision Res..1998 Jul;38(14):2155-79. S0042-6989(97)00428-8. doi: 10.1016/s0042-6989(97)00428-8.

運動テンプレートと眼球速度利得場を用いた方位検出

Heading detection using motion templates and eye velocity gain fields.

  • J A Beintema
  • A V van den Berg
PMID: 9797976 DOI: 10.1016/s0042-6989(97)00428-8.

抄録

眼球や頭部の回転は、直線的な自己運動に対応する網膜の流れパターンにのみチューニングされたセルによってコード化されている場合、知覚される方位に影響を与えるだろう。我々は、回転流の量に合わせてガウシアン調整された運動テンプレートに基づく方位検出のためのモデルを提案する。このような網膜フローテンプレートにより、網膜外信号を明示的に使用して、静止した目で見た頭部中心のフローに調整されたテンプレートを作成することができる。我々のモデルは、「レートコード化された」眼球速度が、特定の網膜流パターンに敏感なテンプレートの応答で乗算される「眼球速度利得場」の中間層を予測する。1つの網膜流テンプレートと眼球速度ゲインフィールドを持つ多数のユニットの活動を組み合わせることで、新しいタイプのユニットが出現する。このユニットの活動は、それによって、眼球回転の量にほぼ不変になる。領域7aに見られる眼球位置ゲインフィールドを有するユニットの運動アナログからの眼球速度ゲインフィールドを有するユニットは、我々の一般的なアプローチによれば、位置をレチノ中心座標から頭中心座標に変換するために必要とされる。回転調整されたテンプレートはまた、回転流のための純粋な視覚的補償を可能にするために、レートコード化された眼球回転の視覚的推定値を提供することができる。我々のモデルは、視覚的な回転信号と同様に、網膜外の回転信号が正しい方位認識において役割を果たすことを示す心理物理学的データと一致している。

Eye or head rotation would influence perceived heading direction if it were coded by cells tuned only to retinal flow patterns that correspond to linear self-movement. We propose a model for heading detection based on motion templates that are also Gaussian-tuned to the amount of rotational flow. Such retinal flow templates allow explicit use of extra-retinal signals to create templates tuned to head-centric flow as seen by the stationary eye. Our model predicts an intermediate layer of 'eye velocity gain fields' in which 'rate-coded' eye velocity is multiplied with responses of templates sensitive to specific retinal flow patterns. By combination of the activities of one retinal flow template and many units with an eye velocity gain field, a new type of unit appears: its preferred retinal flow changes dynamically in accordance with the eye rotation velocity. This unit's activity becomes thereby approximately invariant to the amount of eye rotation. The units with eye velocity gain fields from the motion-analogue of the units with eye position gain fields found in area 7a, which according to our general approach, are needed to transform position from retino-centric to head-centric coordinates. The rotation-tuned templates can also provide rate-coded visual estimates of eye rotation to allow a pure visual compensation for rotational flow. Our model is consistent with psychophysical data that indicate a role for extra-retinal as well as visual rotation signals in the correct perception of heading.