あなたは歯科・医療関係者ですか?

WHITE CROSSは、歯科・医療現場で働く方を対象に、良質な歯科医療情報の提供を目的とした会員制サイトです。

日本語AIでPubMedを検索

日本語AIでPubMedを検索

PubMedの提供する医学論文データベースを日本語で検索できます。AI(Deep Learning)を活用した機械翻訳エンジンにより、精度高く日本語へ翻訳された論文をご参照いただけます。
Animal.2020 Jul;:1-7. S1751731120001676. doi: 10.1017/S1751731120001676.Epub 2020-07-14.

バッテリーケージ内の産卵鶏を検出してカウントするマシンビジョンシステム

A machine vision system to detect and count laying hens in battery cages.

  • O Geffen
  • Y Yitzhaky
  • N Barchilon
  • S Druyan
  • I Halachmi
PMID: 32662766 DOI: 10.1017/S1751731120001676.

抄録

大規模な商業用養鶏場では、手動でバッテリーケージ内の鶏の数を数えるのは、時間がかかり、不正確な場合が多いという難題がある。そこで、この研究の目的は、バッテリーケージ内の鶏の数を自動的にカウントするマシンビジョンシステムを開発することでした。鶏を自動的にカウントすることで、規制機関や検査官がケージ内の生きた鳥の数、ひいては動物の密度を推定し、政府の規制や品質認証要件に適合しているかどうかを確認するのに役立ちます。試験鶏舎の長さは 87 m で、37 個のバッテリーケージが構造物の両側に 6 階建ての高さの列に積み上げられていました。各ケージには18~30羽、合計約11,000羽の産卵鶏が収容されています。ケージに沿ってフィーダーが移動する。フィーダーに接続されたアームには、この目的のために開発されたカメラが取り付けられています。広角レンズを使用して、ケージ全体を視野に収めるようにしました。檻の中の雌鶏を検出するために、検出と追跡のアルゴリズムを設計しました。最初の検出後、フィーダーに沿った雌鶏の相対的な位置を追跡アルゴリズムを使用して追跡し、保存した。カメラアームがケージに沿って移動すると、追加フレームごとに情報が追加されました。アルゴリズムのカウントは、人間の観察者(「ゴールドスタンダード」)によるものと比較されます。約2000枚の画像からなる検証データセットでは、ケージレベルで89.6%の精度を達成し、ケージあたりの平均絶対誤差は2.5羽でした。これらの結果は、この研究で開発されたモデルが、バッテリーケージ内の産卵鶏の数をかなり良好に推定するために実用的であることを示しています。

Manually counting hens in battery cages on large commercial poultry farms is a challenging task: time-consuming and often inaccurate. Therefore, the aim of this study was to develop a machine vision system that automatically counts the number of hens in battery cages. Automatically counting hens can help a regulatory agency or inspecting officer to estimate the number of living birds in a cage and, thus animal density, to ensure that they conform to government regulations or quality certification requirements. The test hen house was 87 m long, containing 37 battery cages stacked in 6-story high rows on both sides of the structure. Each cage housed 18 to 30 hens, for a total of approximately 11 000 laying hens. A feeder moves along the cages. A camera was installed on an arm connected to the feeder, which was specifically developed for this purpose. A wide-angle lens was used in order to frame an entire cage in the field of view. Detection and tracking algorithms were designed to detect hens in cages; the recorded videos were first processed using a convolutional neural network (CNN) object detection algorithm called Faster R-CNN, with an input of multi-angular view shifted images. After the initial detection, the hens' relative location along the feeder was tracked and saved using a tracking algorithm. Information was added with every additional frame, as the camera arm moved along the cages. The algorithm count was compared with that made by a human observer (the 'gold standard'). A validation dataset of about 2000 images achieved 89.6% accuracy at cage level, with a mean absolute error of 2.5 hens per cage. These results indicate that the model developed in this study is practicable for obtaining fairly good estimates of the number of laying hens in battery cages.