JP2013201714A - Moving-object image discrimination device and moving-object image discrimination method - Google Patents
Moving-object image discrimination device and moving-object image discrimination method Download PDFInfo
- Publication number
- JP2013201714A JP2013201714A JP2012070165A JP2012070165A JP2013201714A JP 2013201714 A JP2013201714 A JP 2013201714A JP 2012070165 A JP2012070165 A JP 2012070165A JP 2012070165 A JP2012070165 A JP 2012070165A JP 2013201714 A JP2013201714 A JP 2013201714A
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving
- fish
- camera
- discrimination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、移動体の画像判別装置および移動体の画像判別方法に関する。さらに詳しくは、本発明はカメラで撮影した画像に基づいてパターン識別を行い計測の対象を自動判別する移動体の画像判別装置および移動体の画像判別方法に関するものである。 The present invention relates to a moving body image discrimination apparatus and a moving body image discrimination method. More specifically, the present invention relates to a moving body image discriminating apparatus and a moving body image discriminating method for automatically discriminating a measurement target by performing pattern discrimination based on an image photographed by a camera.
近年、温暖化傾向を示しているといわれる気候変化の影響により、日本沿岸の水温が上昇し、これまで日本沿岸に漂着しても冬季に死滅していた熱帯・亜熱帯性の魚類が、越冬して定着する可能性が示されている。また、熱帯産のナルトビエイなどが日本沿岸に北上してアサリやハマグリなどを捕食し、有用な水産資源を脅かしていると懸念されている。懸念されている気候変動や将来の地球温暖化が、このような沿岸生態系の多様性や、水産資源に及ぼす影響を明らかにするために、魚類の生息量調査が行われてきた。また、魚類の生息量調査は、発電所周辺の環境アセスメントや、一般的な環境保全、および漁業振興にとっても、重要な調査活動である。 In recent years, the temperature of the Japanese coast has risen due to the effects of climate change, which is said to indicate a warming trend, and tropical and subtropical fish that have died in the winter even if they have drifted to the coast of Japan have overwintered. The possibility of being established is shown. In addition, there are concerns that naruto ray from the tropics goes north on the coast of Japan and preys on clams and clams, threatening useful marine resources. In order to elucidate the impact of the concerned climate change and future global warming on the diversity of such coastal ecosystems and marine resources, fish habitat surveys have been conducted. The fish habitat survey is also an important research activity for environmental assessment around the power plant, general environmental conservation, and fishery promotion.
現在、このような魚類調査には、研究用底引き網や刺し網を設置して捕獲された生息魚類の種や量を定量する方法、ダイバーが潜水して目視と記録により生息量を推定する方法、水中撮影した動画の魚影をオペレータが判別して魚の種類や量を定量する方法がとられている。 Currently, such fish surveys include methods for quantifying the species and amount of fish that have been captured by installing research nets and stabbed nets, methods for diving a diver and estimating the amount of live by visual and recording, There is a method in which an operator discriminates a fish shadow of a moving image taken underwater and quantifies the type and amount of the fish.
しかしながら、底引き網や刺し網による調査は、調査対象とする魚類の正確な種の同定、重量や全長、場合によって雌雄の別や、性的成熟度など、多様な情報を取得できるという利点を有する一方で、生物資源の減少を引き起こすとともに、刺し網にかからない大型魚種の定量は難しいという欠点を有する。また、スキューバタンクの普及により近年行われるようになったダイバーによる調査法は、大型魚の目視確認や、魚類の実際の行動を観察記録できるという利点を有するが、調査時間が短時間に限られ、かつ観察者の影響で魚類の生息域や行動が変化するという欠点を有する。 However, surveys using bottom nets and gill nets have the advantage of being able to acquire a variety of information such as accurate species identification, weight and total length of the fishes to be investigated, sex and sexual maturity, etc. However, it has the disadvantages that it causes a decrease in biological resources and that it is difficult to quantify large fish species that do not penetrate the gill net. In addition, the diver survey method that has been carried out in recent years due to the spread of scuba tanks has the advantage of being able to visually check large fish and observe and record the actual behavior of fish, but the survey time is limited to a short time, In addition, it has the disadvantage of changing fish habitat and behavior under the influence of observers.
一方でビデオカメラを水中に設置して、魚類の生息量や行動を長時間あるいは定期的に撮影記録するという方法は、これまで行われてきた刺し網調査やダイバー調査の欠点をカバーする新たな手法と期待されているが、ビデオカメラで撮影されたビデオ映像(動画)は特に海中では解像度が不十分であるため、抽出した魚影から魚種を精度良く判別するのは困難である。 On the other hand, installing video cameras underwater and recording and recording fish inhabitants and behavior for a long time or periodically is a new method that covers the shortcomings of stabbed net and diver surveys that have been conducted so far. Although it is expected to be a technique, the resolution of video images (moving images) taken with a video camera is insufficient particularly in the sea, so it is difficult to accurately discriminate the fish species from the extracted fish shadow.
なお、ビデオ画像に基づいて魚類を検出する技術として、例えば特開2005−309485号公報に開示されたものがある。 A technique for detecting fish based on a video image is disclosed in, for example, Japanese Patent Application Laid-Open No. 2005-309485.
そして、このような問題は、海中の魚類の計測に限られず、例えば鳥類、昆虫等の遠距離にいる動物、小型の動物、動きの速い動物等を対象にビデオ撮影を行い計測を行う場合も同様である。 Such problems are not limited to measurement of fish in the sea. For example, there are cases in which video is taken and measured for long-distance animals such as birds and insects, small animals, fast-moving animals, etc. It is the same.
本発明は、上述の問題点を解決するためになされたもので、画像に基づいて計測対象の自動判別を可能にすると共に、解像度が不十分な動画を利用して精度良く判別を行うことができる移動体の画像判別装置および移動体の画像判別方法を提供することを目的とする。 The present invention has been made to solve the above-described problems, and enables automatic determination of a measurement target based on an image, and enables accurate determination using a video with insufficient resolution. An object of the present invention is to provide a movable body image discrimination apparatus and a mobile body image discrimination method.
かかる目的を達成するために、請求項1記載の移動体の画像判別装置は、同一方向から同一の計測領域を撮影する動画カメラ及び当該動画カメラよりも画像解像度が高い静止画カメラと、動画カメラで撮影された動画から判別対象の画像の位置を検出する動画側画像抽出手段と、動画側画像抽出手段が検出した画像の位置情報に基づいて同時刻の静止画から判別対象の画像を抽出する静止画側画像抽出手段と、静止画側画像抽出手段が抽出した画像に基づいて判別対象の種別を判別する手段とを備えるものである。 In order to achieve this object, a moving body image discrimination device according to claim 1 is a moving image camera that captures the same measurement area from the same direction, a still image camera having a higher image resolution than the moving image camera, and a moving image camera. The moving image-side image extracting means for detecting the position of the image to be determined from the moving image captured in step (b), and the image to be determined from the still image at the same time based on the position information of the image detected by the moving image-side image extracting means Still image side image extraction means and means for discriminating the type of the discrimination target based on the image extracted by the still image side image extraction means.
また、請求項2記載の移動体の画像判別装置は、少なくとも動画の一部のフレームと少なくとも1枚の静止画には、時間同期のための同期目印が写し込まれているものである。 According to another aspect of the present invention, there is provided a moving object image discriminating apparatus in which a synchronization mark for time synchronization is imprinted on at least a part of a frame of a moving image and at least one still image.
請求項3記載の移動体の画像判別装置は、静止画側画像抽出手段は、動画側画像抽出手段が検出した画像の座標を同時刻の静止画上の座標に変換する座標変換手段と、座標変換手段による変換座標を基準に静止画内で判別対象の画像を探索する画像探索手段とを備えるものである。
The moving object image discriminating apparatus according to
請求項4記載の移動体の画像判別装置は、判別対象の主な移動方向を横方向と縦方向に分類した場合に横方向に分類されるときには動画カメラと静止画カメラは上下に配置され、縦方向に分類されるときには動画カメラと静止画カメラは左右に配置されているものである。
The moving body image discriminating apparatus according to
請求項5記載の移動体の画像判別装置は、判別対象の画像と種別を対応付けたデータベースを備えており、判別対象の種別を判別する手段は、データベースを参照してパターン識別を行い判別を行うものである。 According to a fifth aspect of the present invention, there is provided a moving body image discriminating apparatus including a database in which a discrimination target image is associated with a type, and the means for discriminating the discrimination target type performs pattern discrimination by referring to the database. Is what you do.
請求項6記載の移動体の画像判別装置は、判別対象の種別を判別する手段は判別対象を計数するものである。 According to a sixth aspect of the present invention, the means for determining the type of the discrimination target counts the discrimination target.
また、請求項7記載の移動体の画像判別方法は、動画カメラと当該動画カメラよりも画像解像度が高い静止画カメラとで同一方向から同一の計測領域を撮影して動画と当該動画に対応する多数の時系列順の静止画を取得し、動画カメラで撮影された動画から判別対象の画像の位置を検出すると共に、検出した位置情報に基づいて同時刻の前記静止画から前記判別対象の画像を抽出し判別対象の種別を判別することを特徴とするものである。 According to a seventh aspect of the present invention, there is provided a moving body image discrimination method that captures the same measurement area from the same direction by a moving image camera and a still image camera having a higher image resolution than the moving image camera and corresponds to the moving image and the moving image. A large number of still images in chronological order are acquired, the position of the image to be determined is detected from the moving image captured by the video camera, and the image of the determination target is determined from the still image at the same time based on the detected position information. And the type of the discrimination target is discriminated.
また、請求項8記載の移動体の画像判別方法は、少なくとも動画の一部のフレームと少なくとも1枚の静止画に同期目印を写し込んでおき、同期目印に基づいて動画と静止画との撮影時間を同期させるものである。 According to another aspect of the present invention, there is provided a moving object image discrimination method in which a synchronization mark is imprinted on at least a part of a frame of a moving image and at least one still image, and a moving image and a still image are shot based on the synchronization mark. Synchronize time.
また、請求項9記載の移動体の画像判別方法は、静止画からの判別対象の画像の抽出は、動画から検出された判別対象の画像の座標を静止画上の座標に変換した後、この変換座標を基準に静止画内で判別対象の画像を探索することで行われるものである。 Further, in the moving body image discrimination method according to claim 9, the discrimination target image is extracted from the still image by converting the coordinates of the discrimination target image detected from the moving image into coordinates on the still image. This is performed by searching for an image to be discriminated in a still image with reference to the converted coordinates.
また、請求項10記載の移動体の画像判別方法は、判別対象の主な移動方向を横方向と縦方向に分類し、横方向に分類される場合は動画カメラと静止画カメラを上下に配置し、縦方向に分類される場合は動画カメラと静止画カメラを左右に配置するものである。 The moving body image discrimination method according to claim 10 classifies the main moving direction of the discrimination target into a horizontal direction and a vertical direction, and when moving in the horizontal direction, a moving image camera and a still image camera are arranged vertically. However, when classified in the vertical direction, a moving image camera and a still image camera are arranged on the left and right.
また、請求項11記載の移動体の画像判別方法は、判別対象の画像と種別を対応付けたデータベースを参照しながらパターン識別を行い判別対象の種別を判別するものである。 According to another aspect of the present invention, there is provided a method for discriminating a type of a discrimination target by performing pattern discrimination while referring to a database in which the type of discrimination target image is associated with a type.
また、請求項12記載の移動体の画像判別方法は、判別した判別対象を計数するものである。 A moving body image discrimination method according to a twelfth aspect counts discriminated discrimination targets.
請求項1記載の移動体の画像判別装置、請求項7記載の移動体の画像判別方法によれば、判別対象の検出を動画に基づいて行うので検出精度を向上させることができると共に、判別に使用する画像の抽出を静止画に基づいて行うので、使用する画像が鮮明なものとなり、判別精度を向上させることができる。即ち、動画と静止画の特徴を利用するので、効率的に精度の良い判別を行うことができる。また、画像処理による自動判別であり、人手による労力を抑えることができると共に、オペレータの知識量・習熟度等に起因した判別結果のばらつきを防止して客観性の高い結果を得ることができる。さらに、計測時間帯の計測領域は無人であり、作業者が判別対象の行動等に影響を与えるのを防止できて通常時の状況をそのまま計測できる。また、判別対象を捕獲することも無いので、資源の減少を引き起こすこともない。
According to the moving body image discriminating apparatus according to claim 1 and the moving body image discriminating method according to
また、請求項2記載の移動体の画像判別装置、請求項8記載の移動体の画像判別方法によれば、時間同期用の同期目印を使用するので、動画と静止画の撮影時間の同期を簡単且つ精確に行うことができる。
Further, according to the moving body image discriminating apparatus according to
また、請求項3記載の移動体の画像判別装置、請求項9記載の移動体の画像判別方法によれば、動画と静止画との対応付けの精度を向上させることができ、静止画に写る判別対象の画像の抽出精度を向上させることができる。
In addition, according to the moving body image discrimination device according to
また、請求項4記載の移動体の画像判別装置、請求項10記載の移動体の画像判別方法によれば、動画カメラと静止画カメラとの配置が視差ずれの影響をできるだけ抑制するものとなり、静止画に写る判別対象の画像の抽出精度を向上させることができる。
Further, according to the moving body image discrimination device according to
また、請求項5記載の移動体の画像判別装置、請求項11記載の移動体の画像判別方法によれば、サポートベクターマシーンによる自動判別を行うことができる。
Further, according to the moving object image discrimination apparatus according to
さらに、請求項6記載の移動体の画像判別装置、請求項12記載の移動体の画像判別方法によれば、計測対象の個数を知るのが容易になる。
Furthermore, according to the moving body image discrimination apparatus of
以下、本発明の構成を図面に示す形態に基づいて詳細に説明する。なお、本実施形態では、判別の対象として水中の魚類を例に説明しているが、これには限られない。例えば、魚類以外の水中を泳ぎ回る動物、空中を飛び回る鳥類や昆虫等の動物等の判別に適用しても良く、あるいは、地上を平面的に移動する動物等の判別に適用しても良い。さらには、動物以外の移動体等の判別に適用しても良い。例えば、カラス、鳩、さぎ、すずめ等の鳥類が飛ぶなかで鳥害対策目的のカラスだけを判別し計数する場合や、道路を通行する車群の中から特定車種を判別し計数する場合等に適用可能である。さらに、動画中の位置情報に基づいて静止画から判別対象の精細な画像を得ることができることから、セキュリティ対策(泥棒の監視等)やマーケティング(来店客把握等)等にも適用可能である。 Hereinafter, the configuration of the present invention will be described in detail based on the form shown in the drawings. In the present embodiment, fish in the water is described as an example of discrimination, but the present invention is not limited to this. For example, the present invention may be applied to discriminating animals that swim around in water other than fish, birds such as birds and insects flying in the air, or the like, or may be applied to discriminating animals moving in a plane on the ground. Furthermore, the present invention may be applied to discrimination of moving objects other than animals. For example, when crows, pigeons, rabbits, sparrows and other birds fly, only crows for bird damage control purposes are identified and counted, or specific vehicle types are identified and counted from a group of vehicles traveling on the road, etc. It is applicable to. Furthermore, since a fine image to be discriminated can be obtained from a still image based on position information in a moving image, it can be applied to security measures (such as monitoring a thief) and marketing (such as grasping a visitor).
図1に本発明の移動体の画像判別装置の実施形態の一例を示す。移動体の画像判別装置(以下、単に画像判別装置という)は、同一方向から同一の計測領域を撮影する動画カメラ1及び当該動画カメラ1よりも画像解像度が高い静止画カメラ2と、動画カメラ1で撮影された動画から判別対象の位置を検出する動画側画像抽出手段3と、動画側画像抽出手段3が検出した画像の位置情報に基づいて同時刻の静止画から判別対象の画像を抽出する静止画側画像抽出手段4と、静止画側画像抽出手段4が抽出した画像に基づいて判別対象の種別を判別する種別判別手段5とを備えている。動画側画像抽出手段3、静止画側画像抽出手段4、種別判別手段5はコンピュータ6に専用のプロクラムをインストールし実行することで実現される。
FIG. 1 shows an example of an embodiment of a moving object image discrimination apparatus of the present invention. A moving body image discriminating apparatus (hereinafter simply referred to as an image discriminating apparatus) includes a moving image camera 1 that captures the same measurement region from the same direction, a
画像判別装置を構成するコンピュータ6は演算部7、記憶部8、入力部9、表示部10、送受信部11を備えており、これらは相互にバス等の信号回路12により接続されている。
The
演算部7は記憶部8に記憶されている制御プログラムによって画像判別装置全体の制御等にかかる演算を行うものであり、例えばCPU(中央演算処理装置)である。記憶部8は少なくともデータやプログラムを記憶可能な装置であり、例えばメモリ、ハードディスク等である。入力部9は少なくとも作業者の命令やデータ等を入力するためのインターフェイスであり、例えばキーボード及びマウス等である。表示部10は演算部7の制御により文字や図形等の描画・表示を行うものであり、例えばディスプレイ、プリンタ等である。記憶部8には、処理を行う動画及び静止画、魚種を判別するための魚種データベース20が記憶されている。
The
演算部7には制御プログラムを実行することにより、動画側画像抽出手段3、静止画側画像抽出手段4と、種別判別手段5が実現される。
The
動画側画像抽出手段3は、計測時間帯における動画の全フレームから魚影を抽出する。抽出した情報は、前後のフレームでの位置関係から、同じ魚影はまとめて、魚影ごとに整理する。例えば、魚影Aが時刻t1に出現し、画面内を移動して、時刻t2に画面から消滅した場合、魚影Aの時刻t1からt2までの軌跡、各フレームでの形状をまとめて管理する。これは静止画像から抽出した魚影の重複計数を避けるためである。
The moving image side
本実施形態の静止画側画像抽出手段4は、動画側画像抽出手段3が検出した画像の座標を同時刻の静止画上の座標に変換する座標変換手段14と、座標変換手段14による変換座標を基準に静止画内で判別対象の画像を探索する画像探索手段15とを備えている。
The still image side
種別判別手段5は、機械学習手法によるパターン認識によって画像の判別を行うもので、本実施形態ではサポートベクターマシーン(SVM:Support Vector Machine)を使用している。種別判別手段5は魚種データベース20に登録されている魚影画像から特徴量を計算し、機械学習をすることで自動判別を行うための判別基準を作成し、画像探索手段15が探索した魚影画像をこの判別基準に照らし合わせて魚種の自動判別を行う。魚種データベース20は魚影画像とそのラベル(魚の種類の判別結果であり、魚の種類又は不明魚等の区分け)とを対応付けて記憶しているデータベースで、本実施形態では予め作成されて記憶部8に記憶されている。
The type discriminating means 5 discriminates an image by pattern recognition using a machine learning technique, and a support vector machine (SVM) is used in this embodiment. The type discriminating means 5 calculates the feature amount from the fish shadow image registered in the
また、本実施形態の種別判別手段5は、判別結果を整理し、魚種毎に計数して集計を行う。まず魚種が判明した魚影に関して、計測時間中に出現した回数を集計する。動画から得られた魚影の1つの軌跡に対して、出現回数を1回とする。これにより、魚種Aは、平均サイズ:S1画素、X回出現、魚種Bは、平均サイズ:S2画素、Y回出現、といった集計情報が得られる。 Moreover, the classification determination means 5 of this embodiment arranges the determination results, and counts and sums up for each fish type. First, the number of appearances during the measurement time for the fish shadows for which the fish species were found is tabulated. The number of appearances is one for one trajectory of fish shadow obtained from the video. As a result, total information such as the average size: S1 pixel and X appearances for fish species A and the average size: S2 pixel and Y appearances for fish species B is obtained.
なお、魚種データベース20との照合で魚種を判別することができなかった魚影については、不明魚影として処理が行われる。また、同じ一つの軌跡に対応する異なる静止画において魚種の判別結果が異なる場合にも、不明魚影として処理が行われる。そして、これらの魚影については後に人間によって魚種判別が行われ、魚影データベース20に追加登録することで魚影データベース20の改善が行われる。さらに、動画で魚影が検出されたにもかかわらず、静止画の撮影間隔の間に出現・消滅し、静止画に写っていない魚影に対しては、不明魚影軌跡として集計が行われる。
In addition, about the fish shadow which could not discriminate | determine a fish type by collation with the
なお、本実施形態では、種別判別手段5は魚影サイズとして画像サイズ(画素数)即ち画面内での見た目のサイズを集計している。
In the present embodiment, the
動画カメラ1は動画を撮影可能なカメラで、例えばビデオカメラである。また、静止画カメラ2は静止画を撮影可能なカメラで、例えばデジタルカメラである。本実施形態では水中の画像を撮影するために、動画カメラ1及び静止画カメラ2として防水カメラ又は防水ケースに収容したカメラを使用する。
The moving image camera 1 is a camera capable of shooting moving images, for example, a video camera. The
本発明は、動画と静止画の両方を用いて、魚影の検出・判別を行う点に特徴がある。動画は時間単位の画像枚数が多く、移動する対象を画像処理で抽出するのに適している。しかし解像度に劣り(例えば、普及型のビデオカメラでは、ハイビジョンつまり1920×1080画素が最大である。)、動画カメラ1から遠く離れた位置で撮影された魚影は小さくかつ不鮮明であるため、魚種判別には適していない。一方で、静止画像撮影用のスチルカメラ(静止画カメラ2)は高解像度であり(例えば、安価なコンパクト型で4500×3400画素以上を達成しており、年々解像度が増している。)、魚種判別に適している。ただしスチルカメラは時間単位の撮影枚数に制限があり、高速長時間撮影と高解像度撮影を両立する映像記録装置は普及していない。そこで本発明では、魚影の位置検出は動画で、魚影の種別判定は静止画像で行うようにし、役割分担をしつつ連携することで画像処理による自動判別を行う。 The present invention is characterized in that fish shadows are detected and discriminated using both moving images and still images. A moving image has a large number of images in time units, and is suitable for extracting a moving object by image processing. However, the resolution is low (for example, in a widespread video camera, the high-definition, that is, 1920 × 1080 pixels is the maximum), and the fish shadow shot at a position far away from the video camera 1 is small and unclear. Not suitable for species discrimination. On the other hand, a still camera (still image camera 2) for taking still images has a high resolution (for example, an inexpensive compact type that achieves 4500 × 3400 pixels or more, and the resolution increases year by year), and fish. Suitable for species discrimination. However, the still camera has a limited number of shots per time unit, and a video recording apparatus that achieves both high-speed long-time shooting and high-resolution shooting is not widespread. Therefore, in the present invention, the position of the fish shadow is detected with a moving image, the type determination of the fish shadow is performed with a still image, and automatic determination by image processing is performed by cooperating while sharing roles.
ここで、静止画カメラ2としては、いわゆるインターバル撮影もしくはタイムラプス撮影と称される一定時間間隔で自動撮影を行う機能を有していることが好ましい。この機能は、例えば5秒おき、または10秒おきなど一定時間間隔で撮影する機能である。ただし、必ずしもこのような自動撮影機能を有していなくても良く、この場合には外部タイマーからの操作やマニュアル操作等によって一定時間間隔で撮影を繰り返し行うようにしても良い。
Here, it is preferable that the
本実施形態では水中撮影を行うので、水中撮影用の固定治具16を使用する。固定治具16の一例を図6に示す。固定治具16は金属製の網で形成された箱状の枠体であり、当該枠体に動画カメラ1及び静止画カメラ2が固定されている。枠体には錘17が取り付けられている。固定治具16はダイバーによって水中に沈められて撮影位置に設置される。固定治具16として網を使用する理由は、主として海中の水の流れへの抵抗を少なくし、水流による移動を防止すためである。また環境影響を少なくしつつ、設置作業を容易にする目的もある。ただし、このような固定治具16を使用せずに三脚等を利用して動画カメラ1及び静止画カメラ2を撮影位置に設置しても良い。
In the present embodiment, underwater photography is performed, so a fixing
動画カメラ1と静止画カメラ2は同一の計測領域を同一方向から撮影するものであり、隣接させて配置することが好ましい。ここで「同一」には物理的同一が含まれることは勿論であるが、ここでの「同一」は必ずしも物理的同一でなくても良く、静止画側画像抽出手段4が動画と同時刻の静止画との位置の対応付けを行うことができる程度に同一方向から動画と静止画を撮影できれば「同一」に含まれる。即ち、動画カメラ1と静止画カメラ2との視差ずれを処理可能な範囲に抑えることができるものであれば「同一」とする。
The video camera 1 and the
2台のカメラ1,2を並べて設置する場合には視差ずれが生じる。2台のカメラ1,2の視差ずれを少なくするポイントは、2台のカメラ1,2を可能な限り接近させることである。また、2台のカメラ1,2の光軸は交差させずに並行にすることが望ましい。光軸を交差させると、2台のカメラ1,2の距離が近くても、近距離と遠距離で映り方が大きく変わってしまうためである。2台のカメラ1,2間の距離は、理想的にはゼロである。ゼロにする方法には、ハーフミラーを用いて同じ像を2分割する特殊な光学系(例えば、特許第4052382号「非接触画像計測装置」など)を製作する必要があり、一般的でなく装置が高価となる、また画像が暗くなる。また別の手段として、ビデオ映像を撮影できるデジタルカメラもあるため、ビデオ映像を撮影しつつ、同時に定期的にデジタルカメラで高解像度の静止画像を撮影するようなモードを有するカメラを利用することが考えられる。
When two
2台のカメラ1,2の距離をゼロにできない場合、カメラ1,2の併置方法には、水平方向(横方向)に並べる方法と、垂直方向(縦方向)に積み上げる方法がある。ここで、どちらの並べ方でもカメラ1,2のレンズ間の距離が変わらない場合は、2台のカメラ1,2を縦方向に積み上げる方法が望ましい。これは魚は縦方向ではなく、横方向に移動することがほとんどだからである。2台のカメラ1,2の視差ずれにより、動画から抽出した魚影の位置が静止画中の多少異なる位置として計算されたとしても、そのずれが縦方向のずれであれば、魚は縦方向にはあまり移動しないため影響は小さい。一方で横方向のずれであると、魚が時々刻々移動するため、静止画像中で魚影の存在しない場所となり、静止画から魚影を抽出できなくなる可能性が高まる。
When the distance between the two
即ち、判別対象の主な移動方向を横方向と縦方向に分類した場合に横方向に分類されるときには動画カメラ1と静止画カメラ2を上下に配置することが望ましく、縦方向に分類されるときには動画カメラ1と静止画カメラ2を左右に配置することが望ましい。このように配置することで、2台のカメラ1,2の視差ずれによる影響を抑えることができ、静止画に写る判別対象の画像の抽出精度を向上させることができる。
That is, when the main moving directions to be discriminated are classified into the horizontal direction and the vertical direction, it is desirable that the moving image camera 1 and the
カメラ1,2を設置する撮影位置は、少なくとも動画の一部のフレームと、少なくとも1枚の静止画に時間同期のための同期目印が写し込まれるように選択される。ここで、同期目印としては、例えば泳ぐダイバーや目立つ魚影など、動きがあって、動画のフレーム単位で変化の見分けがつく画像を選定することが好ましい。例えば、ダイバーの手の動きなどフレーム単位で変化のあるものを同期目印にしておくことで、フレーム毎の違いにもとづいて対応するフレームを見つけることができる。また、自然状態で計測領域に存在しないもの、例えばダイバー等を同期目印にする場合は計測(観察)を開始する直前の画像に同期目印を写し込むことが好ましいが、計測領域に自然状態で存在するものを同期目印にする場合等には計測開始後の画像に同期目印を写し込むようにしても良い。
The shooting position where the
動画カメラ1及び静止画カメラ2が撮影した画像のデータは内蔵メモリ内に記憶され、撮影終了後のカメラ回収後に取り出される。ただし、画像データの取り出しはカメラ回収後に限られず、例えば画像データの送受信装置を設けて通信を行うことでカメラ回収前に画像デーを取り出すようにしても良く、この場合には撮影直後にその都度その画像データを入手することができる。
Data of images taken by the video camera 1 and the still
動画カメラ1及び静止画カメラ2は、例えばダイバーによって設置時及び回収時に水中で操作される。ただし、例えば水上から遠隔操作するようにしても良い。動画カメラ1は計測時間帯において撮影を継続する。静止画カメラ2は計測時間帯において所定時間間隔で繰り返し撮影を行う。これらにより、計測時間帯にわたる動画と当該動画に対応する多数の時系列順の静止画群が取得される。
The moving image camera 1 and the
次に、本発明の移動体の画像判別方法(以下、単に画像判別方法という)について説明する。図2及び図3に画像判別方法を示す。画像判別方法は、動画カメラ1と当該動画カメラ1よりも画像解像度が高い静止画カメラ2とで同一方向から同一の計測領域を撮影して動画と当該動画に対応する多数の時系列順の静止画を取得し(ステップS41)、動画カメラ1で撮影された動画から判別対象の画像の位置を検出する(ステップS43)と共に、検出した位置情報に基づいて同時刻の静止画から判別対象の画像を抽出し(ステップS44)、判別対象の種別を判別する(ステップS45)ようにしている。動画からの判別対象の画像の位置検出は動画側画像抽出手段3によって自動的に行われ、静止画からの判別対象の画像抽出は静止画側画像抽出手段4によって自動的に行われ、判別対象の種別の判別は種別判別手段5によって自動的に行われる。
Next, a moving body image discrimination method (hereinafter simply referred to as an image discrimination method) of the present invention will be described. 2 and 3 show an image discrimination method. In the image discrimination method, the moving image 1 and the
先ず最初に、動画及び静止画を取得する(ステップS41)。計測領域を撮影できる撮影位置に動画カメラ1及び静止画カメラ2を設置し、撮影を開始する。その際、撮影後の動画と静止画との時間同期をできるだけ容易にするため、動画カメラ1の内蔵時計と静止画カメラ2の内蔵時計とをできるだけ合わせておくことが好ましい。また、本実施形態では、計測を開始する前に早めに動画カメラ1及び静止画カメラ2で撮影を開始し、計測を開始する前にダイバーが動画カメラ1及び静止画カメラ2前を横切るようにして同期目印を写し込んでおくようにしている。
First, a moving image and a still image are acquired (step S41). The moving image camera 1 and the
計測時間の経過後、動画カメラ1及び静止画カメラ2を水中から回収して画像データを取り出し、例えばコンピュータ6の記憶部8に一旦保存しておく。だだし、他の記憶装置に保存しても良く、あるいは記憶部8に保存せずに直接処理を行っても良い。画像データは送受信部11を介してコンピュータ6内に取り込まれる。
After the elapse of the measurement time, the moving image camera 1 and the
なお、本実施形態では実際に現場撮影を行って処理を行う動画及び静止画群を取得していたが、処理を行う動画及び静止画群が既に準備されている場合にはその画像データをコンピュータ6内に取り込むようにする。 In the present embodiment, a moving image and a still image group to be processed by actually performing on-site shooting are acquired. However, if a moving image and a still image group to be processed are already prepared, the image data is stored in a computer. 6 to capture.
次に、動画と静止画の撮影時間を同期させる(ステップS42)。時間同期は、次のように行なわれる。ポイントは、静止画像に合わせる、である。まず静止画像中で、時刻合わせに使える同期目印のある最初の画像(i)を探す。同期目印のある画像iが見つかったら、その画像iの時刻tを記録する。例えば「2010年8月17日10時46分35秒」であったとする。次に、ビデオ映像(動画)を再生し、画像iと同じ瞬間のコマ(フレーム)を同期目印を手掛かりにして探しだす。同期目印の写り方が同じものを探し出す。最終的にはコマ送りで探し、最も近いビデオ映像中のコマを見出し、そのコマの時刻をtと再設定する。上述の例では「2010年8月17日10時46分35秒000ミリ秒」とする。つまりビデオ映像のタイムスタンプは無視し、その時刻tを基準にビデオ映像の時刻を補正する。時間同期は、例えばオペレータによって行われる。なお、時間同期を行わなくても動画と静止画との撮影時刻を対応させることができる場合には時間同期を行わなくても良い。 Next, the shooting times of the moving image and the still image are synchronized (step S42). Time synchronization is performed as follows. The point is to match the still image. First, in the still image, the first image (i) having a synchronization mark that can be used for time adjustment is searched. When an image i with a synchronization mark is found, the time t of the image i is recorded. For example, it is assumed that “August 17, 2010, 10:46:35”. Next, a video image (moving image) is reproduced, and a frame (frame) at the same moment as the image i is searched for using a synchronization mark as a clue. Search for the same sync mark. Eventually, the frame search is performed, the closest frame in the video image is found, and the time of that frame is reset to t. In the above example, “August 17, 2010 10: 46: 35.000 milliseconds” is assumed. That is, the time stamp of the video image is ignored, and the time of the video image is corrected based on the time t. Time synchronization is performed by an operator, for example. It should be noted that the time synchronization may not be performed when the shooting times of the moving image and the still image can be matched without performing the time synchronization.
次に、動画側画像抽出手段3が動画から魚影の位置を検出する(ステップS43)。動画から動く対象を抽出する手法としては公知の手法を使用可能である。本実施形態では背景差分法を使用する。ただし、背景差分法に限られない。なお、背景差分法として、例えば特開2005−309485号公報に開示されたものがある。背景差分法では、動画から検出対象以外の背景を表すデータ(背景データ)を作成し、それとある時刻のフレーム画像との差分により、移動体を抽出する。全く変化の無い実験環境で背景データを作るのは容易だが、実環境では多少の変化があるため、いかに適切な背景データを作成するかがポイントとなる。 Next, the moving image side image extraction means 3 detects the position of the fish shadow from the moving image (step S43). A known method can be used as a method for extracting a moving object from a moving image. In this embodiment, the background difference method is used. However, it is not limited to the background difference method. An example of the background subtraction method is disclosed in Japanese Patent Application Laid-Open No. 2005-309485. In the background subtraction method, data representing the background other than the detection target (background data) is created from the moving image, and the moving object is extracted based on the difference between the data and the frame image at a certain time. Although it is easy to create background data in an experimental environment where there is no change at all, there are some changes in the actual environment, so the point is how to create appropriate background data.
本実施形態では、水面や水中など光のゆらぎが大きい環境で効果的に機能することを目的として、時間方向の色値の分散を考慮した背景データを作成する。具体的には、画面内の座標それぞれに対して、画素値の時間方向の平均と標準偏差を、一定時間の範囲で計算する。つまり画面サイズが横w画素、縦h画素の場合、w×h個の画素値の時間平均μと標準偏差σが得られる。計算機で用いられるRGB表色系の場合は、R,G,Bそれぞれに対し平均と標準偏差を求め、これらを背景データとする。この平均と標準偏差は、対応する範囲内での画素値の変動を表す。 In the present embodiment, for the purpose of functioning effectively in an environment where the light fluctuation is large, such as the water surface or underwater, background data considering the dispersion of color values in the time direction is created. Specifically, for each coordinate in the screen, the average and standard deviation of the pixel values in the time direction are calculated within a certain time range. That is, when the screen size is horizontal w pixels and vertical h pixels, the time average μ and standard deviation σ of w × h pixel values are obtained. In the case of an RGB color system used in a computer, an average and a standard deviation are obtained for each of R, G, and B, and these are used as background data. This average and standard deviation represent the variation of the pixel value within the corresponding range.
差分の有無判定を図8で説明する。図8はある座標での輝度変化を表すグラフである。縦軸が輝度、横軸が時間を表す。当該座標での輝度は変化するものの、多くは一定の範囲(図で網掛けをした部分)に収まっている。この座標を、背景よりも明るい魚が通過すると、その時間帯だけ範囲を逸脱する。また逆に背景よりも暗い魚が通過すると逆に暗い方向に範囲を逸脱する。このようにして差分の有無を判定する。 The presence / absence determination of the difference will be described with reference to FIG. FIG. 8 is a graph showing a change in luminance at a certain coordinate. The vertical axis represents luminance and the horizontal axis represents time. Although the luminance at the coordinates changes, most of them fall within a certain range (the shaded portion in the figure). If a fish that is brighter than the background passes through these coordinates, it deviates from the range for that time period. Conversely, if a fish that is darker than the background passes, it will deviate from the range. In this way, the presence or absence of a difference is determined.
具体的には、グレースケールで輝度のみを扱うとすると、ある時刻での、ある座標における輝度gに対し、[μ−βσ,μ+ασ]の区間(シグマバンド)外にある場合に差分が生じたと判定する。ここでαとβは判定を調整するパラメータである(後述の実施例1の水中動画の場合はα=β=4.0とした)。RGB表色系でのカラーの場合は、r,g,bそれぞれのシグマバンドのいずれかの外にある場合に差分が生じたと判定する。 Specifically, assuming that only the luminance is handled in gray scale, a difference occurs when the luminance g at a certain time is outside the section (sigma band) of [μ−βσ, μ + ασ]. judge. Here, α and β are parameters for adjusting the determination (in the case of an underwater moving image in Example 1 described later, α = β = 4.0). In the case of a color in the RGB color system, it is determined that a difference has occurred when it is outside one of the r, g, and b sigma bands.
なお、本実施形態では既に撮影済みの動画を対象としているため、時間区間ごとに平均と標準偏差を計算し、同時間区間で差分を検出する。なお、時間区間を長くすると水中の照明変動などに対応できなくなるが、短くしすぎると、逆に水中での光のゆらぎなどを吸収できず誤検出が多くなるため、時間区分を適正値にすることが好ましい(後述の実施例1では時間区間を5分とした)。 In the present embodiment, since a moving image that has already been shot is targeted, the average and standard deviation are calculated for each time interval, and the difference is detected in the same time interval. Note that if the time interval is lengthened, it will not be possible to cope with underwater lighting fluctuations, but if it is too short, fluctuations in the light underwater will not be absorbed and false detection will increase. It is preferable (in Example 1 described later, the time interval is 5 minutes).
以上の処理を画面内の全座標に対して行うが、明るさの変動が極端に激しい場所や、暗い場所を黒い魚影が通過する場合など、画面内で部分的に魚影と区別がつかない場合は、差分が抽出できない。そのため抽出する画素は、魚影全体ではなくその一部となる。そのため一尾の魚から複数の領域を抽出することがある。そこで、本実施形態では座標が近い領域群を一定距離で結合し、魚影全体を表す領域を再構成する処理を施している。さらに、魚の移動を追跡するため、前後の動画フレームでの領域の対応付けを行う。本実施形態では、最終的には魚影の追跡をしばらく行ない魚の動きとして速度が速すぎるものを除外して、最終的に魚影と判定する。 The above processing is performed for all the coordinates on the screen, but it can be partially distinguished from the fish shadow on the screen, for example, when the brightness fluctuates extremely or when the black fish shadow passes through a dark place. If not, the difference cannot be extracted. Therefore, the pixel to be extracted is not the entire fish shadow but a part thereof. Therefore, a plurality of areas may be extracted from one fish. Thus, in the present embodiment, processing is performed to reconstruct a region representing the entire fish shadow by combining regions having close coordinates at a constant distance. Furthermore, in order to track the movement of the fish, the areas in the preceding and following moving image frames are associated. In the present embodiment, the fish shadow is finally traced for a while, and the fish movements that are too fast are excluded and finally determined as fish shadows.
魚影の位置検出は動画側画像抽出手段3が自動的に行う。動画側画像抽出手段3は魚影の位置検出を計測時間帯における全ての動画に対して行った後、ステップS44に進む。
The moving image side image extraction means 3 automatically detects the position of the fish shadow. The moving image-side
次に、静止画側画像抽出手段4が静止画から魚影を抽出する(ステップS44)。静止画側画像抽出手段4による静止画からの魚影の抽出は、動画側画像抽出手段3によって検出された全ての魚影について行われる。ここで、例えば、時刻t1の動画フレームに出現し、画面内を移動して時刻t2の動画フレームの次の動画フレームで消滅した魚影A(時刻t1から時刻t2の間の動画フレームに写っている魚影A)については、時刻t1から時刻t2の間に撮影された静止画が魚影Aが写っている動画フレームと同時刻の静止画となる。このとき、時刻t1から時刻t2の間に撮影された静止画が1枚であればその静止画が同時刻の静止画となり、当該静止画の撮影時間が時刻taであったとすると、時刻taに撮影された動画フレーム(正確に時刻taに撮影された動画フレームが無い場合には時刻taに最も近い時刻に撮影された動画フレーム)と時刻taに撮影された当該静止画との間で座標変換が行われ、以降の処理が行われる。また、時刻t1から時刻t2の間に複数枚の静止画が撮影された場合には、これらの各静止画がそれぞれ同時刻の静止画となり、各静止画について以降の処理が行われる。ただし、時刻t1から時刻t2の間に複数枚の静止画が撮影された場合には、その中から1枚の静止画を選択して座標変換を行い以降の処理を行うようにしても良い。
Next, the still image side
本実施形態では、動画から検出された魚影の座標を静止画上の座標に変換する座標変換ステップS48(図3)と、この変換座標を基準に静止画内で魚影を探索する魚影探索ステップS49とを実行して静止画から魚影を抽出する。座標変換ステップS48は静止画側画像抽出手段4を構成する座標変換手段14によって実施され、魚影探索ステップS49は静止画側画像抽出手段4を構成する画像探索手段15によって実施される。ただし、このような手法に限られない。 In the present embodiment, the coordinate conversion step S48 (FIG. 3) for converting the coordinates of the fish shadow detected from the moving image into the coordinates on the still image, and the fish shadow for searching for the fish shadow in the still image based on the converted coordinates. The fish shadow is extracted from the still image by executing the search step S49. The coordinate conversion step S48 is performed by the coordinate conversion means 14 constituting the still image side image extraction means 4, and the fish shadow search step S49 is performed by the image search means 15 constituting the still image side image extraction means 4. However, it is not restricted to such a method.
本実施形態の座標変換ステップS48では、複数のカメラ座標の変換方法として最も単純な線形変換方法を用いているが、これに限られない。魚影位置の座標の変換は座標変換手段14が自動的に行う。図9を用いて線形変換方法を説明する。動画と静止画との間で対応付け可能な3点が基準点として予めユーザによって指定されている。基準点の指定は表示部10に表示された画像を見ながら入力部9からの操作によって行われる。この指定は最初の座標変換時にのみ行われ、2回目以降の座標変換時には行われずに同一の基準点が使用される。基準点として例えば海底のサンゴや、ダイバーの手足、特徴的な色や模様の魚などを用いることが好ましいが、これに限られない。また、格子状の模様が描かれた板をカメラの前に掲示して、目印(基準点)にすることも可能である。
In the coordinate conversion step S48 of the present embodiment, the simplest linear conversion method is used as a method for converting a plurality of camera coordinates, but the present invention is not limited to this. The coordinate conversion means 14 automatically converts the coordinates of the fish shadow position. The linear conversion method will be described with reference to FIG. Three points that can be associated between a moving image and a still image are designated in advance by the user as reference points. The reference point is designated by an operation from the input unit 9 while viewing the image displayed on the
いま、動画上での基準点をそれぞれp1,p2,p3、静止画上の対応する基準点をp1’, p2’,p3’とする。これら3点のうち任意の1点、例えばp1を原点として、p1からp2へのベクトルと、p1からp3へのベクトルをそれぞれ単位ベクトルとする斜交座標系Avを設定する。同様に動画上で原点とした点に対応するp1’を原点として、p1’からp2’へのベクトルと、p1’からp3’へのベクトルを単位ベクトルとする斜交座標系Asを設定する。魚影位置の変換は、斜交座標系Av上での座標を、そのまま斜交座標系Asでの座標とすることで行われる。基準点とした3点は水中の空間内の一つの平面を規定し、変換はこの平面内での対応付けを意味する。図7におけるP1平面が、この変換用の平面に対応する。よって原理的には、この平面内を魚が移動する範囲では、対応付けは正確に行われる。しかしながら視差ずれの影響で、魚影がこの平面から離れると、動画カメラ1で同じ場所に見える魚影が、静止画カメラ2では異なる位置に見える。このずれは、平面P1から魚影が離れれば離れるほど大きくなる。なお、現実のレンズには歪があるため、中心部と周辺部では単位ベクトルの長さや向きが若干変わる。これを正確に再現するには、画面全体を覆う格子縞などを目印として、画面内を細かく分割して対応付けることで対応できる。ただしこのずれは、視差ずれの影響に比べて軽微であり、無視することも可能である。
Now, the reference points on the moving image are p1, p2, and p3, respectively, and the corresponding reference points on the still image are p1 ', p2', and p3 '. An oblique coordinate system Av is set with an arbitrary one of these three points, for example, p1 as an origin, and a vector from p1 to p2 and a vector from p1 to p3, respectively, as unit vectors. Similarly, an oblique coordinate system As is set with a vector from p1 'to p2' and a vector from p1 'to p3' as a unit vector, with p1 'corresponding to the point as the origin on the moving image as the origin. The fish shadow position is converted by using the coordinates on the oblique coordinate system Av as they are in the oblique coordinate system As. Three points as reference points define one plane in the underwater space, and conversion means matching in this plane. The P1 plane in FIG. 7 corresponds to this conversion plane. Therefore, in principle, the association is performed accurately in the range in which the fish moves in this plane. However, when the fish shadow moves away from this plane due to the effect of the parallax shift, the fish shadow that appears at the same location on the moving image camera 1 appears at a different position on the
魚影探索ステップS49では、静止画上で魚影を探索する。これは、斜交座標系Asへの変換座標が、視差ずれにより実際の魚影の座標を示していなくとも、同じ時刻の画像であれば、変換座標の近傍に魚影が見当たる筈との仮定に基づく。 In fish shadow search step S49, a fish shadow is searched for on the still image. This is because even if the conversion coordinates to the oblique coordinate system As do not indicate the actual fish shadow coordinates due to the parallax shift, the fish shadows can be found in the vicinity of the conversion coordinates if they are images at the same time. Based on assumptions.
図10を用いて探索方法を説明する。まず座標変換ステップS48で対応付けられた静止画上の座標を中心に、一定の探索範囲を設定する。その範囲で、動画フレーム中の魚影領域の画像をテンプレートとして、類似の画像を探索する。具体的な手順は以下のとおりである。 The search method will be described with reference to FIG. First, a fixed search range is set around the coordinates on the still image associated in the coordinate conversion step S48. Within that range, similar images are searched for using the image of the fish shadow area in the moving image frame as a template. The specific procedure is as follows.
まず、動画側画像抽出手段3が検出した動画フレーム上の魚影を含む長方形の魚影領域の画像18を、同時刻の静止画像上のサイズに合わせて線形変換により伸縮し、これをテンプレート19とする。テンプレート19の横幅をw、縦の長さをhとした場合、座標変換ステップS48で得られた静止画上の対応点を中心に、awの横幅、bhの縦の長さの探索範囲22を設定する。ここでa,bは探索範囲の広さを調整するパラメータである(後述の実施例1ではa=5,b=3とした)。探索範囲22内をスキャンし、テンプレート19と最も類似度の高い画像を、魚影とする。なお、本実施形態では、魚が写っている部分を含む長方形の画像を静止画側画像抽出手段4が抽出した魚影としている。
First, a rectangular fish
テンプレートサイズにより探索範囲を変える理由は、カメラに近いほど視差が大きくなることを考慮し、大きく見える場合は近い位置にあると見なし、探索範囲を広くするためである。 The reason for changing the search range according to the template size is to consider that the closer the camera is to the parallax, the greater the parallax.
なお、探索範囲を画面全体など広く取らなかった理由は以下のとおりである。動画と静止画では視点の違い等により、見え方がかなり異なる。そのため画面に複数の魚影がある場合、テンプレート19との類似度で区別するのは困難な場合が多く、探索範囲を広げるほど、照合ミスの可能性が増える傾向にある。よって、できるだけ探索範囲を絞り込む必要があるためである。
The reason why the search range is not wide, such as the entire screen, is as follows. Due to differences in viewpoints between moving images and still images, the way they look is quite different. For this reason, when there are a plurality of fish shadows on the screen, it is often difficult to distinguish them by the degree of similarity with the
本実施形態では、類似度の判定には、グレースケールでの正規化相互相関を用いる。グレースケールとした理由は、動画と静止画でホワイトバランスの違いにより色が異なるためである。正規化相互相関を用いた理由は最も代表的かつ実用的な、テンプレート照合方式であるためである。 In the present embodiment, normalized cross-correlation in gray scale is used for similarity determination. The reason for the gray scale is that the color differs depending on the white balance between the moving image and the still image. The reason for using normalized cross-correlation is the most typical and practical template matching method.
魚影の探索は座標探索手段15が自動的に行う。 The fish search is automatically performed by the coordinate search means 15.
静止画側画像抽出手段4は、動画側画像抽出手段3が検出した魚影の全てについてステップS48とS49を繰り返し行う。その後、図2のステップS45に進む。
The still image side
次に、種別判別手段5が魚種の判別を行う(ステップS45)。本実施形態では魚種の判別と共に魚のサイズも判別するようにしているが、サイズの判別は行わなくても良い。種別判別手段5は、静止画側画像抽出手段4が抽出した魚影の画像を、予め記憶部8に記憶されている魚種データベース20に基づいて作成された判別基準に照らし合わせてパターン識別を行い魚種を判別すると共に、魚影画像の画素数からサイズを判別する。また、種別判別手段5は判別した魚影と魚種を魚種データベース20に追加し登録し、次回の判別の精度を向上させる。本実施形態の種別判別手段5は判別の手段としてサポートベクターマシーンを使用している。
Next, the type discrimination means 5 discriminates the fish type (step S45). In this embodiment, the size of the fish is determined together with the determination of the fish species, but the size determination need not be performed. The
種別判別手段5は判別結果を表示部10に出力する。本実施形態の種別判別手段5は、魚種毎に魚の数とサイズを集計して表示部10に出力するようにしているが、必ずしもこれに限られない。結果を集計して表示部10に表示することで、計測結果がわかりやすくなる。
The type discrimination means 5 outputs the discrimination result to the
なお、魚種の集計は、全ての魚種又は主立った魚種を対象にしても良いし、一又は複数の特定の種類を対象にしても良い。例えば、調査対象の一又は複数の魚種を予め定めておき、調査対象の魚種については魚種毎に集計を行い、調査対象以外の魚種についてはその他の魚種として一纏めにして集計を行うようにしても良い。 In addition, the aggregation of fish types may target all fish types or main fish types, or may target one or more specific types. For example, one or more fish species to be surveyed are determined in advance, the fish species to be surveyed are counted for each fish species, and the fish species other than the survey targets are aggregated as other fish species. You may make it do.
なお、魚種データベース20との照合で魚種を判別することができなかった魚影については、不明魚影として処理される。また、動画から検出された同じ魚影について、対応する異なる静止画で魚種の判別結果が異なる場合にも、不明魚影として処理される。そして、これらの魚影については後に人間によって魚種判別が行われ、魚影データベース20に追加登録することで魚影データベース20の改善が行われる。さらに、動画で魚影が検出されたにもかかわらず、静止画の撮影間隔の間に出現・消滅し、静止画に写っていない魚影に対しては、不明魚影軌跡として集計が行われる。
Note that fish shadows for which the fish type could not be determined by collation with the
魚種及びサイズの判別とその集計、並びにそれらの結果の表示は種別判別手段5によって自動的に行われる。 The discrimination of the fish type and size, the totalization, and the display of the results are automatically performed by the type discrimination means 5.
本発明によれば、動画に基づいて魚影を検出するので検出精度を向上させることができると共に、静止画に基づいて画像判別を行うので判別精度を向上させることができる。即ち、動画と静止画の特徴を利用するので、効率的に精度の良い判別を行うことができる。また、画像処理による自動判別であり、人手による労力を抑えることができると共に、オペレータの知識量・習熟度等による判別結果のばらつきを防止して客観性の高い結果を得ることができる。 According to the present invention, since the fish shadow is detected based on the moving image, the detection accuracy can be improved, and the image determination is performed based on the still image, so that the determination accuracy can be improved. In other words, since the characteristics of the moving image and the still image are used, it is possible to efficiently and accurately perform the discrimination. In addition, automatic discrimination by image processing can reduce labor by manpower, and it is possible to obtain highly objective results by preventing variations in discrimination results due to the amount of knowledge and proficiency of an operator.
また、計測時間帯の計測領域は無人であり、ダイバーが魚類の行動等に影響を与えることが無いので、通常時の状況をそのまま計測できると共に、魚類を撮影するだけであり捕獲による生物資源の減少を引き起こすこともない。 In addition, since the measurement area in the measurement time zone is unmanned and divers do not affect the behavior of fish, etc., it is possible to measure the normal situation as it is, and only to photograph the fish and capture the biological resources by capture It does not cause a decrease.
また、本発明では2台のカメラ1,2を使用している。通常、2台のカメラを使用する場合には以下の問題があるが、本発明ではこれらの問題を解決している。即ち、動画カメラ1と静止画カメラ2とを使用する場合、動画と静止画を対応付ける必要がある。異なる撮像系で撮影した動画と静止画には、(1)時間的なずれと(2)空間的なずれ(視差ずれ)があり、補正が必要となる。
In the present invention, two
(1) 時間的ずれ
魚は移動するため、動画と静止画の時刻が合っていないと撮影されている魚の位置が異なり、連携は困難になる。なお、動画カメラ1と静止画カメラ2の内蔵時計は撮影前に可能な範囲で合わせるものとするが、この時点で1秒以内の同期精度を確保するのは困難である。この誤差は、主にスチルカメラのメカニズムとタイムスタンプ(撮影時刻情報)の精度に原因がある。
(1) Time lag Since the fish moves, if the time of the moving image and the still image do not match, the position of the photographed fish will be different, and cooperation will be difficult. Note that the built-in clocks of the video camera 1 and the still
例えば10秒ごとに撮影すると設定したスチルカメラのインターバル撮影は、正確に10秒0ミリ秒ごとに撮影されるわけではない。まず、フォーカシングなどの物理的機構や、画像圧縮・保存などの電子回路の処理に必要な時間によって多少のずれが生じる。さらにタイムスタンプは秒単位の情報しか無いため、これらミリ秒単位のずれは記録されない。よってタイムスタンプで、10秒、20秒、30秒に撮影したと記録されている画像は、10秒前後、20秒前後、30秒前後の水中の状況を記録していることになる。つまり動画と静止画の連携では、この時間的ずれを前提に対応付けをする必要が生じる。 For example, the interval shooting of a still camera set to shoot every 10 seconds is not accurately shot every 10 seconds and 0 milliseconds. First, a slight shift occurs depending on the physical mechanism such as focusing and the time required for processing of an electronic circuit such as image compression / storage. Furthermore, since the time stamp has only information in seconds, the deviation in milliseconds is not recorded. Therefore, an image recorded with a time stamp of 10 seconds, 20 seconds, and 30 seconds is recorded underwater conditions of about 10 seconds, about 20 seconds, and about 30 seconds. In other words, in the linkage between a moving image and a still image, it is necessary to associate them with the assumption of this time lag.
これに対し、本発明では、同期目印を用いることで動画と静止画との時間同期を可能にし(ステップS42)、処理を可能にしている。 In contrast, in the present invention, the synchronization mark is used to enable time synchronization between the moving image and the still image (step S42), thereby enabling processing.
(2) 視差ずれ
次に、もし動画と静止画が全く同じ時刻に撮影されたとしても、撮影された画像には違いが生じる。これはビデオカメラとスチルカメラが空間的に離れていることに由来する「視差」の違いが原因である。
(2) Disparity shift Next, even if a moving image and a still image are taken at exactly the same time, a difference occurs in the taken images. This is due to the difference in “parallax” that results from the spatial separation of the video camera and the still camera.
視差ずれは、人間の右目と左目のように、2台のカメラ1,2間(レンズの光軸間)に距離があるために、像がずれるという現象である。このずれは2台のカメラ1,2の間が離れれば離れるほど大きくなる。また、ずれはカメラの近くほど大きく、遠方では小さい。
The parallax shift is a phenomenon in which an image shifts because there is a distance between the two cameras 1 and 2 (between the optical axes of the lenses), such as a human right eye and left eye. This deviation increases as the distance between the two
図7に基づいて視差ずれの影響を説明する。図7の左側にビデオカメラとスチルカメラがあり、図7の右側方向を撮影している。2つのカメラ間には離隔がある。ここで説明のため、図7の右側のP0面をカメラの撮像面とする(実際にはレンズの裏側にある)。この例で、f1,f2,f3の位置にいる3尾の魚は、ビデオカメラから見ると、すべて撮像面上のF0の位置に見える。これはビデオカメラとF0を結ぶ直線上にいるためである。一方スチルカメラから見ると、これらの魚はF1,F2,F3という異なる位置に見える。 The influence of the parallax deviation will be described based on FIG. There are a video camera and a still camera on the left side of FIG. 7, and the right direction of FIG. 7 is taken. There is a separation between the two cameras. Here, for explanation, the P0 plane on the right side of FIG. 7 is used as the imaging plane of the camera (actually on the back side of the lens). In this example, the three fish at the positions of f1, f2, and f3 are all seen at the position of F0 on the imaging surface when viewed from the video camera. This is because it is on a straight line connecting the video camera and F0. On the other hand, when viewed from a still camera, these fish appear at different positions F1, F2, and F3.
上述したように、本発明では、動画から得た魚影位置から、静止画上の位置を推定する、という手段を取る。しかし、これはF0の位置情報のみから、F1,F2,F3の位置情報を推定するという問題であり、解を求めるために必要な情報が不足している不良設定問題となる。 As described above, the present invention takes a means of estimating the position on the still image from the fish shadow position obtained from the moving image. However, this is a problem that the position information of F1, F2, and F3 is estimated from only the position information of F0, and this is a defect setting problem that lacks information necessary to obtain a solution.
これに対し、本発明では、座標変換手段14が動画フレームから抽出した魚影の座標を静止画上の座標に変換し、画像探索手段15がこの変換座標を基準に静止画内で魚影を探索するようにしているので、動画と静止画との位置の対応付けの精度が良くなり(ステップS48,S49)、静止画に写る判別対象の画像の抽出精度を向上させることができる。 On the other hand, in the present invention, the coordinate conversion means 14 converts the fish shadow coordinates extracted from the moving image frame to the coordinates on the still image, and the image search means 15 uses the converted coordinates as a reference for the fish shadow in the still image. Since the search is performed, the accuracy in associating the positions of the moving image and the still image is improved (steps S48 and S49), and the extraction accuracy of the image to be discriminated in the still image can be improved.
なお、上述の形態は本発明の好適な形態の一例ではあるがこれに限定されるものではなく本発明の要旨を逸脱しない範囲において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention, but is not limited thereto, and various modifications can be made without departing from the scope of the present invention.
例えば、上述の説明では、種別判別手段5は既に作成されている魚種データベース20を用いて魚種の判別を行っていたが、魚種データベース20を作成しながら処理を行うようにしても良い。
For example, in the above description, the
この場合の手順を図4及び図5に示す。なお、上述のステップと同じ処理を行うステップには同一の番号を付してそれらの説明を省略する。上述のように魚種データベース20を用いた魚種判別を行う実行フェーズS50を行う前に、前処理フェーズS51を行って魚種データベース20を作成している。取得した動画と静止画の一部に対して前処理フェーズS51が行われ、残りの動画及び静止画に対して実行フェーズS50が行われる。実行フェーズS50では上述のように種別判別手段5が魚種データベース20を用いて自動的に魚種判別を行うが、前処理フェーズS51では、魚種の判別を人間が行って入力し、魚影の魚種判別と魚種データベース20の作成が同時に行われる。
The procedure in this case is shown in FIGS. In addition, the same number is attached | subjected to the step which performs the same process as the above-mentioned step, and those description is abbreviate | omitted. As described above, the pre-processing phase S51 is performed to create the
前処理フェーズS51では、動画側画像抽出手段3による魚影位置の検出(ステップS3)と静止画側画像抽出手段4による魚影の抽出(ステップS44)が実施された後、魚種入力ステップS52が実行される。 In the preprocessing phase S51, the fish shadow position is detected by the moving image side image extracting means 3 (step S3) and the fish shadow is extracted by the still image side image extracting means 4 (step S44), and then the fish type input step S52. Is executed.
魚種入力ステップS52では、静止画側画像抽出手段4が抽出した魚影をデータベース作成補助手段21が表示部10に表示し、入力部9からの魚種(ラベル)の入力を待つ。そして、オペレータによってラベルが入力されると、データベース作成補助手段21は表示した魚影とラベルとを関連づけて登録し、魚種データベース20を作成する。ラベルの入力とデータベースへの登録は各魚影毎に行われる。
In the fish type input step S52, the database
そして、前処理フェーズS51で処理される全ての魚種についてラベル入力とデータベース登録が行われると、実行フェーズS50が実行されて残りの魚影について魚種の自動判別が行われる。実行フェーズS50では、前処理フェーズS51で作成され魚種データベース20を使用して魚種の自動判別が行われる。
When the label input and the database registration are performed for all the fish types processed in the preprocessing phase S51, the execution phase S50 is executed, and the fish types are automatically determined for the remaining fish shadows. In the execution phase S50, the fish species are automatically identified using the
データベース作成補助手段21は、コンピュータ6が制御プログラムを実行することで、演算部7に実現される。
The database
なお、魚影データベース20の作成するためのラベルの入力では、ラベル付け支援ツールを使用しても良い。ラベル付け支援ツールはラベル付け用のユーザインターフェースを備えたソフトウェアであり、画像探索手段15が探索を行う探索範囲22を示す枠を静止画上に重ねて表示し、魚影の拡大表示、枠の移動・形状変更と、ラベル付け(入力)を行うことができるようにしたものである。ラベル付け支援ツールは、コンピュータ6にインストールされて実行される。
Note that a labeling support tool may be used for inputting a label for creating the
また、上述の説明では、ステップS45において魚影の画素数に基づいて魚のサイズを判別していたが、このように見た目のサイズではなく、実際の魚のサイズを推定しても良い。例えば、撮影時にカメラ1,2と魚との距離を測定しておき、測定した距離と撮影された魚影のサイズ(画素数)に基づいて実際の魚のサイズを算出するようにしても良い。なお、魚との距離を測定する測定装置としては、例えば市販の多眼ビデオカメラやレーザレンジファインダ等の使用が可能であるが、これらに限られない。また、2台のカメラ1,2に加えて、もう1台別に動画カメラを設置し、2台の動画カメラで取得した同一の魚影の視差から距離を算出しても良い。さらに、静止画像を記録するデジタルカメラ(静止画カメラ2)として3Dデジカメ(レンズが2個ついたデジカメ)を利用して同時に撮影した静止画の視差から距離を算出しても良い。3Dデジカメは視差が小さいため距離分解能は低いが、2個のレンズの光学系が正確に整合しているため、画像処理により距離を算出するのは容易である。
In the above description, the size of the fish is determined based on the number of fish shadow pixels in step S45. However, the actual fish size may be estimated instead of the apparent size. For example, the distance between the
また、魚の移動速度は魚のサイズと関係があるため、軌跡の平均移動速度(単位時間あたりの移動画素数)から、魚のサイズを推定することも可能である。 Further, since the fish moving speed is related to the fish size, it is also possible to estimate the fish size from the average moving speed of the trajectory (the number of moving pixels per unit time).
また、上述の説明では、動画と静止画との対応付けについて、画像探索手段15が座標変換手段14によって対応付けられた静止画上の座標を中心に探索範囲22の画像探索を行っていた(ステップS49)が、動画上の座標が静止画上の座標に1対1で対応する場合、例えば判別対象が地上を這いまわる動物(人間を含む)等の移動が平面的なものの場合等には、座標変換手段14によって対応付けられた静止画上の座標に魚影が存在するので、探索範囲22の画像探索を省略しても良い。
Further, in the above description, regarding the association between the moving image and the still image, the
本発明を評価するため、水中撮影した動画・静止画を用いた評価実験を行った。評価には沖縄県渡嘉敷郡座間味村阿嘉島のマジャノハマ沿岸の水深1mに設置したビデオカメラとスチルカメラにより、2011年8月20日に撮影した26分(14時41分から15時17分)の映像(DVフォーマット)と、同時に撮影した静止画像157枚(10秒毎に撮影、4000×3000画素)を用いた。ビデオカメラとスチルカメラの間はおよそ20cm離れている。当該地点はサンゴ礁が発達し、魚類が豊富に生息しており、本発明の性能評価に好適である。 In order to evaluate the present invention, an evaluation experiment using moving images and still images taken underwater was performed. The evaluation was 26 minutes (14:41 to 15:17) taken on August 20, 2011 with a video camera and a still camera installed at a depth of 1m on the Majanohama coast in Akajima, Zamami-mura, Tokashiki-gun, Okinawa. (DV format) and 157 still images taken simultaneously (photographed every 10 seconds, 4000 × 3000 pixels) were used. The distance between the video camera and the still camera is approximately 20 cm. The coral reef is developed at this point, and fish are abundant, which is suitable for the performance evaluation of the present invention.
(1.動画からの魚影の検出についての評価)
水中映像の先頭フレーム画像を図11に示す。カメラの設置位置の前方にサンゴがあり、画面の下部3分の1ほどを占めている。動画はDVフォーマット、ワイド化された横720画素、縦360画素の画像、インターレースである。
(1. Evaluation of fish shadow detection from video)
The first frame image of the underwater video is shown in FIG. There is a coral in front of the camera installation position, which occupies about the lower third of the screen. The moving image is a DV format, a widened image of 720 pixels wide and 360 pixels long, and an interlace.
評価対象は、静止画が記録された時刻と同時刻のフレーム画像157枚とした。評価の基準となる魚影は、157枚全てのフレームを表示し、前後をコマ送りして、目視で見出されたすべての魚影とした(なお、50画素以下の魚影は下記の下限サイズパラメータとの関連で、検出対象に含めなかった)。 The evaluation target was 157 frame images at the same time as when the still image was recorded. The fish shadows used as the evaluation standard are all 157 frames displayed, frame-by-frame forward and backward, and all fish shadows found visually (fish fish shadows of 50 pixels or less are Not related to size parameter)
これに対し、本発明を用いて魚影検出を行った結果、正答数:1050尾に対し、見落とし数:146尾、間違い数:20尾となった。よって、適合率(Precision)=1050/(1050+20)=98.1%、再現率(Recall)=1050/(1050+146)=87.8%である。 In contrast, as a result of fish shadow detection using the present invention, the number of correct answers: 1050, the number of oversights: 146, the number of errors: 20. Therefore, the precision (Precision) = 1050 / (1050 + 20) = 98.1%, and the recall (Recall) = 1050 / (1050 + 146) = 87.8%.
パラメータ設定は以下とした。シグマバンドの幅調整係数:α=β=4.0、平均と標準偏差を求める時間幅:300秒、魚影の最大速度:20画素/フレーム、魚影サイズ上限:5000画素、下限:50画素、魚影と確定するまでの最小追跡回数:3である。本発明を実装したソフトウェアでは、これらパラメータは画像処理をリアルタイムに行いながら調整できるため、動画先頭から300秒の処理状況を見ながら、好適なパラメータを調整した。 The parameter settings were as follows. Sigma band width adjustment coefficient: α = β = 4.0, time width for obtaining average and standard deviation: 300 seconds, maximum fish shadow speed: 20 pixels / frame, fish shadow size upper limit: 5000 pixels, lower limit: 50 pixels The minimum number of tracking times until the fish shadow is determined is 3. In the software in which the present invention is implemented, these parameters can be adjusted while performing image processing in real time. Therefore, suitable parameters were adjusted while viewing the processing status for 300 seconds from the beginning of the moving image.
処理への影響が大きいパラメータはシグマバンドの幅調整係数であり、設定値を小さくすると、サンゴ表面で明滅する光など、光のゆらぎで誤計測をしてしまうため、それを防ぐ設定値とした。抽出結果は上述のように、見落とし数が多少多いため、最適なパラメータはもう少し小さい可能性がある。 The parameter that has a large effect on processing is the sigma band width adjustment coefficient, and if the setting value is reduced, it will cause erroneous measurement due to light fluctuations, such as light flickering on the surface of the coral. . As described above, since the number of overlooked results is somewhat large, the optimal parameter may be a little smaller.
見落としは以下の場合に発生した。まず、光のゆらぎの大きいサンゴ表面などでは、シグマバンドが大きくなり、明るい魚の姿を見落とすことがあった。逆に、サンゴの影になる常時暗い場所では、黒い魚を見落とすことがあった。これらは目視でも見出すのが難しく、動画を再生することで始めて見いだせた。また画面上で魚影が重なったり接触したりした場合には、魚影を一つとみなし、見落とすことがあった。 An oversight occurred when: First, on the surface of coral where the light fluctuates, the sigma band grows, and the appearance of bright fish is sometimes overlooked. On the other hand, black fish could be overlooked in dark places that are always shadows of corals. These were difficult to find visually and were only found by playing the video. Also, when fish shadows overlap or touch on the screen, the fish shadows are considered as one and may be overlooked.
一方で、間違いのほとんどは、大きな一尾の魚を2つ以上に分割してしまう場合であった。光のゆらぎなど背景の明度変化を魚影と間違うことは、ほとんど無かった。 On the other hand, most of the mistakes were when a large single fish was split into two or more. There was almost no mistake in background brightness changes such as light fluctuations with fish shadows.
(2.静止画からの魚影抽出についての評価)
(1) 動画と静止画の時刻合わせ
動画と静止画のタイムスタンプは撮影した状態では合っていない。そこで、動画の時刻を静止画に合わせた。具体的には以下のように行った。まず、計測時間帯の前に撮影された静止画の中で、泳ぐダイバーや目立つ魚影など、動きがあって、フレーム単位で変化の見分けがつく画像(同期目印が写し込まれている静止画)を選定する。その静止画の時刻がH時M分S秒であったとする。動画中で、その静止画と同じフレーム時刻を、H時M分S秒0ミリ秒とする。動画の各フレーム時刻は、この再設定された時刻から、フレーム数換算で再計算する。今回用いた映像はNTSCであるため、秒あたり29.97フレームである。今回用いた時刻合わせ用のフレーム画像を図12に示す。
(2. Evaluation of fish shadow extraction from still images)
(1) Time adjustment of video and still images The time stamps of video and still images do not match when shot. Therefore, the time of the movie was adjusted to the still image. Specifically, it was performed as follows. First, in the still images taken before the measurement time zone, images such as swimming divers and conspicuous fish shadows that have movement and can be distinguished from change in units of frames (still images with synchronous landmarks) ) Is selected. Assume that the time of the still image is H hour M minute S second. In a moving image, the same frame time as that still image is set to H hour M minute S second 0 millisecond. Each frame time of the moving image is recalculated from the reset time in terms of the number of frames. Since the video used this time is NTSC, it is 29.97 frames per second. FIG. 12 shows a frame image for time adjustment used this time.
(2) 対応付けの基準点設定
本発明では、動画と静止画の座標を対応付ける3つの基準点となる、何らかの目印が必要である。今回は、図13に示すように、サンゴの右端と左端の目印になる箇所、サンゴよりは少し遠い位置、上方に泳ぐ他と区別のつく魚影を基準点とした。前述したように、この3つの基準点を含む平面から離れると、座標変換の結果と実際の魚影位置がずれる。基準点の選定方針は、カメラから奥行き方向の中距離に、縦と横になるべく幅を取って設定するというものである。カメラの視野はカメラ近傍が狭く、遠方が広いため、現れる魚影の数は遠方が多い。一方でカメラから離れるに従って、魚影は小さく・不鮮明になり静止画上でも魚影判定ができない。そのため重点的に計測すべきは、その中間となるため、中距離に基準点を設けることとした。また、基準点間の距離を離すのは、動画と静止画の基準点設定の誤差の影響が少なくなるようにするためである。基準点間が接近していると、数画素の違いが基準点から離れた端の方で大きな違いになって現れる。
(2) Setting of Reference Point for Association In the present invention, some mark is required as three reference points for associating the coordinates of the moving image and the still image. This time, as shown in FIG. 13, the reference point is a fish shadow that is distinguishable from other places that swim up, as shown in FIG. As described above, when moving away from the plane including these three reference points, the result of coordinate conversion and the actual fish shadow position deviate. The reference point selection policy is to set the width as long as possible in the vertical and horizontal directions at a middle distance in the depth direction from the camera. Since the field of view of the camera is narrow in the vicinity of the camera and wide in the distance, the number of fish shadows that appear is large in the distance. On the other hand, as the distance from the camera increases, the fish shadow becomes smaller and unclear and the fish shadow cannot be determined even on a still image. For this reason, it is important to measure in the middle, so we decided to provide a reference point at an intermediate distance. Also, the distance between the reference points is increased in order to reduce the influence of errors in setting the reference points of the moving image and the still image. When the reference points are close to each other, a difference of several pixels appears as a big difference at the end away from the reference point.
(3) 対応付けの精度
魚影対応付けの評価のためには、静止画上の正しい魚影位置が必要である。正しい魚影位置を入力するために、ラベル付け支援ツールを開発して使用した。ラベル付け支援ツールはラベル付け用のユーザインターフェースを備えたソフトウェアであり、画像探索手段15が探索を行う探索範囲22を示す枠を静止画上に重ねて表示し、魚影の拡大表示、枠の移動・形状変更と、ラベル付け(入力)を行うことができるようにしたものである。
(3) Accuracy of matching In order to evaluate fish shadow matching, a correct fish shadow position on a still image is required. A labeling support tool was developed and used to input the correct fish shadow position. The labeling support tool is software having a user interface for labeling, and displays a frame indicating the
評価指標には、領域捕捉率を定義して用いた(数式1)。 As the evaluation index, the area capture rate was defined and used (Formula 1).
<数1>
領域捕捉率=抽出領域と魚影領域の重なる面積÷魚影領域の面積
<Equation 1>
Area capture rate = area where extraction area and fish shadow area overlap ÷ area of fish shadow area
ここで、抽出領域とは静止画側画像抽出手段4が抽出した魚影(即ち、魚が写っている部分を含む長方形の画像領域)であり、魚影領域とは実際に写っている魚の部分を囲む最小長方形である。つまり、静止画側画像抽出手段4が自動抽出した領域が、正しく魚影を覆っている場合に100%、全く重なりが無い場合に0%となる指標である。魚影に対応する全817領域に対して、座標変換のみの場合、平均47.3%、魚影探索を行った場合、平均70.8%となった。 Here, the extraction area is a fish shadow extracted by the still image side image extraction means 4 (that is, a rectangular image area including a part where the fish is reflected), and the fish shadow area is a part of the fish actually reflected. Is the smallest rectangle that encloses That is, the index is 100% when the area automatically extracted by the still image side image extraction means 4 correctly covers the fish shadow, and 0% when there is no overlap. With respect to all 817 areas corresponding to fish shadows, the average was 47.3% when only coordinate conversion was performed, and the average was 70.8% when fish shadow search was performed.
画像探索手段15の探索範囲の広さを調整するパラメータである探索範囲係数はa=5.0,b=3.0とした。横に広い(a>b)とした理由は、使用された2台のカメラ1,2が左右に併置されており、視差ずれが横方向に大きいためである。
The search range coefficients, which are parameters for adjusting the width of the search range of the image search means 15, are a = 5.0 and b = 3.0. The reason why the width is wide (a> b) is that the two
評価に用いた母数817が、上述の抽出魚影領域1050(1050尾)よりも少ない理由は、動画には現れていても、静止画には現れていない魚影がいたためである。そのような領域は、海底や海水など魚影の無い領域に対応付けられる。現れない理由は、スチルカメラでは撮影できない画面の外に魚がいる場合と、時間ずれの影響で魚影が動画とは異なる位置に移動している場合がある。 The reason why the number of parameters 817 used for the evaluation is smaller than the above-described extracted fish shadow region 1050 (1050 fish) is that there is a fish shadow that appears in the moving image but does not appear in the still image. Such a region is associated with a region having no fish shadow such as the seabed or seawater. The reason for not appearing is that there is a fish outside the screen that cannot be photographed with a still camera, or there is a case where the fish shadow has moved to a position different from that of the moving image due to the time shift.
なお、魚影探索まで行なっても、領域捕捉率が0%の領域は114あった。これらは主に画面の下部で発生している。図14に画面上端からの縦方向の画素数に応じた領域捕捉率を示す。縦軸は動画のサイズに合わせて縮小した静止画での縦方向の画素数であり、静止画の縦幅を600画素としている(図15)。これから、画面の最下部のエリアでの捕捉率が36.8%と低いことがわかる。 Even when the fish shadow search was performed, there were 114 regions with a region capture rate of 0%. These occur mainly at the bottom of the screen. FIG. 14 shows the area capture rate according to the number of pixels in the vertical direction from the upper end of the screen. The vertical axis represents the number of pixels in the vertical direction of a still image reduced according to the size of the moving image, and the vertical width of the still image is 600 pixels (FIG. 15). From this, it can be seen that the capture rate in the bottom area of the screen is as low as 36.8%.
対応付けに失敗した例を分析した結果、原因は以下3つであることがわかった。まず座標変換により、魚影探索の初期位置として与えた座標が、視差ずれの影響により大きく異なっているため、探索範囲に魚影が無い場合である。視差ずれはカメラに近いほど大きい。次に、サンゴなど魚影と区別の付きづらい背景にいる場合、魚ではなくサンゴを選んだ場合があった。これは動画と静止画で色や解像度が異なることも影響している。最後に、動画と静止画との時間ずれの影響で、魚の向きや角度が、動画と静止画で大きく異なり、類似画像となっていない場合である。いずれの条件も画面下部で多く発生するため、領域捕捉率が画面下部で低くなっている。 As a result of analyzing an example in which the association failed, it was found that there are the following three causes. First, the coordinates given as the initial position of the fish shadow search by the coordinate conversion are greatly different due to the effect of the parallax shift, and therefore there is no fish shadow in the search range. The closer to the camera, the greater the parallax shift. Next, if you are in a background that is difficult to distinguish from fish shadows, such as coral, you may have selected coral instead of fish. This is also affected by the difference in color and resolution between moving images and still images. Finally, due to the effect of the time lag between the moving image and the still image, the direction and angle of the fish differ greatly between the moving image and the still image, and the images are not similar. Since both conditions occur frequently at the bottom of the screen, the area capture rate is low at the bottom of the screen.
(3.魚種の判別についての評価)
(1) 画像データベースの作成
魚種判別の評価のため、静止画側画像抽出手段4が抽出した魚影領域に対応した、画像データベースを作る必要がある。そこで、静止画側画像抽出手段4が抽出した1021の魚影領域すべてに専門家によるラベル付けを行った。ラベル付けは、ラベル付け支援ツールを用い、数式1の領域捕捉率が100%になるように正しい魚影位置に修正した後、行った。なお、抽出領域は魚影だけでなく、サンゴや海底、海水中など、魚影以外も含んでいる。上述の抽出魚影領域1050(1050尾)より少ない理由は、同じ領域に重なった領域を除外したためである。ラベルは表1の4種類とした。
(3. Evaluation of fish species discrimination)
(1) Creation of an image database In order to evaluate fish species discrimination, it is necessary to create an image database corresponding to the fish shadow region extracted by the still image side image extraction means 4. Therefore, all the 1021 fish shadow regions extracted by the still image side image extraction means 4 are labeled by experts. The labeling was performed using a labeling support tool after correcting the correct fish shadow position so that the area capture rate of Equation 1 was 100%. Note that the extraction region includes not only fish shadows but also fish shadows such as corals, the seabed, and seawater. The reason why it is smaller than the extracted fish shadow area 1050 (1050 fish) is that the area overlapping the same area is excluded. There were four types of labels in Table 1.
それぞれの領域数は、スズメダイ:332、その他の魚類:42、不明魚:485、魚以外:162となった。また、それぞれの領域の平均サイズ(静止画像を800×600画素とした場合の画素数)は、スズメダイ:2292、その他の魚類:3711、不明魚:980、魚以外:3465となり、サイズが小さい魚影は判定が困難であった。また画面上端からの距離範囲ごとに、各領域の数を表2に集計した。これから画面上部ほど不明魚の数が多いことがわかる。画面上部はカメラから遠い魚影も撮影されるため、判別のできない魚影が多く現れる。なお、魚以外の領域数が上端に多いのは、静止画撮影時刻が遅れ、魚が画面外に泳ぎ出たためである。 The number of each area | region was set to 332: Other fishes: 42, Unknown fish: 485, Other than fish: 162. In addition, the average size of each area (the number of pixels when the still image is 800 × 600 pixels) is: damselfish: 2292, other fish: 3711, unknown fish: 980, non-fish: 3465, and small fish Shadows were difficult to determine. The number of each area is tabulated in Table 2 for each distance range from the upper end of the screen. From this, it can be seen that there are more unknown fish at the top of the screen. Since the upper part of the screen also captures fish shadows far from the camera, many fish shadows that cannot be identified appear. The reason why the number of areas other than fish is large at the upper end is that the still image shooting time is delayed and the fish swims off the screen.
(2) 魚影とそれ以外の判定性能
魚種判別の機能として、まずは魚と魚以外を区別する必要がある。そこで自動判定の初歩的なトライアルとして、不明魚も含めた魚影と、魚以外を自動判別することを試みた。自動判定の対象領域は、専門家が魚影位置を修正しラベル付けした領域である。特徴量としては、人物検出で良好な性能を示した模様特徴量(中島慶人:「既設監視カメラを用いた高速な侵入者検知方式」,電力中央研究所研究報告,R04007,2005)を採用した。具体的には領域画像を縦:64画素、横:64画素に縮小し、2次元Haarウェーブレットで得られたLH成分とHL成分の計512個を用いた(図16)。学習器にはSVMを用い、カーネルには自然画像に適しているとされるRBFカーネルを採用した。データの3/4をランダムに選択して学習に用い、残り1/4を評価に用いるクロスバリデーションを、RBFカーネルのパラメータであるγを変えて、各50回行った結果を表3に示す。魚影とそれ以外の判定は約94%で可能であることが示された。
(2) Fish shadow and other judgment performance As a fish species discrimination function, it is first necessary to distinguish between fish and non-fish. Therefore, as a rudimentary trial of automatic judgment, we tried to automatically distinguish fish shadows including unknown fish from those other than fish. The target area for automatic determination is an area where the fish shadow position is corrected and labeled by an expert. As the feature quantity, we adopt the pattern feature quantity (Yoshito Nakajima: “High-speed intruder detection method using existing surveillance camera”, Research Report of Central Research Institute of Electric Power, R04007, 2005) that showed good performance in human detection did. Specifically, the region image was reduced to 64 pixels in the vertical direction and 64 pixels in the horizontal direction, and a total of 512 LH components and HL components obtained by the two-dimensional Haar wavelet were used (FIG. 16). An SVM was used as the learning device, and an RBF kernel that was considered suitable for natural images was used as the kernel. Table 3 shows the results of cross validation using 3/4 of the data randomly selected and used for learning and the remaining 1/4 for evaluation while changing γ, which is a parameter of the RBF kernel, 50 times. It was shown that fish shadow and other determinations are possible at about 94%.
今回の撮影ではスズメダイ以外はほとんど撮影できていないため、魚種の判定性能は評価しなかった。 Since only the damselfish was photographed at this time, the judgment performance of the fish species was not evaluated.
評価実験の結果を以下に整理する。動画からの魚影の検出については適合率98.1%、再現率87.8%と評価に用いた動画に対して高い検出性能を示した。静止画からの魚影の抽出では、領域捕捉率で評価し、座標変換のみでは平均47.3%の領域捕捉率であったのに対し、テンプレート照合を用いた魚影探索を加えることで、平均70.8%の魚影捕捉率となり、本発明の効果を確認した。魚種の判別については、魚影データベースが未整備であることから、初歩的なトライアルとして、魚影であるか否かを判定させたところ93.8%の精度で判定できたことから本発明によって魚種の自動判別が可能であることを確認できた。 The results of the evaluation experiment are summarized below. Regarding the detection of fish shadows from moving images, high detection performance was shown for moving images used for evaluation, with a precision of 98.1% and a recall of 87.8%. In the extraction of fish shadows from still images, the area capture rate was evaluated, and the average area capture rate was 47.3% only by coordinate conversion, but by adding fish shadow search using template matching, The fish shadow capture rate was 70.8% on average, confirming the effect of the present invention. Regarding the discrimination of fish species, since the fish shadow database is not yet established, it was determined as an elementary trial whether or not it was a fish shadow, and it was determined with an accuracy of 93.8%. It was confirmed that it was possible to distinguish fish species automatically.
1 動画カメラ
2 静止画カメラ
3 動画側画像抽出手段
4 静止画側画像抽出手段
5 種別判別手段
14 座標変換手段
15 画像探索手段
20 魚種データベース
DESCRIPTION OF SYMBOLS 1
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012070165A JP5875917B2 (en) | 2012-03-26 | 2012-03-26 | Moving body image discrimination apparatus and moving body image discrimination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012070165A JP5875917B2 (en) | 2012-03-26 | 2012-03-26 | Moving body image discrimination apparatus and moving body image discrimination method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013201714A true JP2013201714A (en) | 2013-10-03 |
JP5875917B2 JP5875917B2 (en) | 2016-03-02 |
Family
ID=49521575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012070165A Expired - Fee Related JP5875917B2 (en) | 2012-03-26 | 2012-03-26 | Moving body image discrimination apparatus and moving body image discrimination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5875917B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015087328A (en) * | 2013-10-31 | 2015-05-07 | 学校法人東北学院 | Body length and type discrimination device, underwater detection device, and body length and type discrimination method |
JP2016081112A (en) * | 2014-10-10 | 2016-05-16 | Necソリューションイノベータ株式会社 | Fish counter, fish counting method, prediction device for number of fish, prediction method for number of fish, fish counter system and prediction system for number of fish |
JP2016165238A (en) * | 2015-03-09 | 2016-09-15 | Necソリューションイノベータ株式会社 | Same fish determination device, fish counting device, mobile terminal for fish counting, same fish determination method, fish counting method, number of fish estimation device, number of fish estimation method, same fish determination system, fish counting system and number of fish estimation system |
JP2018029509A (en) * | 2016-08-24 | 2018-03-01 | 五洋建設株式会社 | Living thing inhabitation situation investigation method |
JP6336693B1 (en) * | 2016-12-09 | 2018-06-06 | 株式会社日立国際電気 | Water intrusion detection system and method |
JP2018152106A (en) * | 2018-05-02 | 2018-09-27 | 株式会社日立国際電気 | System for detecting invasion on water and method for the same |
JPWO2018061928A1 (en) * | 2016-09-30 | 2019-07-25 | 日本電気株式会社 | INFORMATION PROCESSING APPARATUS, COUNTING SYSTEM, COUNTING METHOD, AND COMPUTER PROGRAM |
WO2019188506A1 (en) * | 2018-03-26 | 2019-10-03 | 日本電気株式会社 | Information processing device, object measuring system, object measuring method, and program storing medium |
CN110342134A (en) * | 2019-07-23 | 2019-10-18 | 珠海市一微半导体有限公司 | A kind of garbage classification identifying system and its method based on binocular vision |
KR102129698B1 (en) * | 2019-12-19 | 2020-07-02 | 김맹기 | Automatic fish counting system |
JPWO2019045091A1 (en) * | 2017-09-04 | 2020-09-17 | 日本電気株式会社 | Information processing equipment, counting system, counting method and computer program |
KR20200109683A (en) * | 2019-03-14 | 2020-09-23 | 경남과학기술대학교 산학협력단 | Data Application System for Classification of Fish Species |
KR20200109681A (en) * | 2019-03-14 | 2020-09-23 | 경남과학기술대학교 산학협력단 | Data acquisition method for classification of fish species |
US11328439B2 (en) | 2018-03-09 | 2022-05-10 | Nec Corporation | Information processing device, object measurement system, object measurement method, and program storage medium |
JP7338726B1 (en) | 2022-03-15 | 2023-09-05 | 日本電気株式会社 | Moving object measurement method |
JP7584694B1 (en) | 2024-03-13 | 2024-11-15 | 電気興業株式会社 | Attribute analysis system, and estimation method and communication method using the same |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH087069A (en) * | 1994-06-15 | 1996-01-12 | Hitachi Ltd | Measuring instrument for number of fishes classified by fish kind through the use of image processing |
JP2007094840A (en) * | 2005-09-29 | 2007-04-12 | Fujifilm Corp | Image processing device and image processing method |
JP2007295042A (en) * | 2006-04-20 | 2007-11-08 | System Io:Kk | Monitoring apparatus |
JP2008042695A (en) * | 2006-08-09 | 2008-02-21 | Gm2:Kk | Monitor camera apparatus, monitor camera system, and method of recording monitor camera image |
JP2008197733A (en) * | 2007-02-08 | 2008-08-28 | Toshiba Corp | Tracking method and device |
JP2010177893A (en) * | 2009-01-28 | 2010-08-12 | Osaka Prefecture | Imaging controller and imaging control method |
-
2012
- 2012-03-26 JP JP2012070165A patent/JP5875917B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH087069A (en) * | 1994-06-15 | 1996-01-12 | Hitachi Ltd | Measuring instrument for number of fishes classified by fish kind through the use of image processing |
JP2007094840A (en) * | 2005-09-29 | 2007-04-12 | Fujifilm Corp | Image processing device and image processing method |
JP2007295042A (en) * | 2006-04-20 | 2007-11-08 | System Io:Kk | Monitoring apparatus |
JP2008042695A (en) * | 2006-08-09 | 2008-02-21 | Gm2:Kk | Monitor camera apparatus, monitor camera system, and method of recording monitor camera image |
JP2008197733A (en) * | 2007-02-08 | 2008-08-28 | Toshiba Corp | Tracking method and device |
JP2010177893A (en) * | 2009-01-28 | 2010-08-12 | Osaka Prefecture | Imaging controller and imaging control method |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015087328A (en) * | 2013-10-31 | 2015-05-07 | 学校法人東北学院 | Body length and type discrimination device, underwater detection device, and body length and type discrimination method |
JP2016081112A (en) * | 2014-10-10 | 2016-05-16 | Necソリューションイノベータ株式会社 | Fish counter, fish counting method, prediction device for number of fish, prediction method for number of fish, fish counter system and prediction system for number of fish |
CN107111781A (en) * | 2014-10-10 | 2017-08-29 | 日本电气方案创新株式会社 | Fish counting device, fish method of counting, fish number prediction meanss, fish number Forecasting Methodology, fish number system and fish number forecasting system |
JP2016165238A (en) * | 2015-03-09 | 2016-09-15 | Necソリューションイノベータ株式会社 | Same fish determination device, fish counting device, mobile terminal for fish counting, same fish determination method, fish counting method, number of fish estimation device, number of fish estimation method, same fish determination system, fish counting system and number of fish estimation system |
JP2018029509A (en) * | 2016-08-24 | 2018-03-01 | 五洋建設株式会社 | Living thing inhabitation situation investigation method |
JPWO2018061928A1 (en) * | 2016-09-30 | 2019-07-25 | 日本電気株式会社 | INFORMATION PROCESSING APPARATUS, COUNTING SYSTEM, COUNTING METHOD, AND COMPUTER PROGRAM |
JP7007280B2 (en) | 2016-09-30 | 2022-01-24 | 日本電気株式会社 | Information processing equipment, counting system, counting method and computer program |
WO2018105112A1 (en) * | 2016-12-09 | 2018-06-14 | 株式会社日立国際電気 | Water intrusion detection system and method |
US10282622B2 (en) | 2016-12-09 | 2019-05-07 | Hitachi Kokusai Electric Inc. | Marine intrusion detection system and method |
JP6336693B1 (en) * | 2016-12-09 | 2018-06-06 | 株式会社日立国際電気 | Water intrusion detection system and method |
JPWO2019045091A1 (en) * | 2017-09-04 | 2020-09-17 | 日本電気株式会社 | Information processing equipment, counting system, counting method and computer program |
US11328439B2 (en) | 2018-03-09 | 2022-05-10 | Nec Corporation | Information processing device, object measurement system, object measurement method, and program storage medium |
WO2019188506A1 (en) * | 2018-03-26 | 2019-10-03 | 日本電気株式会社 | Information processing device, object measuring system, object measuring method, and program storing medium |
US11913771B2 (en) | 2018-03-26 | 2024-02-27 | Nec Corporation | Information processing device, object measuring system, object measuring method, and program storing medium |
JP2018152106A (en) * | 2018-05-02 | 2018-09-27 | 株式会社日立国際電気 | System for detecting invasion on water and method for the same |
KR20200109683A (en) * | 2019-03-14 | 2020-09-23 | 경남과학기술대학교 산학협력단 | Data Application System for Classification of Fish Species |
KR20200109681A (en) * | 2019-03-14 | 2020-09-23 | 경남과학기술대학교 산학협력단 | Data acquisition method for classification of fish species |
KR102191064B1 (en) * | 2019-03-14 | 2020-12-14 | 경남과학기술대학교 산학협력단 | Data Application System for Classification of Fish Species |
KR102191062B1 (en) * | 2019-03-14 | 2020-12-14 | 경남과학기술대학교 산학협력단 | Data acquisition method for classification of fish species |
CN110342134B (en) * | 2019-07-23 | 2023-06-09 | 珠海一微半导体股份有限公司 | Garbage classification and identification system and method based on binocular vision |
CN110342134A (en) * | 2019-07-23 | 2019-10-18 | 珠海市一微半导体有限公司 | A kind of garbage classification identifying system and its method based on binocular vision |
KR102129698B1 (en) * | 2019-12-19 | 2020-07-02 | 김맹기 | Automatic fish counting system |
JP7338726B1 (en) | 2022-03-15 | 2023-09-05 | 日本電気株式会社 | Moving object measurement method |
WO2023176488A1 (en) * | 2022-03-15 | 2023-09-21 | 日本電気株式会社 | Moving bodies measurement method |
JP2023135080A (en) * | 2022-03-15 | 2023-09-28 | 日本電気株式会社 | Moving object measurement method |
JP7584694B1 (en) | 2024-03-13 | 2024-11-15 | 電気興業株式会社 | Attribute analysis system, and estimation method and communication method using the same |
Also Published As
Publication number | Publication date |
---|---|
JP5875917B2 (en) | 2016-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5875917B2 (en) | Moving body image discrimination apparatus and moving body image discrimination method | |
US9462160B2 (en) | Color correction device, method, and program | |
CN104106260B (en) | Control based on geographical map | |
CN105745687B (en) | Context aware Moving target detection | |
CN102414718B (en) | Object position inference device, and object position inference method | |
CN106407974A (en) | Method for object localization and pose estimation for an object of interest | |
CN109887040A (en) | The moving target actively perceive method and system of facing video monitoring | |
CN104598883A (en) | Method for re-recognizing target in multi-camera monitoring network | |
WO2018101247A1 (en) | Image recognition imaging apparatus | |
CN108830185B (en) | Behavior identification and positioning method based on multi-task joint learning | |
CN109035307B (en) | Set area target tracking method and system based on natural light binocular vision | |
JP7074185B2 (en) | Feature estimation device, feature estimation method, and program | |
WO2021060077A1 (en) | Fish counting system, fish counting method, and program | |
CN113591592B (en) | Overwater target identification method and device, terminal equipment and storage medium | |
CN108090922A (en) | Intelligent Target pursuit path recording method | |
CN117058232A (en) | Position detection method for fish target individuals in cultured fish shoal by improving YOLOv8 model | |
WO2012063544A1 (en) | Image processing device, image processing method, and recording medium | |
CN117132768A (en) | License plate and face detection and desensitization method and device, electronic equipment and storage medium | |
CN104284084A (en) | Image processing apparatus, image processing method, and program | |
CN114220044B (en) | River course floater detection method based on AI algorithm | |
JP7007280B2 (en) | Information processing equipment, counting system, counting method and computer program | |
JP2021149687A (en) | Device, method and program for object recognition | |
WO2019137186A1 (en) | Food identification method and apparatus, storage medium and computer device | |
CN114332682B (en) | Marine panorama defogging target identification method | |
Charisis et al. | Detecting and locating mushroom clusters by a Mask R-CNN model in farm environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5875917 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |