JP7564737B2 - Photographing device and photographing method - Google Patents
Photographing device and photographing method Download PDFInfo
- Publication number
- JP7564737B2 JP7564737B2 JP2021037687A JP2021037687A JP7564737B2 JP 7564737 B2 JP7564737 B2 JP 7564737B2 JP 2021037687 A JP2021037687 A JP 2021037687A JP 2021037687 A JP2021037687 A JP 2021037687A JP 7564737 B2 JP7564737 B2 JP 7564737B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- feature
- dimensional
- dimensional coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 15
- 238000012545 processing Methods 0.000 claims description 148
- 238000003384 imaging method Methods 0.000 claims description 42
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 11
- 238000003672 processing method Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims 10
- 230000000875 corresponding effect Effects 0.000 claims 5
- 230000002596 correlated effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 54
- 238000012806 monitoring device Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 14
- 230000010365 information processing Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 238000010248 power generation Methods 0.000 description 7
- 238000007689 inspection Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000005856 abnormality Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 102200041246 rs749465732 Human genes 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Description
本発明の実施形態は、撮影処理装置、及び撮影処理方法に関する。 Embodiments of the present invention relate to an imaging processing device and an imaging processing method.
発電プラントでは、プラントを安全に運転するために、膨大な機器の保守点検を定期的に点検員が巡視点検している。また点検員は、巡視中に機器異常なども合わせて目視で確認している。従来の保守点検は、一般に現場で点検員が確認した結果を手書き記録し、事務所で点検記録を作成すことなどが行われる。このように、人手による作業が多く、作業の省力化を図る取り組みが行われている。このような省力化を図る取り組みの多くは、モバイル端末を利用するサービスである。例えば点検員へ点検要領書を提示すると共に、点検員が目視確認したメータなどの数値をモバイル端末に入力することにより、手書き作業を除外し、点検結果をデジタル化するものである。 At power plants, inspectors regularly patrol the equipment to perform maintenance inspections on a huge amount of equipment to ensure the plant operates safely. During their patrols, the inspectors also visually check for equipment abnormalities. Traditional maintenance inspections are generally done by handwriting the results of the inspectors' inspections on-site and creating inspection records in the office. As such, much of the work is done manually, and efforts are being made to reduce the labor required for this work. Many of these labor-saving efforts are services that use mobile devices. For example, by presenting inspection instructions to inspectors and inputting the values of meters and other items that the inspectors have visually checked into a mobile device, handwriting is eliminated and inspection results are digitized.
また、機器異常などの記録とし、巡視中の点検員が持ったカメラの映像をドライブレコーダーのように記録して、後日、必要に応じて映像を確認できるシステムの検討も進められている。映像を確認する際、記録された映像が長時間であるため、撮影位置を特定した映像の確認や異常の可能性がある映像のみを確認することが望まれる。また、カメラに魚眼レンズなどを用いて一度に広範囲の球面画像を記録し、確認することが行われようとしている。 A system is also under consideration that would record footage from cameras held by inspectors on patrol, like a dashcam, to record any equipment abnormalities and allow the footage to be reviewed at a later date if necessary. Because the footage recorded is long, it is desirable to review footage from a specific shooting location or only footage that may show abnormalities. There are also plans to use fisheye lenses on cameras to record and review spherical images of a wide area at once.
しかし、位置測位方法として屋外であればGPSの利用が一般的であるが、発電プラントなどの屋内では電波が届かないためGPSの利用が難しいため、撮影位置の特定がより難しくなる。また、球面画像は湾曲しており、球面画像を用いた処理では、撮影位置の特定精度が低下する恐れがある。 However, while GPS is commonly used as a method of determining location outdoors, it is difficult to use GPS indoors, such as in power plants, where radio waves cannot reach, making it even more difficult to identify the shooting location. In addition, spherical images are curved, and processing using spherical images may reduce the accuracy of identifying the shooting location.
本発明の実施形態は、このような事情を考慮してなされたものであり、撮影画像を撮影した撮影位置を取得可能な撮影処理装置及び撮影処理方法を提供する。 The embodiment of the present invention has been made in consideration of these circumstances, and provides an image capture processing device and an image capture processing method that can acquire the image capture position at which an image was captured.
本実施形態に係る撮影処理装置は、変換部と、特徴点生成部と、撮影位置推定部と、を備える。変換部は、実空間内の対象物を撮像した球面画像を平坦な要素画像に第1基準点に基づき、変換する。特徴点生成部は、要素画像に基づき得られた対象物における複数の第1特徴点それぞれの第1位置座標を生成する。撮影位置推定部は、第1位置座標を用いて球面画像の撮影位置を推定する。 The image capture processing device according to this embodiment includes a conversion unit, a feature point generation unit, and an image capture position estimation unit. The conversion unit converts a spherical image of an object in real space into a flat elemental image based on a first reference point. The feature point generation unit generates first position coordinates for each of a plurality of first feature points in the object obtained based on the elemental images. The image capture position estimation unit estimates the image capture position of the spherical image using the first position coordinates.
本実施形態によれば、撮影画像を撮影した撮影位置を取得することができる。 According to this embodiment, it is possible to obtain the shooting position where the captured image was taken.
以下、本発明の実施形態に係る撮影処理装置、及び撮影処理方法について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。
(第1実施形態)
Hereinafter, an image capture processing device and an image capture processing method according to an embodiment of the present invention will be described in detail with reference to the drawings. Note that the embodiment shown below is an example of an embodiment of the present invention, and the present invention is not limited to these embodiments. In addition, in the drawings referred to in this embodiment, the same parts or parts having similar functions are given the same or similar symbols, and repeated explanations may be omitted. In addition, the dimensional ratios of the drawings may differ from the actual ratios for the convenience of explanation, and some components may be omitted from the drawings.
First Embodiment
図1は、第1実施形態に係る撮影処理システム1の構成を示すブロック図である。図1に示すように、撮影処理システム1は、撮影処理装置2と、監視装置4とを備える。撮影処理装置2は、撮影位置を特定することが可能な装置であり、撮影位置及び撮影位置に関する映像情報などを監視装置4に、例えば無線通信により送信する。一方で、監視装置4は、撮影処理装置2から供給される情報に基づき、発電プラントなどの屋内における機器などを監視する装置である。撮影処理装置2と、監視装置4とは、電波障害のない位置に配置された中継器などを介して、無線通信により情報を相互に通信可能である。なお、本実施形態に係る撮影処理装置2と、監視装置4とは別体として構成しているがこれに限定されない。例えば、撮影処理装置2と、監視装置4とを一体的に構成し、可搬可能な撮影処理装置2としてもよい。 Figure 1 is a block diagram showing the configuration of an image capture processing system 1 according to the first embodiment. As shown in Figure 1, the image capture processing system 1 includes an image capture processing device 2 and a monitoring device 4. The image capture processing device 2 is a device capable of identifying the image capture position, and transmits the image capture position and image information related to the image capture position to the monitoring device 4, for example, via wireless communication. On the other hand, the monitoring device 4 is a device that monitors indoor equipment such as a power generation plant based on information supplied from the image capture processing device 2. The image capture processing device 2 and the monitoring device 4 can communicate information with each other via wireless communication via a repeater or the like placed in a position free of radio interference. Note that the image capture processing device 2 and the monitoring device 4 according to this embodiment are configured as separate entities, but are not limited to this. For example, the image capture processing device 2 and the monitoring device 4 may be configured as an integrated device to form a portable image capture processing device 2.
図2は、第1実施形態に係る撮影処理装置2の構成を示すブロック図である。図2に示すように、撮影処理装置2は、撮影位置を特定することが可能であり、撮影部10と、モーションセンサ15と、記憶部20と、通信部25と、情報処理部30とを備えて構成される。なお、撮影処理装置2は、モーションセンサ15を設けずに構成してもよい。 Fig. 2 is a block diagram showing the configuration of the image capture device 2 according to the first embodiment. As shown in Fig. 2, the image capture device 2 is capable of identifying the image capture position, and is configured with an image capture unit 10, a motion sensor 15, a storage unit 20, a communication unit 25, and an information processing unit 30. Note that the image capture device 2 may be configured without including the motion sensor 15.
撮影部10は、例えば全方位カメラ(360度カメラ)であり、全天球パノラマ画像を球面画像として連続して、すなわち球面画像を動画として生成することが可能である。より具体的には、この撮影部10は、発電プラントの屋内における対象物の画像を含む全天球パノラマ画像を撮影する。また、撮影部10は、例えば、駆動機構を備えた移動部に設定され、この移動部の移動に応じて自動的に全天球パノラマ画像を撮影する。さらにまた、撮影部10は、全天球パノラマ画像を記憶部20及び情報処理部30に供給する。なお、本実施形態では、撮影処理装置2は、駆動機構を備えた移動部に設定されるが、これに限定されない。例えば、観察者である作業員などのヘルメットに撮影部10とモーションセンサ15とを設定する構成でもよい。この場合、記憶部20と、情報処理部30は、例えば監視装置4内に構成し、撮影部10、及びモーションセンサ15と、記憶部20、及び情報処理部30とは無線通信により情報通信を行ってもよい。 The photographing unit 10 is, for example, an omnidirectional camera (360-degree camera), and can generate a omnidirectional panoramic image as a continuous spherical image, that is, a video of the spherical image. More specifically, the photographing unit 10 photographs a omnidirectional panoramic image including an image of an object inside a power plant. The photographing unit 10 is set, for example, in a moving unit equipped with a drive mechanism, and automatically photographs a omnidirectional panoramic image according to the movement of the moving unit. Furthermore, the photographing unit 10 supplies the omnidirectional panoramic image to the storage unit 20 and the information processing unit 30. In this embodiment, the photographing processing device 2 is set in a moving unit equipped with a drive mechanism, but is not limited to this. For example, the photographing unit 10 and the motion sensor 15 may be set in a helmet of an observer such as a worker. In this case, the storage unit 20 and the information processing unit 30 may be configured, for example, in the monitoring device 4, and the photographing unit 10, the motion sensor 15, the storage unit 20, and the information processing unit 30 may communicate information by wireless communication.
モーションセンサ15は、例えば慣性センサ(3軸加速度センサと3軸角速度センサ)と3軸地磁気センサを組み合わせた9軸センサとなっている。このモーションセンサ15は、撮影部10に搭載され、この撮影部10が移動したときに生じる加速度を検出する。また、このモーションセンサ15により重力加速度の検出も行える。さらに、モーションセンサ15は、この撮影部10の姿勢が変化したときに生じる角速度を検出する。なお、地磁気により撮影部10の姿勢を把握することもできる。モーションセンサ15で検出された加速度の値と角速度の値は、情報処理部30に供給される。 The motion sensor 15 is, for example, a nine-axis sensor that combines an inertial sensor (a three-axis acceleration sensor and a three-axis angular velocity sensor) with a three-axis geomagnetic sensor. This motion sensor 15 is mounted on the image capture unit 10 and detects the acceleration that occurs when the image capture unit 10 moves. This motion sensor 15 can also detect gravitational acceleration. Furthermore, the motion sensor 15 detects angular velocity that occurs when the attitude of the image capture unit 10 changes. It is also possible to grasp the attitude of the image capture unit 10 from geomagnetism. The acceleration values and angular velocity values detected by the motion sensor 15 are supplied to the information processing unit 30.
記憶部20は、例えばRAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク等により実現される。この記憶部20は、特徴点記録部200と、映像記録部202と、撮影位置記録部204とを有する。特徴点記録部200には、特徴点群が記録されており、各特徴点に一次特徴量と位置情報が記録されてる。また、特徴点記録部200には、3Dレーザスキャナなどで計測した発電プラントの各構造物の3次元位置を示す点群データが記録されていてもよい。また、記憶部20は、情報処理部30が実行する各種の処理プログラムを記憶する。 The storage unit 20 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, a hard disk, etc. This storage unit 20 has a feature point recording unit 200, an image recording unit 202, and a shooting position recording unit 204. The feature point recording unit 200 records a feature point group, and primary feature amount and position information are recorded for each feature point. The feature point recording unit 200 may also record point cloud data indicating the three-dimensional position of each structure of the power plant measured by a 3D laser scanner or the like. The storage unit 20 also stores various processing programs executed by the information processing unit 30.
特徴点記録部200に記録する一次特徴点群の持つ座標系は、あらかじめスケールが調整されており、ミリメートルやメートル単位のスケールを持つ。また、原点および方位は発電プラント等の図面やCADデータに揃うよう調整してもよい。 The coordinate system of the primary feature points recorded in the feature point recording unit 200 has a scale adjusted in advance, and has a scale in millimeters or meters. The origin and orientation may also be adjusted to match drawings or CAD data of the power plant, etc.
図3は、撮影処理装置2が発電プラント建屋内などの現場において移動可能な範囲を2次元の地図情報8として模式的に示す図である。上述のように、特徴点記録部200には、地図情報8における撮影位置別の一次特徴点群が一次特徴量として記録されてる。なお、一次特徴量の詳細は図7を用いて後述する。 Figure 3 is a diagram showing a schematic representation of the range in which the imaging and processing device 2 can move within a site, such as a power plant building, as two-dimensional map information 8. As described above, the feature point recording unit 200 records a group of primary feature points for each imaging position in the map information 8 as primary feature amounts. Details of the primary feature amounts will be described later with reference to Figure 7.
再び図2に示すように、映像記録部202には、撮影部10により撮像された全天球パノラマ画像、及び後述する前、後、左、右、上、下の各要素画像が記録される。
撮影位置記録部204には、情報処理部30が処理した撮影部10の撮影位置が、全天球パノラマ画像、各要素画像、及び撮影時間と関連付けて記録される。
As shown in FIG. 2 again, the video recording unit 202 records the spherical panoramic image captured by the imaging unit 10, and each of the front, rear, left, right, top, and bottom element images described below.
In the photographing position recording unit 204, the photographing position of the photographing unit 10 processed by the information processing unit 30 is recorded in association with the spherical panoramic image, each element image, and the photographing time.
通信部25は、監視装置4などと無線通信を行うことが可能である。
情報処理部30は、全天球パノラマ画像を用いて、撮影部10の撮影位置を生成可能であり、例えば、CPU(Central Processing Unit)を含んで構成される。すなわち、この情報処理部30は、CPUが記憶部20にお記憶される各種プログラムを実行することで、ソフトウェアによる情報処理がハードウェア資源を用いて実現されるコンピュータで構成される。これにより、この情報処理部30は、姿勢情報取得部300と、画像変換部302と、特徴点生成部304と、特徴点比較部306と、撮影位置推定部308と、検証部310と、制御部312とを構成する。なお、姿勢情報取得部300と、画像変換部302と、特徴点生成部304と、特徴点比較部306と、撮影位置推定部308と、検証部310と、制御部312とを回路で構成してもよい。
The communication unit 25 is capable of wireless communication with the monitoring device 4 and the like.
The information processing unit 30 can generate the shooting position of the shooting unit 10 using the omnidirectional panoramic image, and is configured to include, for example, a CPU (Central Processing Unit). That is, the information processing unit 30 is configured as a computer in which the CPU executes various programs stored in the storage unit 20, thereby realizing information processing by software using hardware resources. As a result, the information processing unit 30 is configured with a posture information acquisition unit 300, an image conversion unit 302, a feature point generation unit 304, a feature point comparison unit 306, a shooting position estimation unit 308, a verification unit 310, and a control unit 312. Note that the posture information acquisition unit 300, the image conversion unit 302, the feature point generation unit 304, the feature point comparison unit 306, the shooting position estimation unit 308, the verification unit 310, and the control unit 312 may be configured as a circuit.
姿勢情報取得部300は、全天球パノラマ画像の撮影時における撮影部10の撮影方向及び姿勢を生成する。すなわち、姿勢情報取得部300は、モーションセンサ15から供給される角速度の値と加速度の値とを合わせて、撮影部10の姿勢を特定することで、全天球パノラマ画像の撮影時の撮影方向を生成する。例えば、姿勢情報取得部300は、全天球パノラマ画像の世界座標系における撮影開始角度を特定する。 The orientation information acquisition unit 300 generates the shooting direction and orientation of the image capture unit 10 when capturing a celestial sphere panoramic image. That is, the orientation information acquisition unit 300 generates the shooting direction when capturing a celestial sphere panoramic image by combining the angular velocity value and acceleration value supplied from the motion sensor 15 to identify the orientation of the image capture unit 10. For example, the orientation information acquisition unit 300 identifies the shooting start angle in the world coordinate system of the celestial sphere panoramic image.
図4は、画像変換部302の処理例を模式的に示す図である。左図が全天球パノラマ画像P600を示し、右図が前、後、左、右、上、下の各要素画像G402にキューブマップ展開した平坦画像を示す。 Figure 4 is a diagram showing a schematic example of processing by the image conversion unit 302. The left diagram shows a spherical panoramic image P600, and the right diagram shows a flat image cube-mapped into each of the front, back, left, right, top, and bottom element images G402.
図4に示すように、画像変換部302は、姿勢情報取得部300の情報に基づき、前画像の中心部m30が真北方向に一致するように各要素画像に平面展開する。画像変換部302は、例えばエクイレクタングラー形式の全天球パノラマ画像をキューブマップ形式に変換する。これにより、360°の全天球パノラマ画像がキューブマップに展開される。また、画像変換部302は、全天球パノラマ画像P600と、各要素画像G402を関連付けて、撮影位置記録部204に記録する。 As shown in FIG. 4, the image conversion unit 302 performs planar expansion on each element image based on the information from the orientation information acquisition unit 300 so that the center m30 of the previous image coincides with the true north direction. The image conversion unit 302 converts, for example, an equirectangular omnidirectional panoramic image into a cube map format. As a result, the 360° omnidirectional panoramic image is expanded into a cube map. Furthermore, the image conversion unit 302 associates the omnidirectional panoramic image P600 with each element image G402 and records them in the shooting position recording unit 204.
図5は、エクイレクタングラー形式の全天球パノラマ画像P600をキューブマップ形式の平坦画像に変換する場合の概念図である。全天球パノラマ画像P600は、例えば半径rの球面p0上に撮像された画像である。このため全天球パノラマ画像P600の各画素S1は極座標で示すことが可能である。これにより、前、後、左、右、上、下の各要素画像q0の配置関係と、各画素S1の極座標が既知であるので、各要素画像G402に各画素S1を各画素S2として投影可能である。なお、点S3は、実空間上における画素S2の撮影対象点の例を示す。 FIG. 5 is a conceptual diagram of a case where an equirectangular omnidirectional panoramic image P600 is converted into a cube map flat image. The omnidirectional panoramic image P600 is, for example, an image captured on a spherical surface p0 of radius r. For this reason, each pixel S1 of the omnidirectional panoramic image P600 can be represented by polar coordinates. As a result, since the arrangement relationship of each element image q0 (front, back, left, right, top, and bottom) and the polar coordinates of each pixel S1 are known, each pixel S1 can be projected onto each element image G402 as each pixel S2. Note that point S3 indicates an example of a target point of pixel S2 in real space.
図6は、実際に撮像された全天球パノラマ画像P600と、前、後、左、右、上、下の各要素画像G402を示す図である。左図が全天球パノラマ画像P600を示し、右図が前、後、左、右、上、下の各要素画像G402にキューブマップ展開した平坦画像を示す。図6に示すように、画像変換部302の処理により、全天球パノラマ画像P600よりも歪みが低減した前、後、左、右、上、下の各要素画像G402が生成される。ここでは、全天球パノラマ画像を6面体の各平面に投影した場合について説明しているが、投影する平面は、6面以上の平面を持つ多面体とすることも可能である。また、全天球パノラマ画像の代わりに半球パノラマ画像とすることも可能である。この場合、6面体に投影する代わりに、前、左、右、上、下の各要素画像とすることで同じ処理が可能となる。 FIG. 6 is a diagram showing an actually captured omnidirectional panoramic image P600 and each of the element images G402 of the front, back, left, right, top, and bottom. The left figure shows the omnidirectional panoramic image P600, and the right figure shows a flat image cube-mapped into each of the element images G402 of the front, back, left, right, top, and bottom. As shown in FIG. 6, the processing of the image conversion unit 302 generates each of the element images G402 of the front, back, left, right, top, and bottom, which have less distortion than the omnidirectional panoramic image P600. Here, a case where the omnidirectional panoramic image is projected onto each plane of a hexahedron is described, but the plane onto which the image is projected can also be a polyhedron having six or more planes. Also, instead of the omnidirectional panoramic image, a hemispherical panoramic image can also be used. In this case, the same processing can be performed by projecting each of the element images of the front, left, right, top, and bottom instead of projecting onto a hexahedron.
図7は、予め登録されている発電プラント建屋内の一次特徴点の3次元座標点と全天球パノラマ画像P600の撮影位置との関係を模式的に示す図である。左図が、走行経路L600に沿って撮像された複数の全天球パノラマ画像p600を示し、右図が複数の全天球パノラマ画像p600の撮像位置と一次特徴点の3次元座標点とを示す特徴点図G600である。上述のように、一次特徴点の3次元座標点は、3Dレーザスキャナなどで計測した発電プラントの各構造物の3次元位置を示す点群データから生成されている。一次特徴点は、例えば周辺機器のエッジの交点などである。 FIG. 7 is a diagram showing a schematic relationship between the three-dimensional coordinate points of primary feature points in a power plant building that have been registered in advance and the shooting positions of a celestial sphere panoramic image P600. The left diagram shows multiple celestial sphere panoramic images p600 captured along a travel route L600, and the right diagram is a feature point diagram G600 showing the shooting positions of the multiple celestial sphere panoramic images p600 and the three-dimensional coordinate points of the primary feature points. As described above, the three-dimensional coordinate points of the primary feature points are generated from point cloud data that indicates the three-dimensional positions of each structure of the power plant measured by a 3D laser scanner or the like. Primary feature points are, for example, the intersections of edges of peripheral equipment.
特徴点記録部200には、上述のように、2次元の地図情報8(図2参照)と関連付けられて生成された特徴点の2次元座標群が1次特徴量として記録されている。例えば特徴点図G600に示す特徴点を、基準方向を真北とする前、後、左、右、上、下の各要素画像に投影し、各特徴点の各要素画像に対する2次元座標群が1次特徴量として生成される。例えば、事前のコンピュータシュミレーションにより、特徴点図G600内の平面座標(x、y)毎に、基準方向を真北とする前、後、左、右、上、下の各要素画像面を仮想的に生成し、特徴点図G600に示す特徴点が各要素画像面に投影され、各特徴点の各要素画像面に対する2次元座標群が1次特徴量として生成される。これら1次特徴量が、平面座標(x、y)(図3参照)に関連付けられ、特徴点記録部200に記録されている。また、1次特徴量の2次元座標群には、特徴点図G600(図7参照)に示す実空間の3次元座標が関連づけられている。 In the feature point recording unit 200, as described above, a group of two-dimensional coordinates of the feature points generated in association with the two-dimensional map information 8 (see FIG. 2) is recorded as a primary feature. For example, the feature points shown in the feature point map G600 are projected onto each of the element images, front, back, left, right, top, and bottom, with the reference direction being due north, and a group of two-dimensional coordinates of each feature point for each element image is generated as a primary feature. For example, by a prior computer simulation, each element image surface, front, back, left, right, top, and bottom, with the reference direction being due north, is virtually generated for each plane coordinate (x, y) in the feature point map G600, the feature points shown in the feature point map G600 are projected onto each element image surface, and a group of two-dimensional coordinates of each feature point for each element image surface is generated as a primary feature. These primary feature amounts are associated with plane coordinates (x, y) (see FIG. 3) and recorded in the feature point recording unit 200. In addition, the two-dimensional coordinate group of the primary features is associated with the three-dimensional coordinates in real space shown in the feature point map G600 (see FIG. 7).
図8は、画像変換部302の処理により生成された歪みが低減した前画像700qと機器画像702qとを示す模式図である。図9は、機器画像702q(図8参照)のなかの特徴点であるエッジの交点800を示す模式図である。 Figure 8 is a schematic diagram showing a previous image 700q and an equipment image 702q in which distortion has been reduced by processing of the image conversion unit 302. Figure 9 is a schematic diagram showing an edge intersection 800, which is a feature point in the equipment image 702q (see Figure 8).
図9に示すように、特徴点生成部304は、画像変換部302の処理により、生成された前、後、左、右、上、下の各要素画像から特徴点を抽出し、各特徴点の各要素画像に対する2次元座標群を2次特徴量として特徴点記録部200に記録する。 As shown in FIG. 9, the feature point generation unit 304 extracts feature points from each of the generated front, back, left, right, top, and bottom element images through processing by the image conversion unit 302, and records the two-dimensional coordinate group of each feature point for each element image in the feature point recording unit 200 as secondary feature amounts.
全天球パノラマ画像から特徴点を抽出しようとすると、画像が湾曲しており、特徴点の抽出が安定化しなくなってしまう。また、仮に抽出できても特徴点の位置により湾曲した画像における空間解像度が異なり、画像間の特徴点の比較精度が低下してしまう。これに対して、画像変換部302が生成する2次特徴量として生成される特徴点の座標も、1次特徴量として生成される特徴点の座標も、いずれも平面に展開された前、後、左、右、上、下の各要素画像に対応させて生成される。このため、特徴点の抽出がより安定化する。また、湾曲が抑制された同じ基準平面に対して特徴点の座標を抽出できるので、画像間の座標のずれが均一化し、特徴点の比較がより高精度に可能となる。 When feature points are extracted from a spherical panoramic image, the image is curved, making it difficult to extract the feature points. Even if feature points can be extracted, the spatial resolution in the curved image varies depending on the position of the feature points, reducing the accuracy of comparing feature points between images. In response to this, the coordinates of feature points generated as secondary feature values by the image conversion unit 302 and the coordinates of feature points generated as primary feature values are both generated to correspond to the front, back, left, right, top, and bottom element images developed on a plane. This makes the extraction of feature points more stable. Furthermore, since the coordinates of feature points can be extracted for the same reference plane with reduced curvature, the shift in coordinates between images is uniform, making it possible to compare feature points with higher accuracy.
別の方法としてステレオカメラやレーザ(LiDAR)などの距離を測定可能なセンサを用いて、位置を特定する手法がある。ステレオカメラを用いる方法では、カメラで撮影される範囲が進行方向など一方向になるため、進行方向に特徴点となる構造物がない場合や障害物がある場合など、特徴点が時間的に連続して抽出できない場合は、位置の特定ができなくなる場合がある。また、ステレオをカメラは撮影範囲が狭く特性精度が低下する場合がある。 Another method is to determine the position using a sensor that can measure distance, such as a stereo camera or laser (LiDAR). With a stereo camera, the range captured by the camera is unidirectional, i.e., in the direction of travel. Therefore, if there are no structures that serve as feature points in the direction of travel or if there are obstacles, and feature points cannot be extracted continuously over time, it may not be possible to determine the position. Additionally, stereo cameras have a narrow range of capture, which can reduce the accuracy of their characteristics.
これに対して、全天球パノラマ画像の場合は、進行方向だけでなく上下左右、後方の映像も取得できることから、特徴点を抽出できなくなる事象の発生が少なくなる。また、発電プラントなど屋内で使用する場合は、天井を連続して撮影できることから、安定して特徴点を抽出することが可能となる。 In contrast, with a spherical panoramic image, images can be acquired not only in the direction of travel, but also above, below, left, right, and behind, reducing the occurrence of events in which feature points cannot be extracted. In addition, when used indoors, such as in a power generation plant, the ceiling can be continuously photographed, making it possible to stably extract feature points.
ドローンなど屋内を3次元的に移動する機構の場合、周囲の構造物に状況を、3次元的に計測を行う3次元LiDARを搭載する機体が使用される。3次元LiDARはレーザを上下方向にスキャンしながら回転させる機構であり、搭載するには大型の期待が必要となる課題がある。すなわち、LiDARなどを使用する場合は、撮影装置以外にセンサを装備する必要がある。また、回転機構を有するものもあり構成が複雑になる課題がある。 For drones and other mechanisms that move indoors in three dimensions, aircraft equipped with 3D LiDAR that measures the situation of surrounding structures in three dimensions are used. 3D LiDAR is a mechanism that rotates while scanning in the vertical direction with a laser, and there is an issue with installing it, as it requires large expectations. In other words, when using LiDAR, it is necessary to equip it with a sensor in addition to the imaging device. Also, some have a rotation mechanism, which poses the issue of a complex configuration.
これに対して、本提案では、全天球映像を取得可能なカメラを搭載することで映像と位置の特定を行うことが可能となり。積載重量の点でもすぐれている。 In response to this, our proposal is to equip the drone with a camera capable of capturing spherical images, making it possible to identify the image and its location. It is also superior in terms of payload capacity.
特徴点比較部306は、特徴点生成部304が生成した2次特徴量の座標群と、特徴点記録部200に記録される1次特徴量の座標群を比較し、最も類似する1次特徴量を抽出する。そして、特徴点比較部306は、特徴点生成部304が生成した2次特徴量のなかの少なくとも2点の特徴点の座標に対応する特徴点の座標を、1次特徴量の中から選択する。 The feature point comparison unit 306 compares the coordinate group of the secondary feature amounts generated by the feature point generation unit 304 with the coordinate group of the primary feature amounts recorded in the feature point recording unit 200, and extracts the most similar primary feature amount. Then, the feature point comparison unit 306 selects the coordinates of feature points from the primary feature amounts that correspond to the coordinates of at least two feature points in the secondary feature amounts generated by the feature point generation unit 304.
撮影位置推定部308は、特徴点比較部306の比較結果に基づき、全天球パノラマ画像が撮影された撮影位置を推定する。例えば、撮影位置推定部308は、特徴点比較部306が選択した最も類似する1次特徴量の位置を一次推定撮影位置とする。すなわち、この1次特徴量を演算する際に、前、後、左、右、上、下の各要素画像面のシミュレーション展開に用いた中心座標を一次推定撮影位置とする。 The shooting position estimation unit 308 estimates the shooting position at which the omnidirectional panoramic image was shot, based on the comparison result of the feature point comparison unit 306. For example, the shooting position estimation unit 308 sets the position of the most similar primary feature selected by the feature point comparison unit 306 as the primary estimated shooting position. In other words, when calculating this primary feature, the central coordinates used in the simulation development of each element image plane of the front, back, left, right, top, and bottom are set as the primary estimated shooting position.
さらに、撮影位置推定部308は、特徴点比較部306が選択した少なくとも2点の特徴点の座標と対応する1次特徴量中の特徴点の座標からより高精度に撮影位置の推定を行う。 Furthermore, the shooting position estimation unit 308 estimates the shooting position with higher accuracy from the coordinates of the feature points in the primary feature quantity that correspond to the coordinates of at least two feature points selected by the feature point comparison unit 306.
図10は、撮影位置推定部308の位置推定例を模式的に示す図である。図5及び図10を参照しつつ、撮影位置推定部105のより高精度な位置推定の処理例を説明する。 Figure 10 is a diagram that shows a schematic example of position estimation by the shooting position estimation unit 308. A processing example of more accurate position estimation by the shooting position estimation unit 105 will be described with reference to Figures 5 and 10.
図10に示すように、前画像700qにおける複数の特徴点S2には、特徴点比較部306の比較結果により、1次特徴量の特徴点が対応付けられている。1次特徴量の特徴点は2次元座標であるが、特徴点図G600(図7参照)に示す実空間の3次元座標も関連づけられている。これにより、撮影位置推定部308は、複数の特徴点S2に対応する1次特徴量の特徴点の実空間の3次元座標を有する複数点S3を用いることにより、複数の特徴点S2に、実空間の3次元座標を有する複数点S3を対応付けることが可能となる。前画像700qにおける複数の特徴点S2は、実空間の3次元座標を有する複数点S3を、中心点g0として前画像700qに投影した図である。したがって、複数の特徴点S2と対応する3次元座標を有する複数点S3をそれぞれ結ぶ投影線が一点に集中する位置が撮影位置として推定される。このように、撮影位置推定部308は、複数の特徴点S2と対応する3次元座標を有する複数点S3をそれぞれ結ぶ投影線が一点に集中する位置を二次推定撮影位置として再推定する。そして、撮影位置推定部308は、一次推定撮影位置と、二次推定撮影位置を撮影位置記録204に撮影時刻、全天球パノラマ画像、及び各要素画像と関連付けて記録する。 As shown in FIG. 10, the feature points S2 in the previous image 700q are associated with the feature points of the primary feature amount based on the comparison result of the feature point comparison unit 306. The feature points of the primary feature amount are two-dimensional coordinates, but are also associated with three-dimensional coordinates in real space shown in the feature point map G600 (see FIG. 7). This allows the shooting position estimation unit 308 to associate the multiple points S3 having three-dimensional coordinates in real space with the multiple feature points S2 by using multiple points S3 having three-dimensional coordinates in real space of the feature points of the primary feature amount corresponding to the multiple feature points S2. The multiple feature points S2 in the previous image 700q are projected onto the previous image 700q with the multiple points S3 having three-dimensional coordinates in real space as the center point g0. Therefore, the position where the projection lines connecting the multiple feature points S2 and the multiple points S3 having corresponding three-dimensional coordinates converge to one point is estimated as the shooting position. In this way, the shooting position estimation unit 308 re-estimates the position where the projection lines connecting the multiple points S3 having the three-dimensional coordinates corresponding to the multiple feature points S2 converge to one point as the secondary estimated shooting position. Then, the shooting position estimation unit 308 records the primary estimated shooting position and the secondary estimated shooting position in the shooting position record 204 in association with the shooting time, the omnidirectional panoramic image, and each element image.
検証部310は、撮影位置推定部308の位置推定を検証する。そして、検証部310は、撮影位置推定部308の位置推定の妥当性がない場合には、通信部25からの推定結果の送信を行わない。一方で、撮影位置推定部308の位置推定の妥当性がある場合には、検証部310は、撮影位置推定部308の位置推定結果、撮影時刻、全天球パノラマ画像、及び各要素画像を通信部25に通信させる。例えば、検証部310は、前回の推定撮影位置と今回の推定撮影位置の距離差が、撮影処理装置2の移動速度に基づく距離と、例えば10パーセント以上ずれる場合に、位置推定の妥当性がないと検証する。
制御部312は、撮影処理装置2の各部を制御する。
The verification unit 310 verifies the position estimation by the shooting position estimation unit 308. If the position estimation by the shooting position estimation unit 308 is not valid, the verification unit 310 does not transmit the estimation result from the communication unit 25. On the other hand, if the position estimation by the shooting position estimation unit 308 is valid, the verification unit 310 communicates the position estimation result of the shooting position estimation unit 308, the shooting time, the omnidirectional panoramic image, and each element image to the communication unit 25. For example, the verification unit 310 verifies that the position estimation is not valid when the difference in distance between the previous estimated shooting position and the current estimated shooting position deviates from the distance based on the moving speed of the shooting processing device 2 by, for example, 10% or more.
The control unit 312 controls each unit of the image capturing and processing device 2 .
次に、監視装置4の構成例を説明する。図11は、監視装置4の構成例を示すブロック図である。監視装置4は、通信部400と、記憶部402と、特徴点生成部404と、地図情報生成部406と、操作部408と、表示装置410と、入力装置412を備える。監視装置4は、例えばCPUを有しており、記憶部402に記憶される処理プログラムを実行することにより、特徴点生成部404と、地図情報生成部406と、操作部408とを構成する。なお、特徴点生成部404と、地図情報生成部406と、操作部408とを、回路で構成してもよい。 Next, an example of the configuration of the monitoring device 4 will be described. FIG. 11 is a block diagram showing an example of the configuration of the monitoring device 4. The monitoring device 4 includes a communication unit 400, a memory unit 402, a feature point generation unit 404, a map information generation unit 406, an operation unit 408, a display device 410, and an input device 412. The monitoring device 4 has, for example, a CPU, and configures the feature point generation unit 404, the map information generation unit 406, and the operation unit 408 by executing a processing program stored in the memory unit 402. Note that the feature point generation unit 404, the map information generation unit 406, and the operation unit 408 may be configured as a circuit.
通信部400は、撮影処理装置2と通信を行う。
記憶部402は、例えばRAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク等により実現される。この記憶部402は、撮影処理装置2から送信される情報を記憶する。記憶部402は、例えば、推定撮影位置と、撮影時刻、全天球パノラマ画像、及び各要素画像を関連付けて記憶する。
The communication unit 400 communicates with the image capturing and processing device 2 .
The storage unit 402 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory), a flash memory, a hard disk, etc. The storage unit 402 stores information transmitted from the imaging processing device 2. The storage unit 402 stores, for example, an estimated imaging position, an imaging time, a spherical panoramic image, and each element image in association with each other.
特徴点生成部404は、上述した3Dレーザスキャナなどで計測した発電プラントの各構造物の3次元位置を示す点群データと、1次特徴量と、を生成する。また、特徴点生成部404は、3次元位置を示す点群データと、1次特徴量を記憶部402に記憶させるとともに、通信部400を介して1次特徴量を撮影処理装置2に送信する。 The feature point generation unit 404 generates point cloud data indicating the three-dimensional position of each structure of the power plant measured by the above-mentioned 3D laser scanner or the like, and primary feature values. The feature point generation unit 404 also stores the point cloud data indicating the three-dimensional position and the primary feature values in the storage unit 402, and transmits the primary feature values to the imaging and processing device 2 via the communication unit 400.
地図情報生成部406は、撮影処理装置2から送信される撮影位置に基き、撮影処理装置2の移動経路を示す地図情報を生成する。また、地図情報生成部406は、生成した地図情報を表示装置410に表示させる。 The map information generating unit 406 generates map information indicating the movement route of the image capturing device 2 based on the image capturing position transmitted from the image capturing device 2. The map information generating unit 406 also causes the display device 410 to display the generated map information.
図12は、地図情報生成部406が生成した地図情報を模式的に示す図である。複数の点Z12が撮影処理装置2の推定撮影位置をそれぞれ示す。また、地図情報生成部406は、推定撮影位置点Z12を操作者に指示されると、推定撮影位置を示す地図情報8と、撮影時刻、全天球パノラマ画像、及び各要素画像とを並べて、表示装置410に表示させる。 Figure 12 is a diagram showing a schematic diagram of map information generated by the map information generating unit 406. A plurality of points Z12 indicate the estimated shooting positions of the shooting processing device 2. When the operator designates the estimated shooting position point Z12, the map information generating unit 406 causes the display device 410 to display map information 8 indicating the estimated shooting position, the shooting time, the spherical panoramic image, and each element image side by side.
操作部408は、入力部412を介した監視者の入力情報に応じて、撮影処理装置2の駆動を制御可能である。なお、撮影処理装置2は、通常は自動運転されている。 The operation unit 408 can control the operation of the image capture device 2 in response to the information input by the monitor via the input unit 412. Note that the image capture device 2 is usually operated automatically.
表示装置410は、例えば液晶モニタであり、上述したように、地図情報生成部406が生成した地図情報8、及び全天球パノラマ画像、及び各要素画像を並べて表示可能である。入力部412は、例えばマウス、キーボードなどにより構成される。 The display device 410 is, for example, a liquid crystal monitor, and as described above, is capable of displaying the map information 8 generated by the map information generating unit 406, the spherical panoramic image, and each element image side by side. The input unit 412 is, for example, configured with a mouse, a keyboard, etc.
図13は、撮影処理装置2の処理例を示すフローチャートである。先ず、撮影部10は、図示していない移動部にて移動しながら対象物となる建屋内などの現場の状況を撮影し、対象物の画像を含む天球パノラマ画像P600(図4参照)を記憶部20及び情報処理部30に出力する(ステップS100)。 Figure 13 is a flowchart showing an example of processing by the image capture device 2. First, the image capture unit 10 captures the on-site conditions inside a building or other target object while moving using a moving unit (not shown), and outputs a celestial sphere panoramic image P600 (see Figure 4) including an image of the target object to the storage unit 20 and the information processing unit 30 (step S100).
次に、画像変換部302は、姿勢情報取得部300の情報を用いて、基準方向に基づく各要素画像G402(図4参照)に全天球パノラマ画像P600(図4参照)を変換する(ステップS102)。 Next, the image conversion unit 302 converts the spherical panoramic image P600 (see FIG. 4) into each element image G402 (see FIG. 4) based on the reference orientation using information from the orientation information acquisition unit 300 (step S102).
次に、特徴点生成部304は、各要素画像G402から特徴点を抽出し、各特徴点の各要素画像G402に対する2次元座標群を2次特徴量として特徴点記録部200に記録する(ステップS104)。続けて、特徴点比較部306は、特徴点生成部304が生成した2次特徴量の座標群と、特徴点記録部200に記録される1次特徴量の座標群を比較し、最も類似する1次特徴量を抽出する(ステップS105)。 Next, the feature point generation unit 304 extracts feature points from each element image G402, and records the two-dimensional coordinate group of each feature point for each element image G402 as a secondary feature in the feature point recording unit 200 (step S104). Next, the feature point comparison unit 306 compares the coordinate group of the secondary feature generated by the feature point generation unit 304 with the coordinate group of the primary feature recorded in the feature point recording unit 200, and extracts the most similar primary feature (step S105).
そして、撮影位置推定部308は、特徴点比較部306の比較結果に基づき、全天球パノラマ画像か撮影された撮影位置を推定する(ステップS106)。 Then, the shooting position estimation unit 308 estimates the shooting position where the spherical panoramic image was taken based on the comparison result of the feature point comparison unit 306 (step S106).
以上説明したように、本実施形態によれば、特徴点生成部304が、全天球パノラマ画像を用いて生成された前、後、左、右、上、下の各要素画像に基づき2次特徴量を生成し、撮影位置推定部308が、2次特徴量に基づき、撮影位置を推定することとした。これにより、湾曲が抑制された各要素画像に対して特徴点の座標を抽出できるので、より高精度に撮影位置の推定が可能となる。 As described above, according to this embodiment, the feature point generation unit 304 generates secondary feature amounts based on each of the element images (front, back, left, right, top, and bottom) generated using the spherical panoramic image, and the shooting position estimation unit 308 estimates the shooting position based on the secondary feature amounts. This makes it possible to extract the coordinates of feature points for each element image with reduced curvature, thereby enabling the shooting position to be estimated with higher accuracy.
(第1実施形態の変形例)
第1実施形態の変形例に係る撮影処理システム1は、撮影位置推定部308における推定処理に、前、後、左、右、上、下の各要素画像G402の中から選択した画像のみを用いて推定可能である点で、第1実施形態に係る撮影処理装置2と相違する。以下では、第1実施形態に係る撮影処理システム1と相違する点を説明する。
(Modification of the first embodiment)
The photographing processing system 1 according to the modified example of the first embodiment differs from the photographing processing device 2 according to the first embodiment in that the photographing position estimation unit 308 can estimate the position by using only images selected from the front, back, left, right, top, and bottom element images G402. The differences from the photographing processing system 1 according to the first embodiment will be described below.
図14は、第1実施形態の変形例に係る撮影処理装置2の処理例を示すフローチャートである。図14に示すように、画像変換部302は、撮影された全天球パノラマ画像P600、及び姿勢情報取得部300の情報に基づき、前画像(図4参照)の中心部m30が真北方向に一致するように、例えば前画像のみを展開する。そして、特徴点生成部304、特徴点比較部306、及び撮影位置推定部308は、前画像のみを用いて第1実施形態と同様の処理を行う(ステップS200)。なお、前画像に限定されず、前、後、左、右、上、下の各要素画像G402の中から5以下の要素画像を用いて処理を行ってもよい。すなわち、ステップS200では、撮影処理装置2の進行に応じて前画像のみを用いて、一回の撮影毎に位置推定が可能である。 FIG. 14 is a flowchart showing an example of processing by the imaging processing device 2 according to a modified example of the first embodiment. As shown in FIG. 14, the image conversion unit 302 develops, for example, only the front image (see FIG. 4) so that the center m30 of the front image coincides with the true north direction based on the captured spherical panoramic image P600 and the information of the orientation information acquisition unit 300. Then, the feature point generation unit 304, the feature point comparison unit 306, and the imaging position estimation unit 308 perform processing similar to that of the first embodiment using only the front image (step S200). Note that the processing is not limited to the front image, and five or less element images from among the front, back, left, right, top, and bottom element images G402 may be used for processing. That is, in step S200, position estimation is possible for each imaging session using only the front image according to the progress of the imaging processing device 2.
次に、制御部312は、撮影回数が所定回数、例えば10回に達したか否かを判定する(ステップS202)。制御部312は、所定回数に達していないと判定する場合(ステップS202のNO)、ステップS202からの撮影および撮影位置推定を繰り返す。この間、撮影処理装置2は、進行しており、撮影毎に位置推定が可能である。 Next, the control unit 312 determines whether the number of times photographing has reached a predetermined number, for example, 10 times (step S202). If the control unit 312 determines that the predetermined number of times has not been reached (NO in step S202), it repeats photographing and photographing position estimation from step S202. During this time, the photographing and processing device 2 is in progress and is capable of position estimation for each photographing.
一方で、撮影回数が所定回数に達したと判定する場合(ステップS202のYES)、制御部312は、図13で示しように、前、後、左、右、上、下の各要素画像を用いた位置推定を行う(ステップS204)。 On the other hand, if it is determined that the number of shots has reached the predetermined number (YES in step S202), the control unit 312 performs position estimation using each of the element images of the front, back, left, right, top, and bottom, as shown in FIG. 13 (step S204).
そして、制御部312は、全体処理を終了するか否かを判定し(ステップS206)、終了しない場合(ステップS206のNO)、ステップS200からの処理を繰り返す。一方で、終了する場合(ステップS206のYES)、全体処理を終了する。 The control unit 312 then determines whether or not to end the overall process (step S206), and if not (NO in step S206), repeats the process from step S200. On the other hand, if it is to end (YES in step S206), the overall process ends.
以上説明したように、本実施形態によれば、撮影位置推定部308における推定処理に、前、後、左、右、上、下の各要素画像の中から選択した画像により撮影位置推定処理が可能であるので、撮影位置推定処理をより高速化することが可能となる。また、所定の周期で各要素画像を用いて撮影位置推定処理を行うので、所定周期でより高精度に撮影位置推定処理を行うことが可能となる。 As described above, according to this embodiment, the shooting position estimation unit 308 can perform the estimation process using an image selected from the front, back, left, right, top, and bottom element images, which makes it possible to speed up the shooting position estimation process. In addition, the shooting position estimation process is performed using each element image at a predetermined cycle, making it possible to perform the shooting position estimation process with higher accuracy at a predetermined cycle.
(第2実施形態)
第2実施形態に係る撮影処理システム1は、撮影処理装置2の進路方向における障害物を更に検知可能である点で、第1実施形態の変形例1に係る撮影処理装置2と相違する。以下では、第1実施形態の変形例1に係る撮影処理装置2と相違する点を説明する。
Second Embodiment
The photographing and processing system 1 according to the second embodiment differs from the photographing and processing device 2 according to the modified example 1 of the first embodiment in that the photographing and processing device 1 according to the second embodiment is further capable of detecting an obstacle in the travel direction of the photographing and processing device 2. The differences from the photographing and processing device 2 according to the modified example 1 of the first embodiment will be described below.
図15は、第2実施形態に係る撮影処理装置2の構成を示すブロック図である。図15に示すように、第2実施形態に係る撮影処理装置2は、障害物検知部314を更に備えて構成される。 Fig. 15 is a block diagram showing the configuration of the image capture processing device 2 according to the second embodiment. As shown in Fig. 15, the image capture processing device 2 according to the second embodiment is further configured to include an obstacle detection unit 314.
図16は、撮影処理装置2が撮影推定位置Z14に位置する場合の進行方向L14と障害物B16を模式的に示す図である。図16に示すように、障害物検知部314は、現在の撮影推定位置Z14からの進行方向L14を推定し、撮影方向に障害物B16がある場合に、障害物B16ありと検知する。 Figure 16 is a diagram that shows a schematic diagram of the traveling direction L14 and an obstacle B16 when the photography processing device 2 is located at an estimated photography position Z14. As shown in Figure 16, the obstacle detection unit 314 estimates the traveling direction L14 from the current estimated photography position Z14, and detects the presence of an obstacle B16 when the obstacle B16 is in the photography direction.
より具体的には、障害物検知部314は、現在の撮影推定位置Z14及び現在の撮像時間に基づき、撮影位置記録部204から現在の撮像時間の直前の撮影位置Z13を含む撮影推定位置を取得する。次に、障害物検知部314は、例えば影推定位置Z14と直前の撮影位置Z13との座標の差分を用いて進行方向L14を推定する。続けて、障害物検知部314は、影推定位置Z14から進行方向L14の所定範囲、例えば10メートル以内且つ撮影処理装置2の鉛直方向の高さ以内に、予め登録されている発電プラント建屋内の特徴点の3次元座標点(図7参照)が存在するか否かを判定する。障害物検知部314は、特徴点の3次元座標点(図7参照)が存在すると判定する場合に、障害物B16があると検知する。そして、障害物検知部314は、制御部312を介して撮影処理装置2の移動方向を修正方向L16へ変更させる又は停止させる。また、障害物検知部314は、進行方向L14、修正方向L16及び障害物B16の座標を、通信部25を介して監視装置4に送信する。監視装置4は、進行方向L14、修正方向L16及び障害物B16の情報を表示装置410に地図情報とともに表示させる。これにより、観察者は、撮影処理装置2の進行環境をより容易に観察可能となる。 More specifically, the obstacle detection unit 314 acquires the estimated photographing position including the photographing position Z13 immediately before the current photographing time from the photographing position recording unit 204 based on the current photographing estimated position Z14 and the current photographing time. Next, the obstacle detection unit 314 estimates the traveling direction L14, for example, by using the difference in coordinates between the estimated shadow position Z14 and the immediately previous photographing position Z13. Next, the obstacle detection unit 314 determines whether or not a three-dimensional coordinate point (see FIG. 7) of a feature point in the power plant building registered in advance exists within a predetermined range, for example, within 10 meters from the estimated shadow position Z14 in the traveling direction L14 and within the vertical height of the photographing processing device 2. When the obstacle detection unit 314 determines that the three-dimensional coordinate point (see FIG. 7) of the feature point exists, it detects that an obstacle B16 exists. Then, the obstacle detection unit 314 changes the moving direction of the photographing processing device 2 to the correction direction L16 or stops it via the control unit 312. In addition, the obstacle detection unit 314 transmits the travel direction L14, the correction direction L16, and the coordinates of the obstacle B16 to the monitoring device 4 via the communication unit 25. The monitoring device 4 displays the information on the travel direction L14, the correction direction L16, and the obstacle B16 on the display device 410 together with the map information. This allows the observer to more easily observe the traveling environment of the imaging and processing device 2.
以上説明したように、本実施形態によれば、障害物検知部314が、現在の撮影推定位置Z14からの進行方向L14を推定し、撮影方向L14に障害物B16がある場合に、障害物B16ありと検知することとした。これにより、撮影処理装置2が障害物B16と接触する前に、障害物B16の回避制御を行うことが可能となる。 As described above, according to this embodiment, the obstacle detection unit 314 estimates the travel direction L14 from the current estimated shooting position Z14, and if an obstacle B16 is present in the shooting direction L14, it detects the presence of the obstacle B16. This makes it possible to perform avoidance control of the obstacle B16 before the photography processing device 2 comes into contact with the obstacle B16.
(第3実施形態)
第3実施形態に係る撮影処理システム1は、前、後、左、右、上、下の各要素画像を用いて3次元画像の再構成が可能である点で、第2実施形態に係る撮影処理システム1と相違する。以下では、第2実施形態に係る撮影処理システム1と相違する点を説明する。
Third Embodiment
The imaging processing system 1 according to the third embodiment differs from the imaging processing system 1 according to the second embodiment in that a three-dimensional image can be reconstructed using elemental images of the front, back, left, right, top, and bottom. The differences from the imaging processing system 1 according to the second embodiment will be described below.
図17は、第3実施形態に係る撮影処理装置2の構成を示すブロック図である。図17に示すように、第3実施形態に係る撮影処理装置2は、3次元画像処理部316を更に備えて構成される。 Fig. 17 is a block diagram showing the configuration of the imaging and processing device 2 according to the third embodiment. As shown in Fig. 17, the imaging and processing device 2 according to the third embodiment is further configured to include a three-dimensional image processing unit 316.
3次元画像処理部316は、特徴点生成部304で抽出した特徴点の3次元座標を生成し、特徴点が三次元に分布する3次元画像として再構成する。図18は、3次元画像処理部316の詳細なブロック図である。図18に示すように、3次元画像処理部316は、小領域比較部316a、3次元座標生成部316b、3次元画像再構成処理部316c、3次元差分処理部316d、映像処理部316e、及び3次元密度演算部316fを有する。 The three-dimensional image processing unit 316 generates three-dimensional coordinates of the feature points extracted by the feature point generation unit 304, and reconstructs a three-dimensional image in which the feature points are distributed in three dimensions. FIG. 18 is a detailed block diagram of the three-dimensional image processing unit 316. As shown in FIG. 18, the three-dimensional image processing unit 316 has a small area comparison unit 316a, a three-dimensional coordinate generation unit 316b, a three-dimensional image reconstruction processing unit 316c, a three-dimensional difference processing unit 316d, a video processing unit 316e, and a three-dimensional density calculation unit 316f.
図19は、小領域比較部316aの処理例を模式的に示す図である。図19に示すよう、異なる時点での推定撮影位置g0L、g0Rの前画像702q、704qを示している。小領域比較部316aは、前画像702qを複数の小画像領域80SLに分割する。図19では、小画像領域80SLは2つしか示していないが、小領域比較部316aは、前画像702qを複数の小画像領域80SLをマトリクス状に分割する。次に、小領域比較部316aは、前画像704qの複数の小画像領域80SLそれぞれに対して、最も相関値が高い複数の小画像領域80RLを抽出する。例えば、領域80Sを推定撮影位置g0Lから撮像した小画像領域80SLは、領域80Dを推定撮影位置g0Rから撮像した小画像領域80SRと最も相関値が高くなる。換言すると、小画像領域80SLに対して相関値が高い小画像領域80SRを抽出すると、同じ領域80Sを撮像している蓋然性が高くなる。このように、小領域比較部316aは、前画像702qを複数の小画像領域80SLに分割し、対応する前画像704qのなかから相関の高い小画像領域80SRを選択する。 Figure 19 is a diagram showing a schematic example of a processing example of the small area comparison unit 316a. As shown in Figure 19, previous images 702q and 704q at estimated shooting positions g0L and g0R at different times are shown. The small area comparison unit 316a divides the previous image 702q into multiple small image areas 80SL. Although only two small image areas 80SL are shown in Figure 19, the small area comparison unit 316a divides the previous image 702q into multiple small image areas 80SL in a matrix shape. Next, the small area comparison unit 316a extracts multiple small image areas 80RL with the highest correlation value for each of the multiple small image areas 80SL of the previous image 704q. For example, the small image area 80SL obtained by capturing the area 80S from the estimated shooting position g0L has the highest correlation value with the small image area 80SR obtained by capturing the area 80D from the estimated shooting position g0R. In other words, if a small image region 80SR with a high correlation value is extracted with respect to a small image region 80SL, the probability that the same region 80S is being captured increases. In this way, the small region comparison unit 316a divides the previous image 702q into multiple small image regions 80SL, and selects the small image region 80SR with a high correlation from the corresponding previous image 704q.
図20は、3次元座標生成部316bの処理例を模式的に示す図である。図20に示すよう、3次元座標生成部316bは、小領域比較部316aが抽出した相関の高い小画像領域80SL、及び小画像領域80SRの中から、対応する特徴点82L、82Rを求め、特徴点82L、82Rと推定撮影位置g0L、g0Rとをそれぞれ結ぶ投影線L82L,L82Rの交点を特徴点82L、82Rの3次元座標として、特徴点記録部200に記録する。なお、前画像702qを例にして説明したが、小領域比較部316a、及び3次元座標生成部316bは、各要素画像G402に対して同様の処理を行う。また、3次元座標生成部316bは、特徴点記録部200に特徴点82L、82Rの3次元座標を追加する。これにより、特徴点図G600(図7参照)の中の特徴点を増加させることが可能となる。 Figure 20 is a diagram showing a typical processing example of the three-dimensional coordinate generation unit 316b. As shown in Figure 20, the three-dimensional coordinate generation unit 316b obtains corresponding feature points 82L, 82R from the small image area 80SL and small image area 80SR with high correlation extracted by the small area comparison unit 316a, and records the intersections of the projection lines L82L, L82R connecting the feature points 82L, 82R and the estimated shooting positions g0L, g0R, respectively, as the three-dimensional coordinates of the feature points 82L, 82R in the feature point recording unit 200. Note that, although the previous image 702q has been described as an example, the small area comparison unit 316a and the three-dimensional coordinate generation unit 316b perform the same processing for each element image G402. In addition, the three-dimensional coordinate generation unit 316b adds the three-dimensional coordinates of the feature points 82L, 82R to the feature point recording unit 200. This makes it possible to increase the number of feature points in the feature point map G600 (see Figure 7).
このような処理を推定撮影位置g0L毎に繰り返すことにより、撮影処理装置2の撮像毎に得られた各要素画像G402に基づく特徴点の3次元座標が新たに生成される。 By repeating this process for each estimated shooting position g0L, new three-dimensional coordinates of feature points are generated based on each element image G402 obtained for each image capture by the shooting processing device 2.
図21は、3次元画像再構成処理部316cの生成するボクセルデータ210Vの例を示す図である。3次元画像再構成処理部316cは、特徴点記録部200に記録される特徴点82L、82Rの3次元座標を用いて3次元ボクセルデータ210Vを生成する。3次元画像再構成処理部316cは、特徴点82L、82Rの3次元座標に対応するボクセルに所定値、例えば500を割振る。 Figure 21 is a diagram showing an example of voxel data 210V generated by the three-dimensional image reconstruction processing unit 316c. The three-dimensional image reconstruction processing unit 316c generates the three-dimensional voxel data 210V using the three-dimensional coordinates of feature points 82L, 82R recorded in the feature point recording unit 200. The three-dimensional image reconstruction processing unit 316c assigns a predetermined value, for example 500, to the voxels corresponding to the three-dimensional coordinates of feature points 82L, 82R.
図22は、3次元画像再構成処理部316cの生成するボクセルデータ210a,bと、3次元差分処理部316d差分による処理結果であるボクセルデータ210cの例を示す図である。図22に示すように、ボクセルデータ210aは、2018年4月の期間に生成された特徴点82L、82Rの3次元再構成画像であり、ボクセルデータ210bは、2018年9月の期間に生成された特徴点82L、82Rの3次元再構成画像である。このように、3次元画像再構成処理部316cは、使用する特徴点82L、82Rの生成期間を制限することが可能である。 Figure 22 is a diagram showing an example of voxel data 210a, b generated by the 3D image reconstruction processing unit 316c, and voxel data 210c that is the processing result by the 3D difference processing unit 316d. As shown in Figure 22, voxel data 210a is a 3D reconstructed image of feature points 82L, 82R generated in April 2018, and voxel data 210b is a 3D reconstructed image of feature points 82L, 82R generated in September 2018. In this way, the 3D image reconstruction processing unit 316c can limit the generation period of feature points 82L, 82R to be used.
図22に示すように、3次元差分処理部316dは、ボクセルデータ210aとボクセルデータ210bとの差分を生成する処理を行う。ボクセルデータ210cは、次元差分処理部316dの処理結果であり、ボクセルデータ210aとボクセルデータ210bとの差分を示す。四角の領域は、2018年4月の期間にはなかったが、2018年9月の期間には発生した特徴点の3次元領域を示す。一方で、丸の領域は、2018年4月の期間にはあったが、2018年9月の期間にはなくなった特徴点の3次元領域を示す。このように、3次元差分処理部316dは、異なる期間間での差分処理を行い、新たに発生したボクセルデータ210cには第1の所定値、例えば1000を割振り、消失したボクセルデータ210cには第2の所定値、例えば1500を割振る。 As shown in FIG. 22, the three-dimensional difference processing unit 316d performs a process of generating a difference between the voxel data 210a and the voxel data 210b. The voxel data 210c is the processing result of the dimension difference processing unit 316d, and indicates the difference between the voxel data 210a and the voxel data 210b. The square area indicates a three-dimensional area of a feature point that was not present in April 2018 but was present in September 2018. On the other hand, the circle area indicates a three-dimensional area of a feature point that was present in April 2018 but was no longer present in September 2018. In this way, the three-dimensional difference processing unit 316d performs a difference process between different periods, and assigns a first predetermined value, for example, 1000, to the newly generated voxel data 210c and a second predetermined value, for example, 1500, to the lost voxel data 210c.
映像処理部316eは、3次元差分処理部316dの処理結果を映像情報に変換する。例えば、映像処理部316eは、ボクセルデータ210c、ボクセルデータ210a、ボクセルデータ210bを関連付けて図22に示すような映像情報を生成する。そして、処理後の映像情報を、ボクセルデータ210c、ボクセルデータ210a、及びボクセルデータ210bと関連付けて監視装置4に送信する。これにより、監視装置4では、例えば図22に示す画像を表示装置410に表示可能となる。このため、監視者は、発電プラントなどの屋内における異常検知をより簡易に行うことが可能となる。 The video processing unit 316e converts the processing result of the three-dimensional difference processing unit 316d into video information. For example, the video processing unit 316e generates video information as shown in FIG. 22 by associating the voxel data 210c, voxel data 210a, and voxel data 210b. The processed video information is then associated with the voxel data 210c, voxel data 210a, and voxel data 210b and transmitted to the monitoring device 4. This allows the monitoring device 4 to display, for example, an image as shown in FIG. 22 on the display device 410. This allows the monitor to more easily detect abnormalities indoors, such as in a power generation plant.
図23は、3次元差分処理部316dの生成した差分情報を各要素画像に再投影した例を示す図である。四角の領域は、2018年4月の期間にはなかったが、2018年9月の期間には発生した特徴点の2次元領域を示す。一方で、丸の領域は、2018年4月の期間にはあったが、2018年9月の期間にはなくなった特徴点の2次元領域を示す。 Figure 23 is a diagram showing an example of reprojecting the difference information generated by the three-dimensional difference processing unit 316d onto each element image. The square area indicates a two-dimensional area of feature points that were not present in April 2018 but appeared in September 2018. On the other hand, the circle area indicates a two-dimensional area of feature points that were present in April 2018 but no longer exist in September 2018.
図23に示すように、映像処理部316eは、新たに発生した又は消失したボクセルデータ210cの3次元座標を各要素画像上の2次元座標に変換し、例えば所定の形状又は色で示す。映像処理部316eは、例えば、新たに発生した特徴点に対対応する領域を四角形で示す。或いは、映像処理部316eは、例えば、新たに発生した特徴点に対対応する領域を緑色で示してもよい。同様に、映像処理部316eは、例えば、消失した特徴点に対対応する領域を丸で示す。或いは、映像処理部316eは、例えば、消失した特徴点に対対応する領域を赤色で示してもよい。これにより、監視者は、発電プラントなどの屋内における機材の配置の変化など現場状況の変化を各要素画像により簡易に行うことが可能となる。 As shown in FIG. 23, the image processing unit 316e converts the three-dimensional coordinates of the newly generated or disappeared voxel data 210c into two-dimensional coordinates on each element image, and displays them, for example, in a predetermined shape or color. For example, the image processing unit 316e displays the area corresponding to the newly generated feature point as a rectangle. Alternatively, the image processing unit 316e may display the area corresponding to the newly generated feature point in green. Similarly, the image processing unit 316e displays the area corresponding to the disappeared feature point as a circle. Alternatively, the image processing unit 316e may display the area corresponding to the disappeared feature point in red. This allows the monitor to easily check changes in the on-site situation, such as changes in the arrangement of equipment indoors at a power generation plant, using each element image.
3次元密度演算部316fは、ボクセルデータ210aとボクセルデータ210bとのノイズ低減処理を行うことが可能である。3次元差分処理部316dは、3次元密度演算部316eによりノイズ低減されたボクセルデータ210aとボクセルデータ210bとの差分処理を行うことが可能である。より具体的には、3次元密度演算部316fは、ボクセルデータ210aとボクセルデータ210bとに対して、所定範囲毎の3次元特徴点の密度を演算する。そして、3次元差分処理部316dは、3次元密度演算部316fが演算した密度に所定値以上の差がある場合に、新たに発生したボクセルデータ210cには第1の所定値を割振り、消失したボクセルデータ210cには第2の所定値を割振る。これにより、ノイズの影響を抑制できる。 The three-dimensional density calculation unit 316f can perform noise reduction processing on the voxel data 210a and the voxel data 210b. The three-dimensional difference processing unit 316d can perform difference processing on the voxel data 210a and the voxel data 210b that have been noise-reduced by the three-dimensional density calculation unit 316e. More specifically, the three-dimensional density calculation unit 316f calculates the density of three-dimensional feature points for each predetermined range for the voxel data 210a and the voxel data 210b. Then, when there is a difference of a predetermined value or more in the density calculated by the three-dimensional density calculation unit 316f, the three-dimensional difference processing unit 316d assigns a first predetermined value to the newly generated voxel data 210c and a second predetermined value to the lost voxel data 210c. This makes it possible to suppress the effects of noise.
以上説明したように、本実施形態によれば、3次元画像再構成処理部316cが期間別の特徴点のボクセルデータ210a、210bを生成する。そして、3次元差分処理部316dは、異なる期間間でのボクセルデータ210a、210bの差分処理を行い、新たに発生したボクセルデータ210cには第1の所定値を割振り、消失したボクセルデータ210cには第2の所定値を割振る。これにより、所定の期間内に生成した領域と、消失した領域を3次元的に把握可能となる。このため、監視者は、発電プラントなどの屋内における機材の配置の変化など現場状況の変化をより簡易に行うことが可能となる。 As described above, according to this embodiment, the three-dimensional image reconstruction processing unit 316c generates voxel data 210a, 210b of feature points for each period. The three-dimensional difference processing unit 316d then performs difference processing of the voxel data 210a, 210b between different periods, assigning a first predetermined value to the newly generated voxel data 210c and a second predetermined value to the lost voxel data 210c. This makes it possible to grasp in three dimensions the areas that have been generated and the areas that have disappeared within a predetermined period. This allows the monitor to more easily detect changes in the on-site situation, such as changes in the arrangement of equipment indoors at a power generation plant, etc.
(第4実施形態)
第4実施形態に係る撮影処理システム1は、前、後、左、右、上、下の各要素画像を用いて、所定の期間内に生成した領域と、消失した領域を2次元の画像情報として生成し、生成した領域と、消失した領域とを3次元座標に変換可能である点で、第4実施形態に係る撮影処理システム1と相違する。以下では、第4実施形態に係る撮影処理システム1と相違する点を説明する。
(Fourth embodiment)
The photography processing system 1 according to the fourth embodiment differs from the photography processing system 1 according to the fourth embodiment in that the photography processing system 1 according to the fourth embodiment can generate areas generated within a predetermined period and areas that have disappeared as two-dimensional image information using each of the element images of the front, back, left, right, top, and bottom, and can convert the generated areas and the disappeared areas into three-dimensional coordinates. The differences from the photography processing system 1 according to the fourth embodiment will be described below.
図24は、第4実施形態に係る撮影処理装置2の構成を示すブロック図である。図24に示すように、第4実施形態に係る撮影処理装置2は、2次元画像処理部318を更に備えて構成される。 Fig. 24 is a block diagram showing the configuration of the imaging and processing device 2 according to the fourth embodiment. As shown in Fig. 24, the imaging and processing device 2 according to the fourth embodiment is further configured to include a two-dimensional image processing unit 318.
2次元画像処理部318は、前、後、左、右、上、下の各要素画像を用いて、所定の期間内に生成した領域と、消失した領域を2次元の画像情報として生成する。図25は、2次元画像処理部318の詳細なブロック図である。図25に示すように、2次元画像処理部318は、撮影位置比較部318a、補正画像生成部318b、及び差分画像表示処理部318cを有する。 The two-dimensional image processing unit 318 uses each of the element images (front, back, left, right, top, and bottom) to generate two-dimensional image information of the areas generated within a predetermined period and the areas that have disappeared. FIG. 25 is a detailed block diagram of the two-dimensional image processing unit 318. As shown in FIG. 25, the two-dimensional image processing unit 318 has a shooting position comparison unit 318a, a correction image generation unit 318b, and a difference image display processing unit 318c.
撮影位置比較部318aは、撮影位置推定部308により推定された撮影推定位置を比較する。より具体的には、現在の撮影推定位置と、撮影位置記録部204に記録される過去の所定期間内の撮影推定位置を比較し、現在の撮影推定位置に最も近接する過去の所定期間内の撮影推定位置を抽出する。 The shooting position comparison unit 318a compares the estimated shooting positions estimated by the shooting position estimation unit 308. More specifically, it compares the current estimated shooting position with the estimated shooting positions within a specified period of time in the past recorded in the shooting position recording unit 204, and extracts the estimated shooting position within a specified period of time in the past that is closest to the current estimated shooting position.
補正画像生成部318bは、現在の撮影推定位置と、過去の所定期間内の撮影推定位置とに基づいて、映像記録部202に記録される各要素画像が重なるようにアフィン変換を行う。そして、補正画像生成部318bは、アフィン変換後の各要素画像を小領域比較部316a(図18参照)に供給する。 The corrected image generating unit 318b performs affine transformation so that each elemental image recorded in the video recording unit 202 overlaps based on the current estimated shooting position and the estimated shooting position within a specified period of time in the past.The corrected image generating unit 318b then supplies each elemental image after the affine transformation to the small area comparing unit 316a (see FIG. 18).
小領域比較部316aは、各要素画像を小領域に分割し、対応する領域の類似度を算出し、類似度が所定値より低い小領域を、新たに発生した又は消失した小領域として抽出する。そして、小領域比較部316aは、類似度が所定値より低い小領域の2次元座標と、各撮影推定位置とを3次元座標生成部316b(図18参照)に供給する。図20に示すように、3次元座標生成部316bは、小領域の2次元座標と、各撮影推定位置とを用いて、小領域の3次元座標を生成する。また、小領域のみを3次元座標に変換するので、処理をより高速化可能である。 The small area comparison unit 316a divides each element image into small areas, calculates the similarity of the corresponding areas, and extracts small areas with a similarity lower than a predetermined value as newly generated or disappeared small areas. The small area comparison unit 316a then supplies the two-dimensional coordinates of the small areas with a similarity lower than the predetermined value and each estimated shooting position to the three-dimensional coordinate generation unit 316b (see FIG. 18). As shown in FIG. 20, the three-dimensional coordinate generation unit 316b uses the two-dimensional coordinates of the small areas and each estimated shooting position to generate three-dimensional coordinates of the small areas. Furthermore, since only the small areas are converted into three-dimensional coordinates, processing can be made faster.
差分画像表示処理部318cは、小領域の3次元座標を例えば3次元画像、例えば特徴点図G600(図7参照)内に重畳させ、映像記録部202に記録すると共に、監視装置4に送信する。これにより、監視装置4では、3次元画像とともに、変化領域を表示装置410に表示可能となる。このため、監視者は、発電プラントなどの屋内における異常検知をより簡易に行うことが可能となる。 The differential image display processing unit 318c superimposes the three-dimensional coordinates of the small area, for example, on a three-dimensional image, such as the feature point map G600 (see FIG. 7), records it in the video recording unit 202, and transmits it to the monitoring device 4. This makes it possible for the monitoring device 4 to display the changed area on the display device 410 together with the three-dimensional image. This allows the monitor to more easily detect abnormalities indoors, such as in a power generation plant.
また、差分画像表示処理部318cは、図23に示すように、新たに発生した又は消失した小領域の3次元座標を各要素画像上の2次元座標に変換し、例えば所定の形状又は色で示すことも可能である。 The differential image display processing unit 318c can also convert the three-dimensional coordinates of newly generated or disappeared small areas into two-dimensional coordinates on each element image, as shown in FIG. 23, and display them, for example, in a specified shape or color.
以上説明したように、本実施形態によれば、撮影位置比較部318aが、現在の撮影推定位置に最も近接する過去の所定期間内の撮影推定位置を抽出し、小領域比較部316aが、各撮影推定位置の各要素画像を小領域に分割し、対応する領域の類似度を算出し、類似度が所定値より低い小領域を抽出する。そして、差分画像表示処理部318cが、似度が所定値より低い小領域の3次元座標を生成し、この小領域の3次元座標を例えば3次元画像内に重畳させる。これにより、3次元画像とともに、変化領域を表示装置410に表示可能となる。このため、監視者は、発電プラントなどの屋内における機材の配置の変化など現場状況の変化をより簡易により高速に行うことが可能となる。 As described above, according to this embodiment, the shooting position comparison unit 318a extracts the estimated shooting position within a predetermined period of time that is closest to the current estimated shooting position, and the small area comparison unit 316a divides each element image of each estimated shooting position into small areas, calculates the similarity of the corresponding areas, and extracts small areas with a similarity lower than a predetermined value. Then, the difference image display processing unit 318c generates three-dimensional coordinates of the small areas with a similarity lower than a predetermined value, and superimposes the three-dimensional coordinates of these small areas, for example, on the three-dimensional image. This makes it possible to display the changed area on the display device 410 together with the three-dimensional image. This allows the monitor to more easily and quickly detect changes in the on-site situation, such as changes in the arrangement of equipment indoors at a power generation plant, etc.
上述した実施形態で説明した撮影処理システム1の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、制御部の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD-ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク部やメモリなどの固定型の記録媒体でもよい。 At least a part of the imaging processing system 1 described in the above embodiment may be configured with hardware or software. If configured with software, a program that realizes at least a part of the functions of the control unit may be stored on a recording medium such as a flexible disk or CD-ROM, and may be read and executed by a computer. The recording medium is not limited to removable ones such as magnetic disks or optical disks, but may be fixed recording media such as a hard disk unit or memory.
また、撮影処理システム1の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。 In addition, a program that realizes at least a part of the functions of the image processing system 1 may be distributed via a communication line (including wireless communication) such as the Internet. Furthermore, the program may be encrypted, modulated, or compressed and distributed via a wired line or wireless line such as the Internet, or stored on a recording medium.
以上、いくつかの実施形態を説明したが、これらの実施形態は、例としてのみ提示したものであり、発明の範囲を限定することを意図したものではない。本明細書で説明した新規な部、方法及びプログラムは、その他の様々な形態で実施することができる。また、本明細書で説明した部、方法及びプログラムの形態に対し、発明の要旨を逸脱しない範囲内で、種々の省略、置換、変更を行うことができる。 Although several embodiments have been described above, these embodiments are presented only as examples and are not intended to limit the scope of the invention. The novel parts, methods, and programs described in this specification can be embodied in various other forms. Furthermore, various omissions, substitutions, and modifications can be made to the forms of the parts, methods, and programs described in this specification without departing from the spirit of the invention.
1:撮影処理システム、2:撮影処理装置、4:監視装置、304:特徴点生成部、308:撮影位置推定部、314:障害物検知部、316c:3次元座標生成部、316d:3次元差分処理部、318:2次元画像処理部。 1: Image capture processing system, 2: Image capture processing device, 4: Monitoring device, 304: Feature point generation unit, 308: Image capture position estimation unit, 314: Obstacle detection unit, 316c: 3D coordinate generation unit, 316d: 3D difference processing unit, 318: 2D image processing unit.
Claims (10)
測定対象範囲となる3次元空間中における3次元座標を有する複数の特徴点を、測定基準点に対する前記特定方向の平坦な測定要素画像に、前記測定基準点を中心点として投影した各特徴点の前記測定要素画像に対する2次元座標群を1次特徴量として、前記3次元座標と関連付けて記録する特徴点記録部であって、複数の異なる位置の測定基準点に対してそれぞれ前記2次元座標群を1次特徴量として前記3次元座標と関連付けて記録した特徴点記録部と、
前記特定方向の要素画像に基づき得られた前記対象物における複数の第1特徴点それぞれの2次元座標群を2次特徴量として生成する特徴点生成部と、
前記特徴点生成部が生成した2次特徴量の座標群と、特徴点記録部に記録される1次特徴量の座標群を比較し、最も類似する1次特徴量を抽出し、前記2次特徴量の各特徴点と、前記1次特徴量の各特徴点とを対応させる特徴点比較部と、
前記2次特徴量の中の少なくとも2つの特徴点に対応する前記1次特徴量の特徴点の実空間の3次元座標を対応付け、前記少なくとも2つの特徴点と対応する3次元座標を有する少なくとも2つの点とをそれぞれ結ぶ投影線が一点に集中する位置を前記球面画像の撮影位置として推定する撮影位置推定部と、
を備える、撮影処理装置。 an image conversion unit that converts a spherical image obtained by capturing an object in a real space into a flat element image in a specific direction based on a first reference point;
a feature point recording unit which records a plurality of feature points having three-dimensional coordinates in a three-dimensional space that is a measurement target range, in a flat measurement element image in the specific direction with respect to a measurement reference point, a group of two-dimensional coordinates of each feature point projected with the measurement reference point as a center point, as a primary feature amount, in association with the three-dimensional coordinates, the feature point recording unit recording the group of two-dimensional coordinates as a primary feature amount, in association with the three-dimensional coordinates, for each of measurement reference points at a plurality of different positions;
a feature point generating unit that generates, as secondary feature amounts, a group of two-dimensional coordinates of each of a plurality of first feature points in the object obtained based on the element image in the specific direction;
a feature point comparison unit that compares a coordinate group of the secondary feature amounts generated by the feature point generation unit with a coordinate group of the primary feature amounts recorded in the feature point recording unit, extracts the most similar primary feature amount, and associates each feature point of the secondary feature amounts with each feature point of the primary feature amounts;
an imaging position estimation unit that associates three-dimensional coordinates in real space of feature points of the primary feature amounts corresponding to at least two feature points of the secondary feature amounts, and estimates a position where projection lines connecting the at least two feature points and at least two points having corresponding three-dimensional coordinates converge as an imaging position of the spherical image;
An imaging processing device comprising:
前記複数の第1特徴点のそれぞれは、互に相関の高い小画像領域の中から選択される、請求項3に記載の撮影処理装置。 A small area comparison unit is further provided which divides flat elemental images in a specific direction at the estimated photographing positions at the plurality of different time points estimated by the photographing position estimation unit into a plurality of small image areas and selects small image areas having high mutual correlation,
The imaging and processing device according to claim 3 , wherein each of the plurality of first feature points is selected from small image regions that are highly correlated with each other.
測定対象範囲となる3次元空間中における3次元座標を有する複数の特徴点を、測定基準点に対する前記特定方向の平坦な測定要素画像に、前記測定基準点を中心点として投影した各特徴点の前記測定要素画像に対する2次元座標群を1次特徴量として、前記3次元座標と関連付けて記録する特徴点記録工程であって、複数の異なる位置の測定基準点に対してそれぞれ前記2次元座標群を1次特徴量として前記3次元座標と関連付けて記録した特徴点記録工程と、
前記特定方向の要素画像に基づき得られた前記対象物における複数の第1特徴点それぞれの2次元座標群を2次特徴量として生成する特徴点生成工程と、
前記2次特徴量の座標群と、前記1次特徴量の座標群を比較し、最も類似する1次特徴量を抽出し、前記2次特徴量の各特徴点と、前記1次特徴量の各特徴点とを対応させる特徴点比較工程と、
前記2次特徴量の中の少なくとも2つの特徴点に対応する前記1次特徴量の特徴点の実空間の3次元座標を対応付け、前記少なくとも2つの特徴点と対応する3次元座標を有する少なくとも2つの点とをそれぞれ結ぶ投影線が一点に集中する位置を前記球面画像の撮影位置として推定する撮影位置推定工程と、
を備える、撮影処理方法。 an image conversion step of converting a spherical image obtained by capturing an object in a real space into a flat element image in a specific direction based on a first reference point;
a feature point recording step of recording a plurality of feature points having three-dimensional coordinates in a three-dimensional space that is a measurement target range, in a flat measurement element image in the specific direction relative to a measurement reference point, in which a group of two-dimensional coordinates of each feature point projected with the measurement reference point as a center point is recorded as a primary feature value in association with the three-dimensional coordinates, the feature point recording step recording the group of two-dimensional coordinates as a primary feature value in association with the three-dimensional coordinates for each of measurement reference points at a plurality of different positions;
a feature point generating step of generating, as secondary feature amounts, a group of two-dimensional coordinates of each of a plurality of first feature points in the object obtained based on the element image in the specific direction;
a feature point comparison step of comparing a coordinate group of the secondary feature amounts with a coordinate group of the primary feature amounts, extracting a most similar primary feature amount, and associating each feature point of the secondary feature amounts with each feature point of the primary feature amounts;
a photographing position estimating step of associating three-dimensional coordinates in real space of feature points of the primary feature amounts corresponding to at least two feature points of the secondary feature amounts, and estimating a position where projection lines respectively connecting the at least two feature points and at least two points having corresponding three-dimensional coordinates converge as a photographing position of the spherical image;
An imaging processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021037687A JP7564737B2 (en) | 2021-03-09 | 2021-03-09 | Photographing device and photographing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021037687A JP7564737B2 (en) | 2021-03-09 | 2021-03-09 | Photographing device and photographing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022137946A JP2022137946A (en) | 2022-09-22 |
JP7564737B2 true JP7564737B2 (en) | 2024-10-09 |
Family
ID=83319494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021037687A Active JP7564737B2 (en) | 2021-03-09 | 2021-03-09 | Photographing device and photographing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7564737B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004120661A (en) | 2002-09-30 | 2004-04-15 | Aisin Seiki Co Ltd | Moving object periphery monitoring apparatus |
JP2018128804A (en) | 2017-02-07 | 2018-08-16 | 富士通株式会社 | Image processor, image processing program and image processing method |
JP2018185240A (en) | 2017-04-26 | 2018-11-22 | 大成建設株式会社 | Position specifying device |
JP2020008664A (en) | 2018-07-05 | 2020-01-16 | 株式会社東陽テクニカ | Driving simulator |
JP2020047188A (en) | 2018-09-21 | 2020-03-26 | パナソニックIpマネジメント株式会社 | Autonomous traveling cleaner |
JP2020144226A (en) | 2019-03-06 | 2020-09-10 | 三菱電機株式会社 | Map updating system, map updating method, and map updating program |
-
2021
- 2021-03-09 JP JP2021037687A patent/JP7564737B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004120661A (en) | 2002-09-30 | 2004-04-15 | Aisin Seiki Co Ltd | Moving object periphery monitoring apparatus |
JP2018128804A (en) | 2017-02-07 | 2018-08-16 | 富士通株式会社 | Image processor, image processing program and image processing method |
JP2018185240A (en) | 2017-04-26 | 2018-11-22 | 大成建設株式会社 | Position specifying device |
JP2020008664A (en) | 2018-07-05 | 2020-01-16 | 株式会社東陽テクニカ | Driving simulator |
JP2020047188A (en) | 2018-09-21 | 2020-03-26 | パナソニックIpマネジメント株式会社 | Autonomous traveling cleaner |
JP2020144226A (en) | 2019-03-06 | 2020-09-10 | 三菱電機株式会社 | Map updating system, map updating method, and map updating program |
Non-Patent Citations (1)
Title |
---|
藤木淳,透視射影画像または球面カメラ画像からの3次元形状復元に向けて,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2005年09月15日,第105巻 第302号,pp.35~40 |
Also Published As
Publication number | Publication date |
---|---|
JP2022137946A (en) | 2022-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107836012B (en) | Projection image generation method and device, and mapping method between image pixel and depth value | |
US8699005B2 (en) | Indoor surveying apparatus | |
EP3228984B1 (en) | Surveying system | |
EP3550513B1 (en) | Method of generating panorama views on a mobile mapping system | |
AU2011312140B2 (en) | Rapid 3D modeling | |
US8107722B2 (en) | System and method for automatic stereo measurement of a point of interest in a scene | |
JP5093053B2 (en) | Electronic camera | |
JP2012118666A (en) | Three-dimensional map automatic generation device | |
JP4102324B2 (en) | Surveying data processing system, surveying data processing program, and electronic map display device | |
JP6877293B2 (en) | Location information recording method and equipment | |
KR102473804B1 (en) | method of mapping monitoring point in CCTV video for video surveillance system | |
US20210264666A1 (en) | Method for obtaining photogrammetric data using a layered approach | |
CN113034347A (en) | Oblique photographic image processing method, device, processing equipment and storage medium | |
KR102389762B1 (en) | Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof | |
JP7564737B2 (en) | Photographing device and photographing method | |
JP2005275789A (en) | Three-dimensional structure extraction method | |
JP5409451B2 (en) | 3D change detector | |
JP2005063012A (en) | Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded | |
JP2022021009A (en) | Site video management system and site video management method | |
Maddalena et al. | Innovations on underwater stereoscopy: the new developments of the TV-trackmeter | |
WO2024048210A1 (en) | Viewpoint image generation device, viewpoint image generation method, and program | |
JP2023179844A (en) | Inspection time photographing position estimation system and program of them | |
Ahmadabadian | Photogrammetric multi-view stereo and imaging network design | |
Syafiq et al. | 3D INDOOR CORRIDOR MAPPING WITH CALIBRATED ROPS OF A MULTI-FISHEYE CAMERA-RIG | |
JP2023139821A (en) | Image management system and image management method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240202 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240927 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7564737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |