[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018160761A - Environmental image display system and environment image display method - Google Patents

Environmental image display system and environment image display method Download PDF

Info

Publication number
JP2018160761A
JP2018160761A JP2017056299A JP2017056299A JP2018160761A JP 2018160761 A JP2018160761 A JP 2018160761A JP 2017056299 A JP2017056299 A JP 2017056299A JP 2017056299 A JP2017056299 A JP 2017056299A JP 2018160761 A JP2018160761 A JP 2018160761A
Authority
JP
Japan
Prior art keywords
image
display
image data
imaging
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017056299A
Other languages
Japanese (ja)
Other versions
JP6929674B2 (en
Inventor
英明 藤原
Hideaki Fujiwara
英明 藤原
一彦 次岡
Kazuhiko Tsugioka
一彦 次岡
信幸 渡邉
Nobuyuki Watanabe
信幸 渡邉
茂木 健一
Kenichi Mogi
健一 茂木
克也 野口
Katsuya Noguchi
克也 野口
賢次 小関
Kenji Koseki
賢次 小関
嘉康 安藤
Yoshiyasu Ando
嘉康 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hexamedia Inc
IROBOTICS Inc
Tokyo Energy and Systems Inc
Original Assignee
Hexamedia Inc
IROBOTICS Inc
Tokyo Energy and Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hexamedia Inc, IROBOTICS Inc, Tokyo Energy and Systems Inc filed Critical Hexamedia Inc
Priority to JP2017056299A priority Critical patent/JP6929674B2/en
Publication of JP2018160761A publication Critical patent/JP2018160761A/en
Application granted granted Critical
Publication of JP6929674B2 publication Critical patent/JP6929674B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress occurrence of complication for a user and display an environment image around an unmanned mobile object.SOLUTION: An imaging device 200 captures an entire-celestial-sphere image as a whole while having an overlapping region by using a plurality of photographing optical systems having the same width of field of view and different photographing directions and transmits photographing result data corresponding to each of the plurality of photographing optical systems to an image processing device 300. In addition, a head mounted display device 400 detects the posture change amount from the previous detection time point, and sends the detection result to the image processing device 300. The image processing device 300 performs stitching processing on a plurality of pieces of photographed result data to generate entire-celestial-sphere image data and then extract an image of a display area determined corresponding to the posture of the head mounted display device 400 from the entire-celestial-sphere image to generate display image data. After that, the head mounted display device 400 displays an image corresponding to the display image data.SELECTED DRAWING: Figure 1

Description

本発明は、環境画像表示システム及び環境画像表示方法に係り、特に、人間の立ち入りが困難な領域の環境画像を表示する環境画像表示システム及び環境画像表示方法に関する。   The present invention relates to an environmental image display system and an environmental image display method, and more particularly to an environmental image display system and an environmental image display method for displaying an environmental image in an area where human entry is difficult.

近年、人体に危険があり、人の立ち入りができない領域の状況を把握するために、無線操縦可能な無人移動体に搭載されたカメラを利用して、当該領域の環境画像を撮影する技術が提案されている(特許文献1参照:以下、「従来例」という)。この従来例の技術では、無人移動体に搭載されたカメラにより環境画像を撮影し、撮影結果を無線通信により、利用者が利用する表示装置へ送信する。そして、表示装置において、受信した撮影結果に対応する環境画像が表示されるようになっている。   In recent years, in order to grasp the situation of areas where human bodies are dangerous and people cannot enter, a technology has been proposed that uses a camera mounted on a wirelessly maneuverable unmanned moving body to capture an environmental image of the area (Refer to Patent Document 1: hereinafter referred to as “conventional example”). In this conventional technique, an environment image is captured by a camera mounted on an unmanned moving body, and the captured result is transmitted to a display device used by a user by wireless communication. In the display device, an environmental image corresponding to the received photographing result is displayed.

なお、従来例の技術では、無人移動体の周囲を撮影するために下方に向けられた俯瞰カメラ、前方向側を撮影する前方カメラ、及び、後方向側を撮影する後方カメラの3台のカメラを、無人移動体に搭載するようになっている。   In the conventional technique, there are three cameras: a bird's-eye view camera directed downward for photographing the surroundings of the unmanned moving body, a front camera for photographing the front side, and a rear camera for photographing the rear side. Is mounted on an unmanned moving body.

特開2013−112028号公報JP 2013-112028 A

従来例では、上述したように、俯瞰カメラ、前方カメラ及び後方カメラの3台のカメラの撮影結果を表示する。しかしながら、従来例には、3台のカメラによる撮影結果を、どのように表示するかについては、何等の開示も行われていない。   In the conventional example, as described above, the photographing results of the three cameras, the overhead camera, the front camera, and the rear camera, are displayed. However, in the conventional example, there is no disclosure about how to display the imaging results of the three cameras.

例えば、3台のカメラの撮影結果のそれぞれを、そのまま、3台のカメラのそれぞれに対応して用意された3台の表示デバイスに表示させることが考えられる。こうした場合には、着目したい地点の周辺の画像が、2以上の表示デバイスにおける表示画像に跨るなどの事態が発生したとき、観察の便宜のために当該地点の周辺の画像を同一の表示デバイスに表示するためには、無線操縦により、無人移動体の姿勢を変更することが必要となる。こうした操作は利用者にとって煩雑さを感じさせることになる。   For example, it is conceivable that each of the photographing results of three cameras is displayed as it is on three display devices prepared corresponding to each of the three cameras. In such a case, when an image around the point of interest spans the display images on two or more display devices, the image around the point is placed on the same display device for the convenience of observation. In order to display, it is necessary to change the posture of the unmanned moving body by wireless control. Such an operation makes the user feel complicated.

このため、利用者にとっての煩雑さの発生を抑制しつつ、無人移動体の周囲の環境画像の表示を行うことができる新たな技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つである。   For this reason, a new technique that can display an environmental image around an unmanned moving body while suppressing the occurrence of complexity for the user is desired. Meeting this requirement is one of the problems to be solved by the present invention.

本発明の環境画像表示システムは、無線操縦可能な無人移動体に配置され、前記無人移動体の周辺画像を撮影し、撮影結果データを無線通信により送信する撮影装置と;前記撮影結果データを処理して、表示画像データを生成する画像処理装置と;前記画像処理装置に接続され、前記表示画像データに従って画像表示を行うヘッドマウント表示装置と;を備え、前記撮影装置は、撮影視野の広さが互いに同一であり、撮影方向が互いに異なる複数の撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影する全天球カメラと;前記複数の撮影光学系のそれぞれに対応する撮影結果データを前記画像処理装置へ送信する無線送信部と;を備え、前記画像処理装置は、前記撮影装置から送信された複数の撮影結果データを受信する無線受信部と;前記受信した複数の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する全天球画像データ生成部と;前記ヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、前記表示画像データを生成する表示画像データ生成部と;を備え、前記ヘッドマウント表示装置は、前記表示画像データに対応する画像を表示する表示部と;前回検出時点からの前記ヘッドマウント表示装置の姿勢変化量を検出し、検出結果を前記画像処理装置へ送る姿勢変化量検出部と;を備え、前記表示画像データ生成部は、前記複数の撮影光学系のうちから選択された特定撮影光学系の光軸方向を、前記ヘッドマウント表示装置の利用者の初期視線方向とする初期表示画像データを生成する、ことを特徴とする環境画像表示システムである。   An environment image display system according to the present invention is disposed on a wirelessly maneuverable unmanned moving body, photographs a peripheral image of the unmanned moving body, and transmits photographing result data by wireless communication; and processes the photographing result data An image processing device that generates display image data; and a head-mounted display device that is connected to the image processing device and displays an image according to the display image data. The imaging device has a wide imaging field of view. A omnidirectional camera that uses a plurality of imaging optical systems having the same imaging direction and different imaging directions and has an overlapping region and captures an image covering the entire celestial sphere as a whole; A wireless transmission unit that transmits imaging result data corresponding to each to the image processing device, wherein the image processing device includes a plurality of imaging result data transmitted from the imaging device. A radio reception unit for receiving; a omnidirectional image data generation unit for generating omnidirectional image data by performing a stitching process on the plurality of received imaging result data; and corresponding to an attitude of the head mounted display device A display image data generation unit that extracts the image of the display area determined in this way from the omnidirectional image and generates the display image data, and the head mounted display device displays an image corresponding to the display image data. A display unit for displaying; a posture change amount detection unit that detects a posture change amount of the head mounted display device from a previous detection time point and sends a detection result to the image processing device; and the display image data generation unit includes: Initial display image data in which the optical axis direction of the specific imaging optical system selected from the plurality of imaging optical systems is the initial line-of-sight direction of the user of the head mounted display device Generating a environmental image display system, characterized in that.

この環境画像表示システムでは、無線操縦可能な無人移動体に配置された撮影装置の全天球カメラにより、無人移動体の周辺画像を撮影する。この全天球カメラは、撮影視野の広さが互いに同一であり、撮影方向が互いに異なる複数の撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影する。そして、撮影装置の全天球カメラによる撮像結果である複数の撮影光学系のそれぞれに対応する撮影結果データを、撮影装置の無線送信部が、画像処理装置へ送信する。   In this environment image display system, a peripheral image of the unmanned moving body is photographed by the omnidirectional camera of the photographing device disposed on the unmanned moving body that can be wirelessly operated. This omnidirectional camera uses a plurality of photographic optical systems having the same field of view and different photographic directions, and shoots an image covering the omnidirectional sphere as a whole while having overlapping areas. And the radio transmission part of an imaging device transmits the imaging result data corresponding to each of the some imaging optical system which is an imaging result with the omnidirectional camera of an imaging device to an image processing apparatus.

画像処理装置では、全天球画像データ生成部が、撮影装置から送信された複数の撮影結果データを、無線受信部を介して受信する。引き続き、全天球画像データ生成部は、受信した複数の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する。   In the image processing apparatus, the omnidirectional image data generation unit receives a plurality of imaging result data transmitted from the imaging apparatus via the wireless reception unit. Subsequently, the omnidirectional image data generation unit performs a stitching process on the plurality of received imaging result data to generate omnidirectional image data.

こうして生成された全天球画像データに対応する全天球画像には、スティッチング処理による繋ぎ目部分を含んでいる。こうした繋ぎ目部分では画像の不連続性が多少なりとも発生することになる。   The omnidirectional image corresponding to the omnidirectional image data generated in this way includes a joint portion by stitching processing. At such joints, some discontinuity of the image occurs.

また、ヘッドマウント表示装置の姿勢変化量検出部が、前回検出時点からのヘッドマウント表示装置の姿勢変化量を検出し、検出結果を画像処理装置へ送る。引き続き、画像処理装置の表示画像データ生成部が、ヘッドマウント表示装置から送られたヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、表示画像データを生成する。ここで、複数の撮影光学系のうちから選択された特定撮影光学系の光軸方向をヘッドマウント表示装置の利用者の初期視線方向として、表示画像データ生成部は、ヘッドマウント表示装置の姿勢変化量の受信結果に基づき、全天球画像における表示画像の位置を特定し、表示画像データを生成する。そして、表示画像データ生成部は、生成された表示画像データをヘッドマウント表示装置へ送る。   Further, the posture change amount detection unit of the head mounted display device detects the posture change amount of the head mounted display device from the previous detection time point, and sends the detection result to the image processing device. Subsequently, the display image data generation unit of the image processing apparatus extracts an image of a display area determined in accordance with the attitude of the head mounted display device sent from the head mounted display device from the omnidirectional image, and displays the display image data. Generate. Here, using the optical axis direction of the specific imaging optical system selected from the plurality of imaging optical systems as the initial line-of-sight direction of the user of the head-mounted display device, the display image data generation unit changes the attitude of the head-mounted display device. Based on the reception result of the quantity, the position of the display image in the omnidirectional image is specified, and display image data is generated. Then, the display image data generation unit sends the generated display image data to the head mounted display device.

なお、抽出された表示画像データに対応する表示画像がスティッチング処理による繋ぎ目を含む場合には、表示画像は不連続性を含むことになる。かかる不連続性が表示画像の中央部分に発生する場合に、利用者にとっての違和感が最も大きくなる。そして、不連続性の発生部分が表示画像の中央部分から離れるほど、利用者にとっての違和感が小さくなっていく。なお、スティッチング処理による繋ぎ目が表示画像に含まれていない場合には、表示画像中における不連続性の発生による利用者にとっての違和感は発生しない。   In addition, when the display image corresponding to the extracted display image data includes a joint by stitching processing, the display image includes discontinuity. When such discontinuity occurs in the central portion of the display image, the user feels the most discomfort. As the discontinuity portion is further away from the central portion of the display image, the sense of discomfort for the user becomes smaller. In addition, when the joint by a stitching process is not contained in a display image, the discomfort for a user by generation | occurrence | production of the discontinuity in a display image does not generate | occur | produce.

ヘッドマウント表示装置では、表示部が、画像処理装置から送られた表示画像データを受ける。そして、表示部は、当該表示画像データに従った画像を表示する。   In the head mounted display device, the display unit receives display image data sent from the image processing device. Then, the display unit displays an image according to the display image data.

こうして表示される画像のうち、初期視線方向に対応する画像(以下、「初期表示画像」という)の中央部分には画像の不連続性が発生していないので、少なくとも初期表示画像については、表示画像中における不連続性の発生による利用者にとっての違和感の発生が抑制された画像となる。そして、利用者が頭部の姿勢を変化させ、ヘッドマウント表示装置の姿勢を変化させることにより、無人移動体の周辺の任意の方向における画像を表示させ、移動体周辺を観察することができる。   Among the images displayed in this way, there is no image discontinuity in the central portion of the image corresponding to the initial line-of-sight direction (hereinafter referred to as “initial display image”), so at least the initial display image is displayed. It becomes an image in which the occurrence of discomfort for the user due to the occurrence of discontinuity in the image is suppressed. Then, by changing the posture of the head and the posture of the head mounted display device, the user can display an image in an arbitrary direction around the unmanned moving body and observe the surroundings of the moving body.

したがって、本発明の環境画像表示システムによれば、利用者にとっての煩雑さ、及び、画像の不連続性による利用者にとっての違和感の発生を抑制しつつ、無人移動体の周辺の環境画像を表示することができる。   Therefore, according to the environment image display system of the present invention, it is possible to display an environment image around the unmanned moving body while suppressing the troublesomeness for the user and the occurrence of discomfort for the user due to the discontinuity of the image. can do.

本発明の環境画像表示システムでは、前記画像処理装置及び前記ヘッドマウント表示装置のいずれかが、前記初期視線方向を、現時点の前記ヘッドマウント表示装置姿勢に応じた方向に設定する初期視線方向入力が行われる入力部;を更に備える構成とすることができる。この場合には、入力部を利用して、ヘッドマウント表示装置を装着した利用者が、例えば正面を向く方向等の所望の姿勢変化をしやすい方向を初期視線方向に設定することができる。このため、利用者の利便性を向上させることができる。   In the environmental image display system of the present invention, any one of the image processing device and the head mounted display device has an initial visual direction input that sets the initial visual direction to a direction according to the current head mounted display device posture. An input unit to be performed can be further provided. In this case, using the input unit, the user who is wearing the head mounted display device can set a direction in which a desired posture change such as a direction facing the front is easy to change as the initial line-of-sight direction. For this reason, the convenience for the user can be improved.

また、本発明の環境画像表示システムでは、前記全天球画像データ生成部が、前記スティッチング処理に際して、前記重複領域についてブレンド処理を施す構成とすることができる。この場合には、表示画像にスティッチング処理部分が含まれるようになっても、表示画像を視た利用者の違和感を低減することができる。   In the environment image display system of the present invention, the omnidirectional image data generation unit may perform a blending process on the overlapping area during the stitching process. In this case, even when the stitching processing part is included in the display image, it is possible to reduce the user's uncomfortable feeling when viewing the display image.

また、本発明の環境画像表示システムでは、全天球画像における前記撮影光学系のそれぞれに対応する領域が、前記初期表示画像データに対応する画像の表示領域を含むことができる広さを有する構成とすることができる。この場合には、初期表示画像には、画像の不連続性が発生し得るスティッチング処理部分が含まれることがない。このため、画像の不連続性の発生による利用者にとっての違和感の発生を効果的に抑制することができる。   In the environment image display system of the present invention, the area corresponding to each of the photographing optical systems in the omnidirectional image has a size that can include the display area of the image corresponding to the initial display image data. It can be. In this case, the initial display image does not include a stitching processing portion that may cause image discontinuity. For this reason, it is possible to effectively suppress the occurrence of discomfort for the user due to the occurrence of discontinuity in the image.

また、本発明の環境画像表示システムでは、前記複数の撮影光学系の数が「2」である構成とすることができる。この場合には、スティッチング処理部分を最小化できるので、画像の不連続性の発生による利用者にとっての違和感の発生を最小化することができる。   In the environment image display system of the present invention, the number of the plurality of photographing optical systems may be “2”. In this case, since the stitching processing portion can be minimized, it is possible to minimize the uncomfortable feeling for the user due to the occurrence of the discontinuity of the image.

本発明の環境画像表示方法は、無線操縦可能な無人移動体に配置され、前記無人移動体の周辺画像を撮影し、撮影結果データを無線通信により送信する撮影装置と;前記撮影結果データを処理して、表示画像データを生成する画像処理装置と;前記画像処理装置に接続され、前記表示画像データに従って画像表示を行うヘッドマウント表示装置と;を備える環境画像表示システムにおいて使用される環境画像表示方法であって、前記撮影装置が、撮影視野の広さが互いに同一であり、撮影方向が互いに異なる複数の撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影し、前記複数の撮影光学系のそれぞれに対応する撮影結果データを前記画像処理装置へ送信する撮影工程と;前記画像処理装置が、前記撮影工程において送信された複数の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する全天球画像データ生成工程と;前記画像処理装置が、前記ヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、前記表示画像データを生成する表示画像データ生成工程と;前記ヘッドマウント表示装置が、前記表示画像データに対応する画像を表示する表示工程と;前記ヘッドマウント表示装置が、前回検出時点からの前記ヘッドマウント表示装置の姿勢変化量を検出し、検出結果を前記画像処理装置へ送る姿勢変化量検出工程と;を備え、前記表示画像データ生成工程では、前記複数の撮影光学系のうちから選択された特定撮影光学系の光軸方向を、前記ヘッドマウント表示装置の利用者の初期視線方向とする初期表示画像データを生成する、ことを特徴とする環境画像表示方法である。   An environmental image display method according to the present invention includes an imaging device that is arranged on an unmanned mobile body that can be wirelessly controlled, captures a peripheral image of the unmanned mobile body, and transmits the imaging result data by wireless communication; and processes the imaging result data An environmental image display used in an environmental image display system comprising: an image processing device that generates display image data; and a head-mounted display device that is connected to the image processing device and displays an image according to the display image data. In the method, the imaging device uses a plurality of imaging optical systems having the same imaging field of view and different imaging directions, and has an overlapping region and an image covering the entire celestial sphere as a whole. A photographing step of photographing and transmitting photographing result data corresponding to each of the plurality of photographing optical systems to the image processing device; and the image processing device comprising the photographing step A celestial sphere image data generating step for generating omnidirectional image data by performing a stitching process on the plurality of photographing result data transmitted in the step; and the image processing device is in an attitude of the head mounted display device. A display image data generation step of extracting an image of a display area determined correspondingly from the omnidirectional image and generating the display image data; and the head mounted display device displays an image corresponding to the display image data A display step; and a posture change amount detection step in which the head mounted display device detects a posture change amount of the head mounted display device from a previous detection time point and sends a detection result to the image processing device. In the image data generation step, the optical axis direction of the specific imaging optical system selected from the plurality of imaging optical systems is determined by the user of the head mounted display device. Generating an initial display image data to the period gaze direction is an environmental image display wherein the.

この環境画像表示方法では、撮影工程において、撮影装置が、撮影視野の広さが互いに同一であり、撮影方向が互いに異なる複数の撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影し、複数の撮影光学系のそれぞれに対応する撮影結果データを前記画像処理装置へ送信する。また、撮影工程と並行して、姿勢変化量検出工程において、ヘッドマウント表示装置が、前回検出時点からのヘッドマウント表示装置の姿勢変化量を検出し、検出結果を画像処理装置へ送る。   In this environmental image display method, in the imaging process, the imaging apparatus uses a plurality of imaging optical systems having the same imaging field of view and different imaging directions, and has an overlapping area, but as a whole. An image covering the celestial sphere is photographed, and photographing result data corresponding to each of the plurality of photographing optical systems is transmitted to the image processing apparatus. In parallel with the photographing process, in the posture change amount detection step, the head mount display device detects the posture change amount of the head mount display device from the previous detection time point, and sends the detection result to the image processing device.

撮影装置から送信された複数の撮影結果データを受けると、全天球画像データ生成工程において、画像処理装置が、当該複数の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する。引き続き、表示画像データ生成工程において、画像処理装置が、ヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して表示画像データを生成する。そして、表示工程において、ヘッドマウント表示装置が、表示画像データに対応する画像を表示する。   When receiving a plurality of imaging result data transmitted from the imaging device, in the omnidirectional image data generation step, the image processing device performs a stitching process on the plurality of imaging result data to obtain the omnidirectional image data. Generate. Subsequently, in the display image data generation step, the image processing device extracts a display area image determined according to the attitude of the head mounted display device from the omnidirectional image to generate display image data. In the display step, the head mounted display device displays an image corresponding to the display image data.

したがって、本発明の環境画像表示方法によれば、利用者にとっての煩雑さ、及び、画像の不連続性による利用者にとっての違和感の発生を抑制しつつ、無人移動体の周辺の環境画像を表示することができる。   Therefore, according to the environment image display method of the present invention, the environment image around the unmanned mobile object is displayed while suppressing the troublesomeness for the user and the uncomfortable feeling for the user due to the discontinuity of the image. can do.

以上説明したように、本発明の環境画像表示システム及び環境画像表示方法によれば、利用者にとっての煩雑さ、及び、画像の不連続性による利用者にとっての違和感の発生を抑制しつつ、無人移動体の周辺の環境画像を表示することができる、という効果を奏する。   As described above, according to the environmental image display system and the environmental image display method of the present invention, it is possible to unmanned while suppressing the troublesomeness for the user and the uncomfortable feeling for the user due to the discontinuity of the image. There is an effect that an environment image around the moving body can be displayed.

本発明の一実施形態に係る環境画像表示システムの構成を示す図である。It is a figure which shows the structure of the environmental image display system which concerns on one Embodiment of this invention. 図1の撮影装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the imaging device of FIG. 図2の撮影装置による撮影画像を説明するための図である。It is a figure for demonstrating the picked-up image by the imaging device of FIG. 図1の画像処理装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the image processing apparatus of FIG. 図4の全天球画像データ生成部により生成される全天球画像データに対応する全天球画像と、図2の撮影装置による撮影画像との関係を説明するための図である。FIG. 5 is a diagram for explaining a relationship between an omnidirectional image corresponding to the omnidirectional image data generated by the omnidirectional image data generation unit of FIG. 4 and an image captured by the imaging apparatus of FIG. 2. 図1のヘッドマウント表示装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the head mounted display apparatus of FIG. 図1の画像処理装置が実行する処理を説明するためのフローチャートである。3 is a flowchart for explaining processing executed by the image processing apparatus of FIG. 1. 全天球画像と表示画像との関係例を説明するための図である。It is a figure for demonstrating the example of a relationship between an omnidirectional image and a display image.

以下、本発明の一実施形態を、図1〜図8を参照して説明する。なお、以下の説明及び図面においては、同一又は同等な要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. In the following description and drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.

[構成]
図1に示されるように、一実施形態に係る環境画像表示システム100は、撮影装置200と、画像処理装置300と、ヘッドマウント表示装置400とを備えている。
[Constitution]
As shown in FIG. 1, an environmental image display system 100 according to an embodiment includes an imaging device 200, an image processing device 300, and a head mounted display device 400.

ここで、撮影装置200は、無人移動体MVに配置されている。この無人移動体MVは、遠隔操縦装置RMにより、移動の遠隔操作が行われるようになっている。なお、本実施形態では、無人移動体MVは、地上を走行する車両となっている。   Here, the imaging device 200 is disposed in the unmanned moving body MV. The unmanned moving body MV is remotely operated by a remote control device RM. In the present embodiment, the unmanned mobile body MV is a vehicle that travels on the ground.

<撮影装置200の構成>
上記の撮影装置200は、図2に示されるように、全天球カメラ210と、無線通信部220とを備えている。
<Configuration of photographing apparatus 200>
As shown in FIG. 2, the photographing apparatus 200 includes an omnidirectional camera 210 and a wireless communication unit 220.

上記の全天球カメラ210は、2つの撮影光学系OP1,OP2を有している。撮影光学系OP1,OP2のそれぞれに対応する撮影視野の広さは互いに同一となっている。ここで、撮影光学系OP1の光軸方向は、無人移動体MVの前方向である第1方向となっている。また、撮影光学系OP2の光軸方向は、第1方向の逆方向、すなわち、無人移動体MVの後方向である第2方向となっている。   The omnidirectional camera 210 has two photographing optical systems OP1 and OP2. The widths of the photographing fields corresponding to the photographing optical systems OP1 and OP2 are the same. Here, the optical axis direction of the photographing optical system OP1 is the first direction that is the forward direction of the unmanned moving body MV. The optical axis direction of the photographing optical system OP2 is the reverse direction of the first direction, that is, the second direction that is the rear direction of the unmanned moving body MV.

そして、全天球カメラ210は、撮影光学系OP1,OP2を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影する。そして、全天球カメラ210は、撮影光学系OP1,OP2のそれぞれに対応する撮影結果データを無線通信部220へ送る。   Then, the omnidirectional camera 210 uses the imaging optical systems OP1 and OP2, and captures an image covering the entire celestial sphere as a whole while having an overlapping region. Then, the omnidirectional camera 210 sends the photographing result data corresponding to each of the photographing optical systems OP1 and OP2 to the wireless communication unit 220.

なお、図3(A)には、撮影光学系OP1に対応する画像の撮影範囲が示されている。また、図3(B)には、撮影光学系OP2に対応する画像の撮影範囲が示されている。   Note that FIG. 3A shows an imaging range of an image corresponding to the imaging optical system OP1. FIG. 3B shows a shooting range of an image corresponding to the shooting optical system OP2.

図3(A)においては、横方向が無人移動体MVの幅方向であり、縦方向が無人移動体MVの高さ方向となっている。そして、第1方向が、(0°,0°)方向となっている。   In FIG. 3A, the horizontal direction is the width direction of the unmanned mobile body MV, and the vertical direction is the height direction of the unmanned mobile body MV. The first direction is a (0 °, 0 °) direction.

また、図3(B)においては、横方向が無人移動体MVの幅方向であり、縦方向が無人移動体MVの高さ方向となっている。そして、第2方向が、(0°,0°)方向となっている。   In FIG. 3B, the horizontal direction is the width direction of the unmanned mobile body MV, and the vertical direction is the height direction of the unmanned mobile body MV. The second direction is a (0 °, 0 °) direction.

上記の無線通信部220は、全天球カメラ210から送られた2つの撮影結果データを受ける。そして、無線通信部220は、当該2つの撮影結果データを、無線通信により画像処理装置300へ送信する。   The wireless communication unit 220 receives two pieces of imaging result data sent from the omnidirectional camera 210. Then, the wireless communication unit 220 transmits the two shooting result data to the image processing apparatus 300 by wireless communication.

<画像処理装置300の構成>
上記の画像処理装置300は、図4に示されるように、第1無線通信部310と、全天球画像データ生成部320とを備えている。また、画像処理装置300は、表示画像データ生成部330と、第2無線通信部340とを備えている。
<Configuration of Image Processing Device 300>
As shown in FIG. 4, the image processing apparatus 300 includes a first wireless communication unit 310 and an omnidirectional image data generation unit 320. Further, the image processing apparatus 300 includes a display image data generation unit 330 and a second wireless communication unit 340.

上記の第1無線通信部310は、撮影装置200との間で無線通信を行う。この第1無線通信部310は、撮影装置200から送信された2つの撮影結果データを受信する。そして、第1無線通信部310は、当該2つの撮影結果データを全天球画像データ生成部320へ送る。   The first wireless communication unit 310 performs wireless communication with the imaging device 200. The first wireless communication unit 310 receives two pieces of shooting result data transmitted from the shooting apparatus 200. Then, the first wireless communication unit 310 sends the two shooting result data to the omnidirectional image data generation unit 320.

上記の全天球画像データ生成部320は、第1無線通信部310から送られた2つの撮影結果データを受ける。引き続き、全天球画像データ生成部320は、2つの撮影結果データに対してスティッチング処理を施して全天球画像データを生成する。   The omnidirectional image data generation unit 320 receives the two imaging result data sent from the first wireless communication unit 310. Subsequently, the omnidirectional image data generation unit 320 performs stitching processing on the two imaging result data to generate omnidirectional image data.

図5には、全天球画像データに対応する全天球画像FSIと、撮影光学系OP1に対応する画像(1)と、撮影光学系OP2に対応する画像(2−1)〜(2−8)との関係が示されている。なお、図5においては、スティッチング処理領域が、小さな黒丸が散布されて示されている。   FIG. 5 shows an omnidirectional image FSI corresponding to the omnidirectional image data, an image (1) corresponding to the photographing optical system OP1, and images (2-1) to (2-) corresponding to the photographing optical system OP2. The relationship with 8) is shown. In FIG. 5, the stitching processing area is shown with small black circles scattered.

本実施形態では、全天球画像データ生成部320は、スティッチング処理に際して、撮影光学系OP1に対応する画像と、撮影光学系OP2に対応する画像との重複領域についてブレンド処理を施すようになっている。このため、ブレンド処理を施さない場合と比べて、全天球画像における繋ぎ目近傍における画像の不連続性が低減される。   In the present embodiment, the omnidirectional image data generation unit 320 performs a blending process on an overlapping area between an image corresponding to the photographing optical system OP1 and an image corresponding to the photographing optical system OP2 during the stitching process. ing. For this reason, the discontinuity of the image in the vicinity of the joint in the omnidirectional image is reduced as compared with the case where the blend process is not performed.

なお、本実施形態では、ブレンド処理に際して、全天球画像データ生成部320は、繋ぎ目からの距離が大きくなるほど、各画素が属する撮影光学系に対応する画像領域のブレンド比を高くするようになっている。   In the present embodiment, during the blending process, the omnidirectional image data generation unit 320 increases the blend ratio of the image region corresponding to the imaging optical system to which each pixel belongs as the distance from the joint increases. It has become.

上記の表示画像データ生成部330は、全天球画像データ生成部320から送られた全天球画像データを受ける。また、表示画像データ生成部330は、第2無線通信部340を利用してヘッドマウント表示装置400から受信した、前回検出時点からのヘッドマウント表示装置400の姿勢変化量(以下、単に「姿勢変化量」ともいう)、及び、初期視線方向設定指令を受ける。引き続き、表示画像データ生成部330は、最新の初期視線方向設定指令に応じて設定された初期視線方向と、ヘッドマウント表示装置400の姿勢変化量とに基づいて、全天球画像における表示領域を決定する。   The display image data generation unit 330 receives the omnidirectional image data sent from the omnidirectional image data generation unit 320. Further, the display image data generation unit 330 uses the second wireless communication unit 340 to receive the posture change amount of the head mounted display device 400 from the previous detection time point (hereinafter simply referred to as “posture change”) received from the head mounted display device 400. And an initial gaze direction setting command. Subsequently, the display image data generation unit 330 sets the display area in the omnidirectional image based on the initial line-of-sight direction set according to the latest initial line-of-sight direction setting command and the attitude change amount of the head mounted display device 400. decide.

次に、表示画像データ生成部330は、最新の全天球画像データに対応する全天球画像から、決定された表示領域の画像を抽出して、表示画像データを生成する。そして、表示画像データ生成部330は、生成された表示画像データを、第2無線通信部340へ送る。   Next, the display image data generation unit 330 extracts the image of the determined display area from the omnidirectional image corresponding to the latest omnidirectional image data, and generates display image data. Then, the display image data generation unit 330 sends the generated display image data to the second wireless communication unit 340.

上記の第2無線通信部340は、ヘッドマウント表示装置400との間で無線通信を行う。この第2無線通信部340は、表示画像データ生成部330から送られた表示画像データを受ける。そして、第2無線通信部340は、当該表示画像データをヘッドマウント表示装置400へ送信する。   The second wireless communication unit 340 performs wireless communication with the head mounted display device 400. The second wireless communication unit 340 receives the display image data sent from the display image data generation unit 330. Then, the second wireless communication unit 340 transmits the display image data to the head mounted display device 400.

また、第2無線通信部340は、ヘッドマウント表示装置400から送信されたヘッドマウント表示装置400の姿勢変化量を受信する。そして、第2無線通信部340は、当該姿勢変化量を表示画像データ生成部330へ送る。   Further, the second wireless communication unit 340 receives the posture change amount of the head mounted display device 400 transmitted from the head mounted display device 400. Then, the second wireless communication unit 340 sends the posture change amount to the display image data generation unit 330.

また、第2無線通信部340は、ヘッドマウント表示装置400から送信された初期視線方向設定指令を受信する。そして、第2無線通信部340は、当該初期視線方向設定指令を表示画像データ生成部330へ送る。   Further, the second wireless communication unit 340 receives the initial line-of-sight direction setting command transmitted from the head mounted display device 400. Then, the second wireless communication unit 340 sends the initial line-of-sight direction setting command to the display image data generation unit 330.

<ヘッドマウント表示装置400の構成>
上記のヘッドマウント表示装置400は、図6に示されるように、無線通信部410と、表示部420とを備えている。また、ヘッドマウント表示装置400は、姿勢変化量検出部430と、入力部440とを備えている。
<Configuration of Head Mount Display Device 400>
As shown in FIG. 6, the head mounted display device 400 includes a wireless communication unit 410 and a display unit 420. The head mounted display device 400 includes an attitude change amount detection unit 430 and an input unit 440.

上記の無線通信部410は、画像処理装置300との間で無線通信を行う。この無線通信部410は、画像処理装置300から送信された表示画像データを受ける。そして、無線通信部410は、当該表示画像データを表示部420へ送る。   The wireless communication unit 410 performs wireless communication with the image processing apparatus 300. The wireless communication unit 410 receives display image data transmitted from the image processing apparatus 300. Then, the wireless communication unit 410 sends the display image data to the display unit 420.

また、無線通信部410は、姿勢変化量検出部430から送られたヘッドマウント表示装置400の姿勢変化量を受ける。そして、無線通信部410は、当該姿勢変化量を画像処理装置300へ送る。   In addition, the wireless communication unit 410 receives the posture change amount of the head mounted display device 400 sent from the posture change amount detection unit 430. Then, the wireless communication unit 410 sends the posture change amount to the image processing apparatus 300.

また、無線通信部410は、入力部440から送られた初期視線方向設定指令を受ける。そして、無線通信部410は、当該初期視線方向設定指令を画像処理装置300へ送る。   In addition, the wireless communication unit 410 receives an initial line-of-sight direction setting command sent from the input unit 440. Then, the wireless communication unit 410 sends the initial line-of-sight direction setting command to the image processing device 300.

上記の表示部420は、液晶パネル等の表示デバイスを備えて構成される。この表示部420は、無線通信部410から送られた表示画像データを受ける。そして、表示部420は、当該表示画像データに対応する画像を表示する。   The display unit 420 includes a display device such as a liquid crystal panel. The display unit 420 receives display image data sent from the wireless communication unit 410. Then, the display unit 420 displays an image corresponding to the display image data.

上記の姿勢変化量検出部430は、例えば、3次元ジャイロセンサ等を備えて構成されている。この姿勢変化量検出部430は、各時点の3次元角速度を検出することにより、前回の検出時点からの姿勢変化量を算出する。そして、姿勢変化量検出部430は、検出結果である姿勢変化量を無線通信部410へ送る。   The posture change amount detection unit 430 includes, for example, a three-dimensional gyro sensor. The posture change amount detection unit 430 calculates the posture change amount from the previous detection time point by detecting the three-dimensional angular velocity at each time point. Then, posture change amount detection unit 430 sends the posture change amount as a detection result to wireless communication unit 410.

上記の入力部440は、押下ボタンを備えて構成されている。かかる押下ボタンは、押下操作により「ON」状態となり、押下操作が終了すると「OFF」となるモーメンタリ動作のボタンとなっている。入力部440は、押下ボタンに対して押下操作が行われるたびに、初期視線方向設定指令を無線通信部410へ送る。   The input unit 440 includes a push button. Such a push button is a button for a momentary operation that is turned “ON” by a push operation and turned “OFF” when the push operation is completed. The input unit 440 sends an initial line-of-sight direction setting command to the wireless communication unit 410 each time a pressing operation is performed on the pressing button.

[動作]
次に、上記のように構成された環境画像表示システム100の動作について、画像処理装置300が実行する処理に主に着目して説明する。
[Operation]
Next, the operation of the environment image display system 100 configured as described above will be described mainly focusing on the processing executed by the image processing apparatus 300.

なお、撮影装置200は動作を開始しており、撮影装置200は、撮影結果データを画像処理装置300へ逐次送信しているものとする。また、ヘッドマウント表示装置400も動作を開始しており、ヘッドマウント表示装置400は、検出された姿勢変化量を画像処理装置300へ逐次送信しているものとする。さらに、ヘッドマウント表示装置400における入力部440の押下ボタンの押下操作が過去に一度は押下され、初期視線方向設定指令が、ヘッドマウント表示装置400から画像処理装置300へ送信されたことがあるものとする。   Note that the photographing apparatus 200 has started operation, and the photographing apparatus 200 sequentially transmits photographing result data to the image processing apparatus 300. In addition, it is assumed that the head mounted display device 400 has also started operation, and the head mounted display device 400 sequentially transmits the detected posture change amount to the image processing device 300. Further, the pressing operation of the pressing button of the input unit 440 in the head mounted display device 400 has been pressed once in the past, and an initial line-of-sight direction setting command has been transmitted from the head mounted display device 400 to the image processing device 300. And

上述した動作環境のもとで実行される画像処理装置300の処理では、図7に示されるように、まず、ステップS11において、全天球画像データ生成部320が、第1無線通信部310を介して、撮影装置200から送られた新たな撮影結果データを受信したか否かを判定する。ステップS11における判定の結果が否定的であった場合(ステップS11:N)には、処理は、後述するステップS14へ進む。   In the processing of the image processing apparatus 300 executed under the above-described operating environment, as shown in FIG. 7, first, in step S11, the omnidirectional image data generation unit 320 causes the first wireless communication unit 310 to operate. Then, it is determined whether or not new imaging result data sent from the imaging apparatus 200 has been received. If the result of the determination in step S11 is negative (step S11: N), the process proceeds to step S14 described later.

ステップS11における判定の結果が肯定的な場合(ステップS11:Y)には、処理はステップS12へ進む。このステップS12では、全天球画像データ生成部320が、当該新たな撮影結果データ(撮影光学系OP1に対応する撮影結果データ及び撮影光学系OP2に対応する撮影結果データの2つの新たな撮影結果データ)に基づいて、全天球画像データを生成する。かかる全天球画像データの生成に際して、全天球画像データ生成部320は、上述したスティッチング処理を行って全天球画像データを生成する。そして、全天球画像データ生成部320は、生成された全天球画像データを表示画像データ生成部330へ送る。   If the result of the determination in step S11 is affirmative (step S11: Y), the process proceeds to step S12. In this step S12, the omnidirectional image data generation unit 320 causes the new photographing result data (two new photographing results of photographing result data corresponding to the photographing optical system OP1 and photographing result data corresponding to the photographing optical system OP2). Omnidirectional image data is generated based on (data). When generating the omnidirectional image data, the omnidirectional image data generation unit 320 performs the above-described stitching process to generate omnidirectional image data. Then, the omnidirectional image data generation unit 320 sends the generated omnidirectional image data to the display image data generation unit 330.

次に、ステップS13において、表示画像データ生成部330が、第2無線通信部340を介した、その時点で最新の初期視線方向設定指令の受信時点からの姿勢変化量の受信結果の累積に基づいて、最新の全天球画像データに対応する全天球画像から、表示領域の画像を抽出して、表示画像データを生成する。そして、表示画像データ生成部330は、生成された表示画像データを、第2無線通信部340を介して、ヘッドマウント表示装置400へ送る。この結果、ヘッドマウント表示装置400の表示部420に、当該表示画像データに対応する画像が表示される。   Next, in step S13, the display image data generation unit 330 is based on the accumulation of reception results of posture change amounts from the reception time of the latest initial gaze direction setting command at that time via the second wireless communication unit 340. The display area image is extracted from the omnidirectional image corresponding to the latest omnidirectional image data to generate display image data. Then, the display image data generation unit 330 sends the generated display image data to the head mounted display device 400 via the second wireless communication unit 340. As a result, an image corresponding to the display image data is displayed on the display unit 420 of the head mounted display device 400.

次いで、ステップS14において、表示画像データ生成部330が、第2無線通信部340を介して、撮影装置200から送られた新たな初期視線方向設定指令を受信したか否かを判定する。ステップS14における判定の結果が否定的であった場合(ステップS14:N)には、処理はステップS11へ戻る。   Next, in step S <b> 14, the display image data generation unit 330 determines whether a new initial line-of-sight direction setting command sent from the imaging apparatus 200 has been received via the second wireless communication unit 340. If the result of the determination in step S14 is negative (step S14: N), the process returns to step S11.

ステップS14における判定の結果が肯定的であった場合(ステップS14:Y)には、処理はステップS15へ進む。このステップS15では、表示画像データ生成部330が、新たな初期表示画像データの生成を行う。かかる新たな初期表示画像データの生成に際して、表示画像データ生成部330は、最新の全天球画像における(0°,0°)位置を新たな初期表示画像の中心位置として、表示領域の画像を抽出して、新たな初期表示画像データを生成する。そして、表示画像データ生成部330は、生成された初期表示画像データを、第2無線通信部340を介して、ヘッドマウント表示装置400へ送る。この結果、ヘッドマウント表示装置400の表示部420に、新たな初期表示画像データに対応する画像が表示される。   If the result of the determination in step S14 is affirmative (step S14: Y), the process proceeds to step S15. In step S15, the display image data generation unit 330 generates new initial display image data. When generating the new initial display image data, the display image data generation unit 330 uses the (0 °, 0 °) position in the latest omnidirectional image as the center position of the new initial display image, and displays the image in the display area. Extraction is performed to generate new initial display image data. Then, the display image data generation unit 330 sends the generated initial display image data to the head mounted display device 400 via the second wireless communication unit 340. As a result, an image corresponding to the new initial display image data is displayed on the display unit 420 of the head mounted display device 400.

ステップS15の処理が終了すると、処理はステップS11へ戻る。以後、ステップS11〜S15の処理が繰り返される。   When the process of step S15 ends, the process returns to step S11. Thereafter, the processes of steps S11 to S15 are repeated.

なお、図8(A)には、初期視線方向設定が行われた直後の全天球画像FSIにおける表示画像領域DSRの位置が示されている。また、図8(B)には、初期視線方向設定後のヘッドマウント表示装置400の姿勢変化に応じた表示画像領域DSRの位置の一例が示されている。   Note that FIG. 8A shows the position of the display image region DSR in the omnidirectional image FSI immediately after the initial line-of-sight direction setting is performed. FIG. 8B shows an example of the position of the display image region DSR in accordance with the posture change of the head mounted display device 400 after the initial line-of-sight direction is set.

以上説明したように、本実施形態の環境画像表示システム100では、無線操縦可能な無人移動体MVに配置された撮影装置200の全天球カメラ210により、無人移動体MVの周辺画像を撮影する。この全天球カメラ210は、撮影視野の広さが互いに同一であり、撮影方向が互いに2つの撮影光学系OP1,OP2を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影する。そして、全天球カメラ210による撮像結果である2つの撮影光学系OP1,OP2のそれぞれに対応する撮影結果データを、撮影装置200の無線送信部220が、画像処理装置300へ送信する。   As described above, in the environmental image display system 100 of the present embodiment, a peripheral image of the unmanned moving body MV is photographed by the omnidirectional camera 210 of the photographing apparatus 200 arranged on the unmanned moving body MV that can be wirelessly operated. . The omnidirectional camera 210 has the same field of view and uses two photographic optical systems OP1 and OP2 whose photographic directions are mutually different, and has an overlapping area, and displays an image covering the entire celestial sphere as a whole. Take a picture. Then, the radio transmission unit 220 of the imaging apparatus 200 transmits imaging result data corresponding to each of the two imaging optical systems OP1 and OP2 that are imaging results of the omnidirectional camera 210 to the image processing apparatus 300.

画像処理装置300では、全天球画像データ生成部320が、撮影装置200から送信された2つの撮影結果データを、第1無線受信部310を介して受信する。引き続き、全天球画像データ生成部320は、受信した2つの撮影結果データに対してスティッチング処理を施して全天球画像データを生成する。   In the image processing device 300, the omnidirectional image data generation unit 320 receives the two imaging result data transmitted from the imaging device 200 via the first wireless reception unit 310. Subsequently, the omnidirectional image data generation unit 320 performs stitching processing on the two received photographing result data to generate omnidirectional image data.

また、ヘッドマウント表示装置400の姿勢変化量検出部430が、前回の検出時からのヘッドマウント表示装置400の姿勢変化量を検出し、検出結果を画像処理装置300へ送る。引き続き、画像処理装置300の表示画像データ生成部330が、ヘッドマウント表示装置400から送られたヘッドマウント表示装置400の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、表示画像データを生成する。ここで、2つの撮影光学系OP1,OP2のうちから選択された特定撮影光学系OP1の光軸方向をヘッドマウント表示装置400の利用者の初期視線方向として、表示画像データ生成部330は、ヘッドマウント表示装置400の姿勢に基づき、全天球画像における表示画像の位置を特定し、表示画像データを生成する。そして、表示画像データ生成部330は、生成された表示画像データをヘッドマウント表示装置400へ送る。   In addition, the posture change amount detection unit 430 of the head mounted display device 400 detects the posture change amount of the head mounted display device 400 from the previous detection, and sends the detection result to the image processing device 300. Subsequently, the display image data generation unit 330 of the image processing device 300 extracts the image of the display area determined in accordance with the posture of the head mounted display device 400 sent from the head mounted display device 400 from the omnidirectional image, Display image data is generated. Here, with the optical axis direction of the specific imaging optical system OP1 selected from the two imaging optical systems OP1 and OP2 as the initial line-of-sight direction of the user of the head-mounted display device 400, the display image data generation unit 330 Based on the attitude of the mount display device 400, the position of the display image in the omnidirectional image is specified, and display image data is generated. Then, the display image data generation unit 330 sends the generated display image data to the head mounted display device 400.

ヘッドマウント表示装置400では、表示部420が、無線通信部410を介して、画像処理装置300から送られた表示画像データを受ける。そして、表示部420は、当該表示画像データに従った画像を表示する。   In the head mounted display device 400, the display unit 420 receives display image data sent from the image processing device 300 via the wireless communication unit 410. Then, the display unit 420 displays an image according to the display image data.

したがって、本実施形態の環境画像表示システム100によれば、利用者にとっての煩雑さ、及び、画像の不連続性による利用者にとっての違和感の発生を抑制しつつ、無人移動体MVの周辺の環境画像を表示することができる。   Therefore, according to the environment image display system 100 of the present embodiment, the environment around the unmanned mobile MV is suppressed while suppressing the troublesomeness for the user and the uncomfortable feeling for the user due to the discontinuity of the image. An image can be displayed.

また、本実施形態の環境画像表示システム100では、ヘッドマウント表示装置400が、初期視線方向を、現時点のヘッドマウント表示装置400の姿勢に応じた方向に設定する初期視線方向入力が行われる入力部440を備える。このため、入力部440を利用して、ヘッドマウント表示装置400を装着した利用者が、例えば正面を向く方向等の所望の姿勢変化をしやすい方向を初期視線方向に設定することができる。このため、利用者の利便性を向上させることができる。   Further, in the environmental image display system 100 according to the present embodiment, an input unit that performs an initial line-of-sight direction input in which the head-mounted display device 400 sets the initial line-of-sight direction to a direction according to the current posture of the head-mounted display device 400 440 is provided. For this reason, using the input unit 440, a direction in which the user wearing the head mounted display device 400 can easily change a desired posture, such as a direction facing the front, can be set as the initial line-of-sight direction. For this reason, the convenience for the user can be improved.

また、本実施形態の環境画像表示システム100では、全天球画像データ生成部320が、スティッチング処理に際して、重複領域についてブレンド処理を施す。このため、画像の繋ぎ目部分にはブレンド処理が施されているので、表示画像に当該繋ぎ目部分が含まれるようになっても、表示画像を視た利用者の違和感を低減することができる。   Further, in the environmental image display system 100 of the present embodiment, the omnidirectional image data generation unit 320 performs a blending process on the overlapping region during the stitching process. For this reason, since the joint processing is performed on the joint portion of the image, even if the joint portion is included in the display image, it is possible to reduce the uncomfortable feeling of the user who viewed the display image. .

また、本実施形態の環境画像表示システム100では、全天球画像における撮影光学系OP1,OP2のそれぞれに対応する領域が、初期表示画像データに対応する画像の表示領域を含むことができる広さを有するようになっている。このため、初期表示画像には、画像の不連続性が発生し得るスティッチング処理部分が含まれることがない。この結果、画像の不連続性の発生による利用者にとっての違和感の発生を効果的に抑制することができる。   In the environment image display system 100 of the present embodiment, the area corresponding to each of the imaging optical systems OP1 and OP2 in the omnidirectional image can include an image display area corresponding to the initial display image data. Have come to have. For this reason, the initial display image does not include a stitching processing portion that may cause image discontinuity. As a result, it is possible to effectively suppress the occurrence of discomfort for the user due to the occurrence of image discontinuity.

また、本発明の環境画像表示システムでは、全天球カメラ210における撮影光学系の数を「2」としている。このため、スティッチング処理部分を最小化できるので、画像の不連続性の発生による利用者にとっての違和感の発生を最小化することができる。   In the environment image display system of the present invention, the number of photographic optical systems in the omnidirectional camera 210 is “2”. For this reason, since the stitching processing portion can be minimized, it is possible to minimize the occurrence of discomfort for the user due to the occurrence of image discontinuity.

[実施形態の変形]
本発明は、上記の実施形態に限定されるものではなく、様々な変形を行うことができる。
[Modification of Embodiment]
The present invention is not limited to the above embodiment, and various modifications can be made.

例えば、上記の実施形態では、無人移動体を、地上を走行する無人車両としたが、無人移動体を、いわゆるドローン等の無人飛行機としてもよい。   For example, in the above embodiment, the unmanned moving body is an unmanned vehicle traveling on the ground, but the unmanned moving body may be an unmanned airplane such as a so-called drone.

また、上記の実施形態では、撮影装置において利用される撮影光学系の数を「2」としたが、「3」以上としてもよい。   In the above embodiment, the number of photographing optical systems used in the photographing apparatus is “2”, but may be “3” or more.

また、上記の実施形態におけるスティッチング処理で採用したブレンド方式は例示であり、他のブレンド方式を採用するようにしてもよい。   In addition, the blend method employed in the stitching process in the above embodiment is an example, and another blend method may be employed.

また、上記の実施形態では、画像処理装置とヘッドマウント表示装置とを無線接続するようにしたが、有線接続により、画像処理装置とヘッドマウント表示装置とを接続するようにしてもよい。   In the above embodiment, the image processing device and the head mounted display device are wirelessly connected. However, the image processing device and the head mounted display device may be connected by wired connection.

また、上記の実施形態では、ヘッドマウント表示装置が、初期視線方向を現時点のヘッドマウント表示装置姿勢に応じた方向に設定する初期視線方向入力が行われる入力部を備えるようにしたが、当該入力部を画像処理装置が備えるようにしてもよい。   In the above embodiment, the head-mounted display device includes the input unit that performs the initial line-of-sight direction input for setting the initial line-of-sight direction to a direction corresponding to the current head-mounted display device posture. The image processing apparatus may include the unit.

以上説明したように、本発明は、無人移動体の周辺の環境画像を表示する環境画像表示システム及び環境画像表示方法に適用することができる。   As described above, the present invention can be applied to the environmental image display system and the environmental image display method for displaying the environmental image around the unmanned mobile body.

100…環境画像表示システム、200…撮影装置、210…全天球カメラ、220…無線通信部(無線送信部)、300…画像処理装置、310…第1無線通信部(無線受信部)、320…全天球画像データ生成部、330…表示画像データ生成部、340…第2無線通信部、400…ヘッドマウント表示装置、410…無線通信部、420…表示部、430…姿勢変化量検出部、440…入力部、MV…移動体、RM…遠隔操縦装置、OP1,OP2…撮影光学系、FSI…全天球画像、DSR…表示画像領域。   DESCRIPTION OF SYMBOLS 100 ... Environmental image display system, 200 ... Imaging device, 210 ... Spherical camera, 220 ... Wireless communication part (wireless transmission part), 300 ... Image processing apparatus, 310 ... 1st wireless communication part (wireless reception part), 320 ... spherical image data generation unit, 330 ... display image data generation unit, 340 ... second wireless communication unit, 400 ... head mounted display device, 410 ... wireless communication unit, 420 ... display unit, 430 ... posture change amount detection unit 440 ... input unit, MV ... moving body, RM ... remote control device, OP1, OP2 ... imaging optical system, FSI ... global image, DSR ... display image area.

Claims (6)

無線操縦可能な無人移動体に配置され、前記無人移動体の周辺画像を撮影し、撮影結果データを無線通信により送信する撮影装置と;
前記撮影結果データを処理して、表示画像データを生成する画像処理装置と;
前記画像処理装置に接続され、前記表示画像データに従って画像表示を行うヘッドマウント表示装置と;を備え、
前記撮影装置は、
撮影視野の広さが互いに同一であり、撮影方向が互いに異なる複数の撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影する全天球カメラと;
前記複数の撮影光学系のそれぞれに対応する撮影結果データを前記画像処理装置へ送信する無線送信部と;を備え、
前記画像処理装置は、
前記撮影装置から送信された複数の撮影結果データを受信する無線受信部と;
前記受信した複数の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する全天球画像データ生成部と;
前記ヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、前記表示画像データを生成する表示画像データ生成部と;を備え、
前記ヘッドマウント表示装置は、
前記表示画像データに対応する画像を表示する表示部と;
前回検出時点からの前記ヘッドマウント表示装置の姿勢変化量を検出し、検出結果を前記画像処理装置へ送る姿勢変化量検出部と;を備え、
前記表示画像データ生成部は、前記複数の撮影光学系のうちから選択された特定撮影光学系の光軸方向を、前記ヘッドマウント表示装置の利用者の初期視線方向とする初期表示画像データを生成する、
ことを特徴とする環境画像表示システム。
An imaging device that is disposed on a wirelessly maneuverable unmanned moving body, photographs a peripheral image of the unmanned moving body, and transmits photographing result data by wireless communication;
An image processing device that processes the photographing result data to generate display image data;
A head mounted display device connected to the image processing device and displaying an image according to the display image data,
The imaging device
An omnidirectional camera that uses a plurality of imaging optical systems having the same imaging field of view and different imaging directions, and that captures an image covering the entire celestial sphere while having an overlapping region;
A wireless transmission unit that transmits imaging result data corresponding to each of the plurality of imaging optical systems to the image processing device;
The image processing apparatus includes:
A wireless receiver for receiving a plurality of photographing result data transmitted from the photographing device;
An omnidirectional image data generation unit that performs a stitching process on the plurality of received imaging result data to generate omnidirectional image data;
A display image data generating unit that extracts an image of a display area determined in accordance with the posture of the head mounted display device from an omnidirectional image and generates the display image data;
The head mounted display device
A display unit for displaying an image corresponding to the display image data;
A posture change amount detection unit that detects a posture change amount of the head mounted display device from the previous detection time point and sends a detection result to the image processing device;
The display image data generation unit generates initial display image data in which an optical axis direction of a specific imaging optical system selected from the plurality of imaging optical systems is an initial line-of-sight direction of a user of the head mounted display device To
An environmental image display system characterized by that.
前記画像処理装置及び前記ヘッドマウント表示装置のいずれかは、
前記初期視線方向を、現時点の前記ヘッドマウント表示装置姿勢に応じた方向に設定する初期視線方向入力が行われる入力部;
を更に備えることを特徴とする請求項1に記載の環境画像表示システム。
Either of the image processing device and the head mounted display device,
An input unit for performing an initial line-of-sight input for setting the initial line-of-sight direction to a direction corresponding to the current head-mounted display device posture;
The environmental image display system according to claim 1, further comprising:
前記全天球画像データ生成部は、前記スティッチング処理に際して、前記重複領域についてブレンド処理を施す、ことを特徴とする請求項1又は2に記載の環境画像表示システム。   The environmental image display system according to claim 1, wherein the omnidirectional image data generation unit performs a blending process on the overlapping area in the stitching process. 全天球画像における前記撮影光学系のそれぞれに対応する領域は、前記初期表示画像データに対応する画像の表示領域を含むことができる広さを有する、ことを特徴とする請求項1〜3のいずれか一項に記載の環境画像表示システム。   The area corresponding to each of the imaging optical systems in the omnidirectional image has a size capable of including an image display area corresponding to the initial display image data. The environmental image display system according to any one of the above. 前記複数の撮影光学系の数は「2」である、ことを特徴とする請求項1〜4のいずれか一項に記載の環境画像表示システム。   The environmental image display system according to claim 1, wherein the number of the plurality of photographing optical systems is “2”. 無線操縦可能な無人移動体に配置され、前記無人移動体の周辺画像を撮影し、撮影結果データを無線通信により送信する撮影装置と;前記撮影結果データを処理して、表示画像データを生成する画像処理装置と;前記画像処理装置に接続され、前記表示画像データに従って画像表示を行うヘッドマウント表示装置と;を備える環境画像表示システムにおいて使用される環境画像表示方法であって、
前記撮影装置が、撮影視野の広さが互いに同一であり、撮影方向が互いに異なる複数の撮影光学系を利用し、重複領域を有しつつ、全体として全天球にわたる画像を撮影し、前記複数の撮影光学系のそれぞれに対応する撮影結果データを前記画像処理装置へ送信する撮影工程と;
前記画像処理装置が、前記撮影工程において送信された複数の撮影結果データに対してスティッチング処理を施して全天球画像データを生成する全天球画像データ生成工程と;
前記画像処理装置が、前記ヘッドマウント表示装置の姿勢に対応して定まる表示領域の画像を全天球画像から抽出して、前記表示画像データを生成する表示画像データ生成工程と;
前記ヘッドマウント表示装置が、前記表示画像データに対応する画像を表示する表示工程と;
前記ヘッドマウント表示装置が、前回検出時点からの前記ヘッドマウント表示装置の姿勢変化量を検出し、検出結果を前記画像処理装置へ送る姿勢変化量検出工程と;を備え、
前記表示画像データ生成工程では、前記複数の撮影光学系のうちから選択された特定撮影光学系の光軸方向を、前記ヘッドマウント表示装置の利用者の初期視線方向とする初期表示画像データを生成する、
ことを特徴とする環境画像表示方法。
An imaging device disposed on a wirelessly maneuverable unmanned moving body, photographing a peripheral image of the unmanned moving body, and transmitting photographing result data by wireless communication; and processing the photographing result data to generate display image data An environmental image display method used in an environmental image display system, comprising: an image processing device; and a head mounted display device connected to the image processing device and displaying an image according to the display image data,
The imaging apparatus uses a plurality of imaging optical systems having the same imaging field of view and different imaging directions, and captures an image covering the entire celestial sphere while having an overlapping region, A photographing step of transmitting photographing result data corresponding to each of the photographing optical systems to the image processing apparatus;
An omnidirectional image data generation step in which the image processing device performs a stitching process on a plurality of imaging result data transmitted in the imaging step to generate omnidirectional image data;
A display image data generating step in which the image processing device extracts an image of a display area determined in accordance with the attitude of the head mounted display device from an omnidirectional image and generates the display image data;
A display step in which the head-mounted display device displays an image corresponding to the display image data;
The head-mounted display device detects a posture change amount of the head-mounted display device from a previous detection time point, and sends a detection result to the image processing device; a posture change amount detection step;
In the display image data generation step, initial display image data is generated in which the optical axis direction of the specific imaging optical system selected from the plurality of imaging optical systems is the initial line-of-sight direction of the user of the head mounted display device To
An environmental image display method characterized by the above.
JP2017056299A 2017-03-22 2017-03-22 Environmental image display system and environmental image display method Active JP6929674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017056299A JP6929674B2 (en) 2017-03-22 2017-03-22 Environmental image display system and environmental image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017056299A JP6929674B2 (en) 2017-03-22 2017-03-22 Environmental image display system and environmental image display method

Publications (2)

Publication Number Publication Date
JP2018160761A true JP2018160761A (en) 2018-10-11
JP6929674B2 JP6929674B2 (en) 2021-09-01

Family

ID=63795822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017056299A Active JP6929674B2 (en) 2017-03-22 2017-03-22 Environmental image display system and environmental image display method

Country Status (1)

Country Link
JP (1) JP6929674B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022220305A1 (en) * 2021-04-16 2022-10-20 パナソニックIpマネジメント株式会社 Video display system, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016079557A1 (en) * 2014-11-17 2016-05-26 Yanmar Co., Ltd. Display system for remote control of working machine
JP2016164783A (en) * 2016-03-22 2016-09-08 株式会社リコー Video display system, information processing apparatus, video display method, and video display program
JP2017040893A (en) * 2015-08-22 2017-02-23 株式会社ローレル・コード Program about head-mounted type display device
JP2017055173A (en) * 2015-09-07 2017-03-16 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and image generation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016079557A1 (en) * 2014-11-17 2016-05-26 Yanmar Co., Ltd. Display system for remote control of working machine
JP2017040893A (en) * 2015-08-22 2017-02-23 株式会社ローレル・コード Program about head-mounted type display device
JP2017055173A (en) * 2015-09-07 2017-03-16 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and image generation method
JP2016164783A (en) * 2016-03-22 2016-09-08 株式会社リコー Video display system, information processing apparatus, video display method, and video display program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022220305A1 (en) * 2021-04-16 2022-10-20 パナソニックIpマネジメント株式会社 Video display system, information processing method, and program

Also Published As

Publication number Publication date
JP6929674B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
US10574889B2 (en) Information processing device, information processing method, and program
US9747725B2 (en) Video system for piloting a drone in immersive mode
KR102502404B1 (en) Information processing device and method, and program
US12131718B2 (en) Image processing device and image processing method
US20190243357A1 (en) Wearable uav control device and uav system
WO2016017245A1 (en) Information processing device, information processing method, and image display system
JP6899875B2 (en) Information processing device, video display system, information processing device control method, and program
JP2017163265A (en) Controlling support system, information processing device, and program
JP2007043225A (en) Picked-up processing apparatus and picked-up processing method
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP2020005146A (en) Output control device, display terminal, information processing apparatus, movable body, remote control system, output control method, program, and photographing control device
WO2018225804A1 (en) Image display device, image display method, and image display program
JP2017046233A (en) Display device, information processor, and control method of the same
JP6649010B2 (en) Information processing device
KR101600699B1 (en) Flight recording system and operating method thereof
JP6929674B2 (en) Environmental image display system and environmental image display method
JP2018074420A (en) Display device, display system, and control method for display device
JP6826215B2 (en) Mobile device
JP2011209622A (en) Device and method for providing information, and program
JP6999052B2 (en) Mobile devices and video display methods
CN114051099B (en) Unmanned aerial vehicle module VR system and method for realizing VR through unmanned aerial vehicle module
WO2024057783A1 (en) Information processing device provided with 360-degree image viewpoint position identification unit
JP2022050443A (en) Portable device and display control method
JP2014071723A (en) Satellite-observing information provision system
CN115437390A (en) Control method and control system of unmanned aerial vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210811

R150 Certificate of patent or registration of utility model

Ref document number: 6929674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250