[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019073190A - Program and parking support device - Google Patents

Program and parking support device Download PDF

Info

Publication number
JP2019073190A
JP2019073190A JP2017201282A JP2017201282A JP2019073190A JP 2019073190 A JP2019073190 A JP 2019073190A JP 2017201282 A JP2017201282 A JP 2017201282A JP 2017201282 A JP2017201282 A JP 2017201282A JP 2019073190 A JP2019073190 A JP 2019073190A
Authority
JP
Japan
Prior art keywords
vehicle
information
unit
obstacle
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017201282A
Other languages
Japanese (ja)
Inventor
豊治 黒田
Toyoji Kuroda
豊治 黒田
定子 山形
Sadako Yamagata
定子 山形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017201282A priority Critical patent/JP2019073190A/en
Publication of JP2019073190A publication Critical patent/JP2019073190A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

To provide a technology for executing processing suitable to automatic parking through remote control.SOLUTION: An acquisition section 112 acquires first information on an obstacle detected by a vehicle 200 and second information on an estimated operation of the vehicle 200 relative to the obstacle of the vehicle 200. Relative to an image taken by an imaging section 126 of a terminal device 100, a superposition section 114 superposes mixed reality UI indicating operation in the second information on a position of the obstacle indicated in the first information. A display I/F 130 causes a display device 132 of the terminal device 100 to display an image on which the mixed reality UI is superposed. An operation I/F 136 receives an instruction to designate the operation of the vehicle 200 relative to the mixed reality UI superposed on the image displayed by the display device 132. A communication section 110 transmits the designation of the received operation to a parking support device 300.SELECTED DRAWING: Figure 1

Description

本開示は、駐車支援技術、特に駐車を支援するプログラムおよび駐車支援装置に関する。   The present disclosure relates to parking assistance technology, in particular, a program for assisting parking and a parking assistance apparatus.

車両を狭いスペースに駐車させる場合などに運転者の操作を補助する運転支援システムとして、車両を遠隔操作するシステムが提案されている。これでまでの運転支援システムでは、リモコン送信装置による車両操作が実現可能であるが、ボタン操作が煩雑であるとともに、操作者自身の移動が必要である。このような運転支援システムにおける操作性を改良するために、車両は、生成した俯瞰画像を携帯型遠隔操作装置に送信し、携帯型遠隔操作装置は、俯瞰画像を表示するとともに、俯瞰画像上への経路の入力を受けつける。   A system for remotely operating a vehicle has been proposed as a driving support system that assists the driver's operation when parking the vehicle in a narrow space or the like. In the driving support system up to now, the vehicle operation by the remote control transmission device can be realized, but the button operation is complicated and the movement of the operator itself is necessary. In order to improve the operability in such a driving support system, the vehicle transmits the generated overhead image to the portable remote control device, and the portable remote control device displays the overhead image and onto the overhead image. Accept the input of the route.

特開2009−292254号公報JP, 2009-292254, A

低い高さの低障害物には、接触すべき輪留め、踏んではいけないプランタ、乗り越えるべき駐車場のフラップなどがあり、その種類に応じた経路を生成すべきである。一方、低障害物の種類を自動検出する場合、自動検出の結果が誤ることもあるので、それを修正する機能が望まれる。   The low obstacles of low height include a loop to be touched, a planter which should not be stepped on, a flap of a parking lot to be overcome, etc., and a route according to the type should be generated. On the other hand, when the type of the low obstacle is automatically detected, the result of the automatic detection may be erroneous, so a function of correcting the result is desired.

本開示はこうした状況に鑑みなされたものであり、その目的は、遠隔操作による自動駐車に適した処理を実行する技術を提供することにある。   This indication is made in view of such a situation, and the object is to provide art which performs processing suitable for automatic parking by remote control.

上記課題を解決するために、本開示のある態様のプログラムは、車両に搭載された通信装置と通信可能な端末装置でのプログラムであって、車両により検出された障害物に関する第1情報と、車両の当該障害物に対する動作に関する第2情報とを取得するステップと、端末装置の撮像部で撮像した映像に対して、第2情報における動作が示された複合現実UIを、第1情報において示された障害物の位置に重畳するステップと、複合現実UIが重畳された映像を端末装置の表示部に表示させるステップと、表示部に表示させた映像に重畳した複合現実UIに対して、車両の動作を指定させるための指示を受けつけるステップと、受けつけた動作の指定の指示を通信装置に送信するステップと、をコンピュータに実行させる。   In order to solve the above problems, a program according to an aspect of the present disclosure is a program in a terminal device capable of communicating with a communication device mounted on a vehicle, and first information related to an obstacle detected by the vehicle; In the first information, a mixed reality UI in which an operation in the second information is shown in the step of acquiring the second information on the operation of the vehicle with respect to the obstacle and the image captured by the imaging unit of the terminal device The step of superimposing on the position of the obstacle, the step of displaying the image on which the mixed reality UI is superimposed on the display unit of the terminal device, and the vehicle on the mixed reality UI superimposed on the image displayed on the display unit And causing the computer to execute the steps of: receiving an instruction for specifying the operation of and transmitting the instruction for specifying the received operation to the communication device.

本開示の別の態様は、駐車支援装置である。この装置は、自動駐車させるべき車両に搭載された駐車支援装置であって、端末装置の撮像部で撮像した映像に対して、車両に対して検出された障害物の位置に、当該障害物に対して推定された車両の動作が示された複合現実UIが重畳されるとともに、複合現実UIを重畳した映像が端末装置の表示部に表示されており、表示部に表示させた映像に重畳した複合現実UIに対して、車両の動作を変更させるための指示を端末装置が受けつけた場合に、変更後の車両の動作に関する情報を端末装置から受信する通信部と、通信部において受信した情報であって、かつ変更後の車両の動作に関する情報を反映させて駐車経路を生成する駐車経路生成部と、を備える。   Another aspect of the present disclosure is a parking assistance device. This device is a parking assistance device mounted on a vehicle to be automatically parked, and for an image captured by an imaging unit of a terminal device, the obstacle is detected at the position of an obstacle detected for the vehicle. The mixed reality UI showing the motion of the vehicle estimated is superimposed, and a video on which the mixed reality UI is superimposed is displayed on the display unit of the terminal device, and is superimposed on the video displayed on the display unit. When the terminal device receives an instruction to change the operation of the vehicle to the mixed reality UI, the communication unit receives information on the operation of the vehicle after the change from the terminal device, and the information received by the communication unit And a parking path generation unit that generates a parking path by reflecting information related to the operation of the vehicle after the change.

本開示のさらに別の態様もまた、プログラムである。このプログラムは、自動駐車させるべき車両に搭載された通信装置と、端末装置と通信可能であるサーバのプログラムであって、車両において探索された探索結果を通信装置から受信するステップと、受信した探索結果から障害物を検出するステップと、検出した障害物に対する車両の動作を推定するステップと、検出した障害物に関する第1情報と、推定した車両の動作に関する第2情報とを端末装置に送信するステップと、をコンピュータに実行させる。   Yet another aspect of the present disclosure is also a program. This program is a program of a communication device mounted on a vehicle to be automatically parked and a server program capable of communicating with a terminal device, receiving the search results searched for in the vehicle from the communication device, and the received search The step of detecting an obstacle from the result, the step of estimating the operation of the vehicle with respect to the detected obstacle, the first information about the detected obstacle, and the second information about the estimated operation of the vehicle are transmitted to the terminal device Have the computer execute the steps.

なお、以上の構成要素の任意の組合せ、本開示の表現を装置、システム、方法、プログラム、プログラムを記録した記録媒体、本装置を搭載した車両などの間で変換したものもまた、本開示の態様として有効である。   In the present disclosure, any combination of the above components, the expression of the present disclosure converted between an apparatus, a system, a method, a program, a recording medium recording the program, a vehicle equipped with the present apparatus, etc. It is effective as an aspect.

本開示によれば、遠隔操作による自動駐車に適した処理を実行できる。   According to the present disclosure, processing suitable for automatic parking by remote control can be performed.

本実施の形態1に係る駐車支援システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of a parking assistance system according to a first embodiment. 図1の投影変換部における処理の概要を示す図である。It is a figure which shows the outline | summary of the process in the projection conversion part of FIG. 図1の表示装置に表示される映像を示す図である。It is a figure which shows the image | video displayed on the display apparatus of FIG. 図4a−図4bは、図1の表示装置に表示される別の映像を示す図である。4a-4b are diagrams showing another image displayed on the display device of FIG. 図5a−図5mは、図1の表示装置に表示され、操作部によって操作される複合現実UIを示す図である。5a to 5m are diagrams showing a mixed reality UI displayed on the display device of FIG. 1 and operated by the operation unit. 図1の駐車支援システムにおける駐車支援手順を示すシーケンス図である。It is a sequence diagram which shows the parking assistance procedure in the parking assistance system of FIG. 図1の端末装置における送信手順を示すフローチャートである。It is a flowchart which shows the transmission procedure in the terminal device of FIG. 図1の端末装置における別の送信手順を示すフローチャートである。It is a flowchart which shows another transmission procedure in the terminal device of FIG. 図1の端末装置における障害物状況重畳表示手順を示すフローチャートである。It is a flowchart which shows the obstruction condition superimposed display procedure in the terminal device of FIG. 図1の端末装置における別の障害物状況重畳表示手順を示すフローチャートである。It is a flowchart which shows another obstruction condition superimposed display procedure in the terminal device of FIG. 図1の端末装置におけるさらに別の障害物状況重畳表示手順を示すフローチャートである。It is a flowchart which shows another obstruction condition superimposed display procedure in the terminal device of FIG. 本実施の形態2に係る駐車支援システムの構成を示す図である。It is a figure which shows the structure of the parking assistance system which concerns on this Embodiment 2. FIG. 図12の駐車支援システムにおける駐車支援手順を示すシーケンス図である。It is a sequence diagram which shows the parking assistance procedure in the parking assistance system of FIG. 本実施の形態3に係る駐車支援システムの構成を示す図である。It is a figure which shows the structure of the parking assistance system which concerns on this Embodiment 3. As shown in FIG. 図14の駐車支援システムにおける駐車支援手順を示すシーケンス図である。It is a sequence diagram which shows the parking assistance procedure in the parking assistance system of FIG.

(実施の形態1)
本実施形態を具体的に説明する前に、概要を述べる。本実施の形態は、車両の駐車を支援する駐車支援システムに関する。ここでは、携帯電話装置、スマートフォン等の端末装置を所持した運転者が車両の外部に存在する状況下において、駐車支援装置を搭載した車両が自動駐車を実行することを前提とする。車両には、カメラ等の撮像部とソナーが備えられており、それらによって障害物が探索される。駐車支援装置は、障害物の探索結果を反映しながら駐車経路を生成し、駐車経路にそって車両を移動させる。このような駐車の状況下において、高さ10cm程度の低い障害物(以下、「低障害物」という)として、輪留め、プランタ、駐車場のフラップ等が検出されうる。輪留めを検出した場合、駐車支援装置は、輪留めに車両のタイヤを接触させるように駐車経路を生成すべきである。また、プランタを検出した場合、駐車支援装置は、プランタを踏まないように避けるような駐車経路を生成すべきである。さらに、フラップを検出した場合、駐車支援装置は、フラップを乗り越えるような駐車経路を生成すべきである。つまり、駐車支援装置は、低障害物の種類に応じて車両の動作を変えなければならず、低障害物の種類の特定が重要になる。一方、撮像部とソナーには誤検出が発生しうる。
Embodiment 1
Before specifically describing the present embodiment, an outline will be described. The present embodiment relates to a parking assistance system for assisting parking of a vehicle. Here, it is assumed that the vehicle equipped with the parking assist device executes automatic parking under a situation where a driver who possesses a terminal device such as a mobile telephone device or a smartphone exists outside the vehicle. The vehicle is provided with an imaging unit such as a camera and a sonar, and an obstacle is searched for by these. The parking assistance apparatus generates a parking path while reflecting a search result of an obstacle, and moves the vehicle along the parking path. Under such a parking situation, a loop stop, a planter, a flap of a parking lot, etc. can be detected as a low obstacle about 10 cm high (hereinafter referred to as "low obstacle"). If a clasp is detected, the parking assistance device should generate a parking path so that the clasp is in contact with the vehicle's tire. Also, if a planter is detected, the parking assistance device should generate a parking path that avoids stepping on the planter. In addition, if a flap is detected, the parking assistance device should generate a parking path over the flap. That is, the parking assistance device must change the operation of the vehicle according to the type of low obstacle, and the identification of the type of low obstacle becomes important. On the other hand, false detection may occur in the imaging unit and the sonar.

このような状況下において低障害物の種類を正確に特定するために、本実施例に係る駐車支援システムは次の処理を実行する。車両の撮像部(以下、「車載カメラ」という)とソナーで低障害物が探索される。端末装置は、探索結果を受信し、探索結果から低障害物を検出するとともに、それの種類に応じた車両の動作を特定する。端末装置は、撮像した映像に対して、特定された車両の動作が示されるUI(User Interface)を、低障害物の位置に重畳させて表示装置に表示する。この表示により、運転者は、低障害物に対する車両の動作を認識できる。   In order to accurately identify the type of low obstacle under such circumstances, the parking assistance system according to the present embodiment performs the following process. Low obstacles are searched for by the imaging unit of the vehicle (hereinafter referred to as “in-vehicle camera”) and sonar. The terminal device receives the search result, detects a low obstacle from the search result, and specifies the operation of the vehicle according to the type of the obstacle. The terminal device superimposes a UI (User Interface) in which the operation of the specified vehicle is shown on the captured image on the position of the low obstacle and displays the superimposed image on the display device. By this display, the driver can recognize the operation of the vehicle with respect to the low obstacle.

車両の動作が誤っている場合、運転者は、表示されたUIをタッチして、車両の動作の選択肢を表示させることによって、正しい車両の動作をフリック操作で選択する。一方、低障害物が存在するにもかかわらずUIが表示されていない場合、当該低障害物は未検出であるので、運転者は、表示された低障害物を指定することで検出に参考情報を与え検出性能を高める。車両は、修正された車両の動作も反映させながら駐車経路を生成する。以下、本実施の形態について、図面を参照して詳細に説明する。なお、以下に説明する各実施の形態は一例であり、本開示はこれらの実施の形態により限定されるものではない。   When the operation of the vehicle is erroneous, the driver touches the displayed UI to display the operation options of the vehicle, and selects the correct operation of the vehicle by flick operation. On the other hand, when the UI is not displayed despite the presence of the low obstacle, the low obstacle is not detected, so that the driver designates the displayed low obstacle to detect the reference information. To improve detection performance. The vehicle generates a parking path while also reflecting the modified vehicle behavior. Hereinafter, the present embodiment will be described in detail with reference to the drawings. In addition, each embodiment described below is an example, and this indication is not limited by these embodiments.

図1は、本実施の形態1に係る駐車支援システム1000の構成を示す。駐車支援システム1000は、端末装置100、車両200を含む。端末装置100は、測位装置116、デジタルコンパス118、撮像部126、表示装置132、操作部134、処理部160を含む。処理部160は、通信部110、取得部112、重畳部114、位置・方位検出部120、撮像I/F128、表示I/F130、操作I/F136、設定部138、制御部150、障害物検出部500、動作推定部502、投影変換部504を含む。位置・方位検出部120は、測位I/F122、コンパスI/F124を含む。   FIG. 1 shows the configuration of a parking assistance system 1000 according to the first embodiment. The parking assistance system 1000 includes a terminal device 100 and a vehicle 200. The terminal device 100 includes a positioning device 116, a digital compass 118, an imaging unit 126, a display device 132, an operation unit 134, and a processing unit 160. The processing unit 160 includes a communication unit 110, an acquisition unit 112, an overlapping unit 114, a position / orientation detection unit 120, an imaging I / F 128, a display I / F 130, an operation I / F 136, a setting unit 138, a control unit 150, an obstacle detection. And a motion estimation unit 502 and a projection conversion unit 504. The position / orientation detection unit 120 includes a positioning I / F 122 and a compass I / F 124.

車両200は、移動制御装置210、駐車支援装置300、測位装置310、デジタルコンパス312、撮像部320、ソナー322を含む。駐車支援装置300は、位置・方位検出部314、探索部324、通信部330、駐車経路生成部332、制御部350を含む。位置・方位検出部314は、測位I/F316、コンパスI/F318を含み、探索部324は、撮像I/F326、ソナーI/F328を含む。ここで、端末装置100の通信部110と駐車支援装置300の通信部330は、無線通信システムにより接続される。なお、これらは、直接接続されてもよく、基地局装置を介して接続されてもよい。   The vehicle 200 includes a movement control device 210, a parking assistance device 300, a positioning device 310, a digital compass 312, an imaging unit 320, and a sonar 322. The parking assistance device 300 includes a position / orientation detection unit 314, a search unit 324, a communication unit 330, a parking path generation unit 332, and a control unit 350. The position / orientation detection unit 314 includes a positioning I / F 316 and a compass I / F 318, and the search unit 324 includes an imaging I / F 326 and a sonar I / F 328. Here, the communication unit 110 of the terminal device 100 and the communication unit 330 of the parking assistance device 300 are connected by a wireless communication system. Note that these may be directly connected or may be connected via a base station apparatus.

運転者は、端末装置100を所持しながら、車両200の外部に存在する。このような状態において、車両200を自動駐車させる場合、運転者は、端末装置100の操作部134に自動駐車実行の指示を入力する。操作部134は、運転者からの操作を受付可能であり、例えば、表示装置132との組合せによってタッチパネルを構成する。操作部134は、運転者からの操作として自動駐車実行の指示を受けつける。操作部134は、受けつけた操作を操作I/F136に出力する。操作I/F136は、操作部134から受けつけた操作が自動駐車実行の指示である場合、自動駐車実行の指示を制御部150に通知するとともに、設定部138経由で通信部110に出力する。制御部150は、操作I/F136から自動駐車実行の指示を受けつけると、自動駐車の処理の実行を開始する。また、通信部110は、操作I/F136から自動駐車実行の指示を受けつけると、自動駐車実行の指示が含まれた信号を駐車支援装置300に送信する。   The driver is present outside the vehicle 200 while holding the terminal device 100. In such a state, when the vehicle 200 is to be parked automatically, the driver inputs an instruction to execute the automatic parking to the operation unit 134 of the terminal device 100. The operation unit 134 can receive an operation from the driver, and, for example, configures a touch panel in combination with the display device 132. The operation unit 134 receives an instruction for performing automatic parking as an operation from the driver. The operation unit 134 outputs the received operation to the operation I / F 136. When the operation received from the operation unit 134 is an instruction to execute automatic parking, the operation I / F 136 notifies the control unit 150 of an instruction to execute automatic parking and outputs the instruction to the communication unit 110 via the setting unit 138. When the control unit 150 receives an instruction to execute automatic parking from the operation I / F 136, the control unit 150 starts execution of automatic parking processing. When communication unit 110 receives an instruction to execute automatic parking from operation I / F 136, communication unit 110 transmits a signal including an instruction to execute automatic parking to parking assist device 300.

駐車支援装置300の通信部330は、端末装置100からの信号を受信する。通信部330は、受信した信号に含まれた自動駐車実行の指示を制御部350に出力する。制御部350は、通信部330から自動駐車実行の指示を受けつけると、自動駐車の処理の実行を開始する。撮像部320は車両200に搭載されたカメラである。車両200には複数の撮像部320が搭載されていてもよく、例えば、車両200の前後左右に4つの撮像部320が搭載されてもよい。撮像部320は、車両200の外部の映像を撮像する。ここで、映像は、複数の画像が時系列に並べられることによって構成される。撮像部320は、撮像した映像を撮像I/F326に出力する。   The communication unit 330 of the parking assistance device 300 receives a signal from the terminal device 100. The communication unit 330 outputs an instruction for performing automatic parking included in the received signal to the control unit 350. When the control unit 350 receives an instruction for executing automatic parking from the communication unit 330, the control unit 350 starts execution of automatic parking processing. The imaging unit 320 is a camera mounted on the vehicle 200. A plurality of imaging units 320 may be mounted on the vehicle 200. For example, four imaging units 320 may be mounted on the front, rear, left, and right of the vehicle 200. The imaging unit 320 captures an image of the outside of the vehicle 200. Here, the video is configured by arranging a plurality of images in time series. The imaging unit 320 outputs the captured video to the imaging I / F 326.

ソナー322は車両200に搭載された探知装置である。車両200には複数のソナー322が搭載されてもよい。例えば、車両200の前方と後方にそれぞれ4つのソナー322が搭載され、車両200の前方左側、前方右側、後方左側、後方右側に1つずつのソナー322が搭載されることによって、車両200に合計12個のソナー322が搭載されてもよい。ソナー322は、音波によって物体、例えば低障害物を探索する装置であり、物体との距離を測定することができるものである。ソナー322は、探索結果をソナーI/F328に出力する。   The sonar 322 is a detection device mounted on the vehicle 200. A plurality of sonars 322 may be mounted on the vehicle 200. For example, four sonars 322 are mounted on the front and the rear of the vehicle 200, and one sonar 322 is mounted on the front left, front right, rear left, and rear right of the vehicle 200. Twelve sonars 322 may be mounted. The sonar 322 is a device for searching for an object such as a low obstacle by sound waves, and can measure the distance to the object. The sonar 322 outputs the search result to the sonar I / F 328.

撮像I/F326は、撮像部320からの映像を受けつけ、ソナーI/F328は、ソナー322からの探索結果を受けつける。撮像部320において撮像される映像によっても低障害物を探索することが可能であるので、映像を受けつけることも探索結果を受けつけることに相当する。そのため、撮像I/F326とソナーI/F328を含む探索部324は、車両200の外部を探索するといえる。探索部324は、映像および探索結果(以下、これらを「探索結果」と総称する)を通信部330に出力する。   The imaging I / F 326 receives an image from the imaging unit 320, and the sonar I / F 328 receives a search result from the sonar 322. Since it is possible to search for a low obstacle also by the image captured by the imaging unit 320, receiving the image is also equivalent to receiving the search result. Therefore, it can be said that the search unit 324 including the imaging I / F 326 and the sonar I / F 328 searches the outside of the vehicle 200. The search unit 324 outputs the video and the search results (hereinafter, these are collectively referred to as “search results”) to the communication unit 330.

測位装置310は、GNSS(Global Navigation Satellite System)の衛星から受信した信号をもとに、車両200の位置を測位する。車両200の位置は、例えば、緯度、経度、高度によって示される。測位装置310は、測位した位置の情報(以下、「位置情報」という)を測位I/F316に出力する。デジタルコンパス118は、電子的なセンサーによって地磁気を検知して方位を判定する。ここでは、車両200の前方あるいは後方が向く方位が判定される。この方位は車両200の方位と呼ばれる。デジタルコンパス118は、判定した方位の情報(以下、「方位情報」という)をコンパスI/F318に出力する。   The positioning device 310 measures the position of the vehicle 200 based on a signal received from a satellite of Global Navigation Satellite System (GNSS). The position of the vehicle 200 is indicated by, for example, latitude, longitude, and altitude. The positioning device 310 outputs information on the measured position (hereinafter referred to as “position information”) to the positioning I / F 316. The digital compass 118 detects geomagnetism by an electronic sensor to determine the direction. Here, the direction in which the front or rear of the vehicle 200 is directed is determined. This direction is called the direction of the vehicle 200. The digital compass 118 outputs information on the determined azimuth (hereinafter referred to as “azimuth information”) to the compass I / F 318.

測位I/F316は、測位装置310から位置情報を受けつけ、コンパスI/F318は、デジタルコンパス312から方位情報を受けつける。そのため、測位I/F316とコンパスI/F318とを含む位置・方位検出部314は、車両200の位置情報と、車両200の方位情報とを検出するといえる。位置・方位検出部314は、車両200の位置情報と、車両200の方位情報とを通信部330に出力する。   Positioning I / F 316 receives position information from positioning device 310, and compass I / F 318 receives azimuth information from digital compass 312. Therefore, it can be said that the position / orientation detection unit 314 including the positioning I / F 316 and the compass I / F 318 detects the position information of the vehicle 200 and the azimuth information of the vehicle 200. The position / orientation detection unit 314 outputs the position information of the vehicle 200 and the direction information of the vehicle 200 to the communication unit 330.

通信部330は、探索部324から探索結果を受けつけると、探索結果が含まれた信号を端末装置100に送信する。通信部330は、位置・方位検出部314から車両200の位置情報と、車両200の方位情報とを受けつけると、車両200の位置情報と、車両200の方位情報とが含まれた信号を端末装置100に送信する。駐車支援装置300、測位装置310、デジタルコンパス312、撮像部320、ソナー322におけるこれらの処理は、繰り返し実行される。   When communication unit 330 receives the search result from search unit 324, communication unit 330 transmits a signal including the search result to terminal apparatus 100. When communication unit 330 receives the position information of vehicle 200 and the direction information of vehicle 200 from position / direction detection unit 314, the terminal device is a signal including the position information of vehicle 200 and the direction information of vehicle 200. Send to 100 These processes in the parking assistance device 300, the positioning device 310, the digital compass 312, the imaging unit 320, and the sonar 322 are repeatedly executed.

端末装置100の通信部110は、駐車支援装置300からの信号を受信する。信号には、車両200の位置情報と、車両200の方位情報が含まれていたり、探索結果が含まれていたりする。通信部110は、探索結果を障害物検出部500に出力するとともに、探索結果のうちの映像と、車両200の位置情報と、車両200の方位情報とを投影変換部504に出力する。測位装置116は、測位装置310と同様であり、デジタルコンパス118は、デジタルコンパス312と同様である。ここで、測位装置116は、端末装置100の位置を測位し、デジタルコンパス118は、撮像部126の向く方位を判定する。   The communication unit 110 of the terminal device 100 receives a signal from the parking assistance device 300. The signal includes the position information of the vehicle 200, the azimuth information of the vehicle 200, and the search result. The communication unit 110 outputs the search result to the obstacle detection unit 500, and also outputs the image of the search result, the position information of the vehicle 200, and the direction information of the vehicle 200 to the projection conversion unit 504. The positioning device 116 is similar to the positioning device 310, and the digital compass 118 is similar to the digital compass 312. Here, the positioning device 116 measures the position of the terminal device 100, and the digital compass 118 determines the direction in which the imaging unit 126 faces.

測位I/F122は、測位I/F316と同様であり、コンパスI/F124は、コンパスI/F318と同様である。測位I/F122は、測位装置116からの位置情報を受けつけるとともに、コンパスI/F124は、デジタルコンパス118からの方位情報を受けつける。そのため、測位I/F122とコンパスI/F124とを含む位置・方位検出部120は、端末装置100の位置情報と撮像部126の方位情報とを検出するといえる。位置・方位検出部120は、端末装置100の位置情報と撮像部126の方位情報とを投影変換部504、重畳部114に出力する。   Positioning I / F 122 is similar to positioning I / F 316, and compass I / F 124 is similar to compass I / F 318. The positioning I / F 122 receives position information from the positioning device 116, and the compass I / F 124 receives direction information from the digital compass 118. Therefore, it can be said that the position / orientation detection unit 120 including the positioning I / F 122 and the compass I / F 124 detects the position information of the terminal device 100 and the azimuth information of the imaging unit 126. The position / orientation detection unit 120 outputs the position information of the terminal device 100 and the azimuth information of the imaging unit 126 to the projection conversion unit 504 and the superposition unit 114.

投影変換部504は、車両200の位置情報と、車両200の方位情報と、端末装置100の位置情報と、撮像部126の方位情報とを受けつけるとともに、車両200の撮像部320において撮像された映像(以下、「車両200の映像」という)を受けつける。ここでは、投影変換部504の処理を説明するために、図2を使用する。図2は、投影変換部504における処理の概要を示す。これは、車両200を上方から見た上面図である。車両200の後方には、他車両220と総称される第1他車両220aと第2他車両220bとが並列に駐車されており、それらの間には駐車領域230が配置される。ここでは、車両200を駐車領域230に駐車させる場合を想定する。また、車両200の外側には運転者50が存在しており、運転者50は端末装置100を所持する。ここで、端末位置180は、端末装置100の位置情報を示し、端末方位182は、撮像部126の方位情報を示し、車両位置280は、車両200の位置情報を示し、車両方位282は、車両200の方位情報を示す。   The projection conversion unit 504 receives the position information of the vehicle 200, the direction information of the vehicle 200, the position information of the terminal device 100, and the direction information of the imaging unit 126, and an image captured by the imaging unit 320 of the vehicle 200. (Hereinafter referred to as "the image of the vehicle 200"). Here, FIG. 2 is used to explain the processing of the projection conversion unit 504. FIG. 2 shows an outline of processing in the projection conversion unit 504. This is a top view of the vehicle 200 as viewed from above. Behind the vehicle 200, a first other vehicle 220a and a second other vehicle 220b collectively referred to as another vehicle 220 are parked in parallel, and a parking area 230 is disposed between them. Here, it is assumed that the vehicle 200 is parked in the parking area 230. Further, a driver 50 exists outside the vehicle 200, and the driver 50 carries the terminal device 100. Here, the terminal position 180 indicates the position information of the terminal device 100, the terminal direction 182 indicates the direction information of the imaging unit 126, the vehicle position 280 indicates the position information of the vehicle 200, and the vehicle direction 282 indicates the vehicle Indicates 200 azimuth information.

投影変換部504は、車両200を基準とした座標系に空間モデル600を生成する。空間モデル600とは、車両200の映像を3次元空間座標系にマッピングする曲面からなるモデルである。図示のごとく、空間モデル600は円筒形状を有する曲面からなり、その内側の面に車両200の映像がマッピングされる。ここで、車両200の映像に含まれる画像を構成する各画素の位置は、撮像部320を含むU−V平面上の座標として示される。投影変換部504は、U−V座標系の座標として示される画素をワールド座標系における座標に変換する。また、投影変換部504は、車両位置280、車両方位282、画素のワールド座標から、画素の空間モデル600への投影点を計算する。さらに、投影変換部504は、空間モデル600の投影点に画素の色データをマッピングする。   The projection conversion unit 504 generates the space model 600 in a coordinate system based on the vehicle 200. The space model 600 is a model composed of a curved surface that maps the image of the vehicle 200 on a three-dimensional space coordinate system. As illustrated, the space model 600 is a curved surface having a cylindrical shape, and the image of the vehicle 200 is mapped on the inner surface thereof. Here, the position of each pixel constituting the image included in the image of the vehicle 200 is indicated as a coordinate on the UV plane including the imaging unit 320. The projection transformation unit 504 transforms the pixel indicated as the coordinates of the U-V coordinate system into the coordinates in the world coordinate system. Further, the projection conversion unit 504 calculates a projection point of the pixel onto the space model 600 from the vehicle position 280, the vehicle direction 282, and the world coordinate of the pixel. Furthermore, the projection conversion unit 504 maps the color data of the pixel to the projection point of the space model 600.

投影変換部504は、空間モデル600にマッピングされた映像を、端末位置180と端末方位182から投影した映像に変換する。以下では、このように投影変換された映像を「投影変換映像」ということもある。つまり、投影変換部504は、車両200の位置情報と方位情報と、端末装置100の位置情報と、撮像部126の方位情報とをもとに、撮像部126の視点に、車両200の映像を投影変換する。図1に戻る。投影変換部504は、投影変換映像と、車両200の映像と投影変換映像との座標の対応関係を重畳部114に出力する。   The projection conversion unit 504 converts the video mapped to the space model 600 into a video projected from the terminal position 180 and the terminal orientation 182. In the following, the image thus project-transformed may be referred to as a “projected-transformed image”. In other words, based on the position information and orientation information of the vehicle 200, the position information of the terminal device 100, and the orientation information of the imaging unit 126, the projection conversion unit 504 displays the image of the vehicle 200 at the viewpoint of the imaging unit 126. Projective transformation. Return to FIG. The projection conversion unit 504 outputs, to the superimposing unit 114, the correspondence between the projection conversion video and the coordinates of the video of the vehicle 200 and the projection conversion video.

障害物検出部500は、通信部110から探索結果を受けつける。障害物検出部500は、探索結果から障害物を検出する。ここでは、障害物のうち、低障害物を処理対象として説明する。障害物検出部500における低障害物の検出は、低障害物の位置と、低障害物の形状とを検出することを含む。また、低障害物の位置は、車両200の映像上の座標として示されるとともに、緯度・経度・高度でも示される。障害物検出部500における処理に公知の技術が使用されればよいので、ここでは説明を省略する。障害物検出部500は、検出した低障害物の位置に関する情報(以下、「第1情報」という)を取得部112に出力し、検出した低障害物の形状に関する情報を動作推定部502に出力する。   The obstacle detection unit 500 receives the search result from the communication unit 110. The obstacle detection unit 500 detects an obstacle from the search result. Here, among the obstacles, a low obstacle will be described as a processing target. The detection of the low obstacle in the obstacle detection unit 500 includes detecting the position of the low obstacle and the shape of the low obstacle. In addition, the position of the low obstacle is indicated as coordinates on the image of the vehicle 200, and also indicated by latitude, longitude, and altitude. A known technique may be used for the processing in the obstacle detection unit 500, so the description is omitted here. The obstacle detection unit 500 outputs information on the detected position of the low obstacle (hereinafter referred to as "first information") to the acquisition unit 112, and outputs information on the shape of the detected low obstacle to the motion estimation unit 502. Do.

動作推定部502は、障害物検出部500から低障害物の形状に関する情報を受けつける。動作推定部502は、低障害物の形状と車両200の動作との対応関係が示されたテーブルを予め記憶する。テーブルでは、例えば、「輪留め」の形状と「低障害物に接触」の動作とが対応づけられ、「プランタ」の形状と「低障害物を回避する」動作とが対応づけられ、「フラップ」の形状と「低障害物を乗り越える」動作とが対応づけられている。なお、テーブルの内容はこれらに限定されない。動作推定部502は、テーブルに含まれた複数種類の形状から、受けつけた低障害物の形状に最も近い形状を選択する。当該選択には公知の技術が使用されればよい。また、動作推定部502は、選択した形状に対応した動作をテーブルから特定する。これは、検出した低障害物に対する車両200の動作を推定することに相当する。動作推定部502は、車両200の動作に関する情報(以下、「第2情報」という)を取得部112に出力する。   The motion estimation unit 502 receives from the obstacle detection unit 500 information on the shape of the low obstacle. The motion estimation unit 502 stores in advance a table indicating the correspondence between the shape of the low obstacle and the motion of the vehicle 200. In the table, for example, the shape of the “ring fixed” is associated with the “contact with a low obstacle” operation, the shape of the “planter” is associated with the “avoid with a low obstacle” operation, “flap” The shape of "" and the action of "getting over low obstacles" are associated. The contents of the table are not limited to these. The motion estimation unit 502 selects a shape closest to the shape of the received low obstacle from the plurality of types of shapes included in the table. Known techniques may be used for the selection. In addition, the motion estimation unit 502 specifies a motion corresponding to the selected shape from the table. This corresponds to estimating the motion of the vehicle 200 with respect to the detected low obstacle. The motion estimation unit 502 outputs information related to the motion of the vehicle 200 (hereinafter, referred to as “second information”) to the acquisition unit 112.

取得部112は、障害物検出部500から第1情報を受けつけるとともに、動作推定部502から第2情報を受けつける。第2情報は、車両200の動作として、低障害物に接触する、低障害物を回避する、低障害物を乗り越える、のいずれか1つを示す。取得部112は、第1情報と第2情報との組合せを障害物情報として重畳部114、設定部138に出力する。撮像部126は、撮像部320と同様であり、撮像I/F128は、撮像I/F326と同様である。撮像I/F128は、撮像部126において撮像された映像(以下、「端末装置100の映像」という)を重畳部114に出力する。   The acquisition unit 112 receives the first information from the obstacle detection unit 500 and receives the second information from the motion estimation unit 502. The second information indicates one of the following as the operation of the vehicle 200: contact with a low obstacle, avoiding a low obstacle, or overcoming a low obstacle. The acquisition unit 112 outputs a combination of the first information and the second information to the superimposing unit 114 and the setting unit 138 as obstacle information. The imaging unit 126 is similar to the imaging unit 320, and the imaging I / F 128 is similar to the imaging I / F 326. The imaging I / F 128 outputs an image captured by the imaging unit 126 (hereinafter referred to as “image of the terminal device 100”) to the superimposing unit 114.

重畳部114は、取得部112からの障害物情報を受けつけ、撮像I/F128からの端末装置100の映像を受けつけ、投影変換部504からの投影変換映像を受けつける。また、重畳部114は、車両200の映像と投影変換映像との座標の対応関係を投影変換部504から受けつける。重畳部114は、対応関係を利用して、障害物情報における第1情報で示された位置を座標変換する。座標変換された位置は、端末装置100の映像における低障害物の位置を示す。また、重畳部114は、低障害物の位置の近傍の領域を投影変換映像から抽出する。重畳部114は、端末装置100からの映像に対して、抽出した投影変換映像(以下、「抽出投影変換映像」という)を、位置を合わせながら重畳する。重畳部114は、抽出投影変換映像を重畳した映像における低障害物の位置に、車両200の動作が示されたアイコン(以下、「複合現実UI」という)を重畳する。重畳部114は、抽出投影変換映像と複合現実UIとが重畳された映像(以下、「重畳映像」という)を表示I/F130に出力する。表示I/F130は、重畳映像を表示装置132に表示させる。表示装置132は、重畳映像を表示する。   The superposing unit 114 receives obstacle information from the acquiring unit 112, receives an image of the terminal device 100 from the imaging I / F 128, and receives a projection conversion image from the projection conversion unit 504. Also, the superimposing unit 114 receives, from the projection conversion unit 504, the correspondence relationship between the image of the vehicle 200 and the coordinates of the projection conversion image. The superimposing unit 114 performs coordinate conversion of the position indicated by the first information in the obstacle information using the correspondence relationship. The coordinate-transformed position indicates the position of the low obstacle in the image of the terminal device 100. Also, the superimposing unit 114 extracts an area near the position of the low obstacle from the projection conversion video. The superimposing unit 114 superimposes the extracted projection conversion video (hereinafter, referred to as “extracted projection conversion video”) on the video from the terminal device 100 while aligning the positions. The superimposing unit 114 superimposes an icon indicating the operation of the vehicle 200 (hereinafter, referred to as “mixed reality UI”) on the position of the low obstacle in the video on which the extraction projection conversion video is superimposed. The superimposing unit 114 outputs a video (hereinafter, referred to as “superimposed video”) in which the extraction projection conversion video and the mixed reality UI are superimposed to the display I / F 130. The display I / F 130 causes the display device 132 to display the superimposed video. The display device 132 displays the superimposed video.

図3は、表示装置132に表示される映像を示す。これは、図2に示された状況を示す。表示装置132には重畳映像が示されており、重畳映像には第1他車両220aと第2他車両220bとが含まれる。また、第1他車両220aと第2他車両220bとの間には、抽出投影変換映像622が配置される。抽出投影変換映像622には輪留め630が含まれ、輪留め630を指し示すように複合現実UI620が配置される。複合現実UI620には、「Appr.」の文字メッセージが示されているが、これは「低障害物に接触(Approach)」を意味する。   FIG. 3 shows an image displayed on the display device 132. This shows the situation shown in FIG. A superimposed image is shown on the display device 132, and the superimposed image includes the first other vehicle 220a and the second other vehicle 220b. In addition, the extraction projection conversion image 622 is disposed between the first other vehicle 220a and the second other vehicle 220b. The extracted projection conversion image 622 includes a looped hook 630, and the mixed reality UI 620 is arranged to point to the looped hook 630. In the mixed reality UI 620, a text message of "Appr." Is shown, which means "approach with low obstacle".

図4a−図4bは、表示装置132に表示される別の映像を示す。図3において第1他車両220a上に抽出投影変換映像622が重畳されているので、第1他車両220aの一部が欠けている。この欠けを防止するために、障害物検出部500が他車両220等の障害物を検出した場合に、重畳部114は、抽出投影変換映像622にマスク処理を施すことによって、障害物上に抽出投影変換映像622を重畳させなくてもよい。図4は、このような処理がなされた表示を示す。図示のごとく、第1他車両220aの一部は欠けていない。   4a-4b illustrate another image displayed on display 132. FIG. In FIG. 3, since the extraction projection conversion image 622 is superimposed on the first other vehicle 220a, a part of the first other vehicle 220a is missing. In order to prevent this chipping, when the obstacle detection unit 500 detects an obstacle such as the other vehicle 220, the superimposing unit 114 performs mask processing on the extraction projection conversion image 622 to extract on the obstacle. The projection conversion image 622 may not be superimposed. FIG. 4 shows a display that has been subjected to such processing. As illustrated, part of the first other vehicle 220a is not missing.

図1の障害物検出部500は、車両200から低障害物までの距離を測定してもよい。距離の測定には公知の技術が使用されればよいので、ここでは説明を省略する。障害物検出部500は、測定した距離の情報(以下、「距離情報」という)も第1情報に含めて取得部112に出力する。そのため、取得部112が取得した第1情報には、車両200から低障害物までの距離情報も含まれる。重畳部114は、第1情報に含まれた距離情報も重畳する。図4bは、このような処理がなされた表示を示す。複合現実UI620の上方に距離情報624が示される。図1に戻る。   The obstacle detection unit 500 of FIG. 1 may measure the distance from the vehicle 200 to the low obstacle. A known technique may be used to measure the distance, so the description is omitted here. The obstacle detection unit 500 also includes information on the measured distance (hereinafter, referred to as “distance information”) in the first information and outputs the information to the acquisition unit 112. Therefore, the first information acquired by the acquisition unit 112 also includes distance information from the vehicle 200 to the low obstacle. The superposition unit 114 also superimposes the distance information included in the first information. FIG. 4b shows the display in which such processing has been made. Distance information 624 is shown above the mixed reality UI 620. Return to FIG.

運転者は、図3、図4a−図4bのような表示装置132の複合現実UI620を見て車両200の動作を正しいと判断した場合、図3、図4a−図4bに示されたOKボタン626に触れる。端末装置100の操作部134は、OKボタン626が触れられることによるOKの指示を受けつける。操作部134は、受けつけたOKの指示を操作I/F136に出力する。操作I/F136は、OKの指示を設定部138に出力する。設定部138は、OKの指示を受けつけると、取得部112から受けつけた障害物情報を通信部110に出力する。   When the driver sees the mixed reality UI 620 of the display device 132 as shown in FIGS. 3 and 4a and 4b and determines that the operation of the vehicle 200 is correct, the OK button shown in FIGS. 3 and 4a and 4b Touch 626. The operation unit 134 of the terminal device 100 receives an OK instruction when the OK button 626 is touched. The operation unit 134 outputs the received OK instruction to the operation I / F 136. The operation I / F 136 outputs an OK instruction to the setting unit 138. When the setting unit 138 receives the OK instruction, the setting unit 138 outputs the obstacle information received from the acquisition unit 112 to the communication unit 110.

一方、運転者は、表示装置132の複合現実UI620を見て車両200の動作を正しくないと判断した場合、次の操作を実行する。図5a−図5mは、表示装置132に表示され、操作部134によって操作される複合現実UI620を示す。図5aは、プランタ632に対する複合現実UI620において、「Appr.」の文字メッセージが示されている場合を示す。本来、プランタ632に対する車両200の動作は「低障害物を回避する」であるので、文字メッセージとして「Guard」が示されなければならない。   On the other hand, when the driver sees the mixed reality UI 620 of the display device 132 and determines that the operation of the vehicle 200 is not correct, the driver performs the following operation. 5a-5m show the mixed reality UI 620 displayed on the display device 132 and operated by the operation unit 134. FIG. FIG. 5 a shows the case where the text message “Appr.” Is shown in the mixed reality UI 620 for the planter 632. Since the operation of the vehicle 200 with respect to the planter 632 is "avoid low obstacles", "Guard" must be indicated as a text message.

その際、運転者は、プランタ632あるいは複合現実UI620に触れる。端末装置100の操作部134は、プランタ632あるいは複合現実UI620が触れられることによって複数の行動の表示の指示を受けつける。操作I/F136は、複数の行動の表示の指示を設定部138に出力する。設定部138は、複数の行動の表示の指示を受けつけると、取得部112を介して重畳部114に対して、複合現実UI620において複数の行動を表示することを指示する。これに応じて、重畳部114、表示I/F130、表示装置132は、図5bのように、複合現実UI620において、「Appr.」、「Guard」、「Over」の文字メッセージを表示させる。なお、「Over」の文字メッセージは「低障害物を乗り越える」を意味する。   At this time, the driver touches the planter 632 or the mixed reality UI 620. The operation unit 134 of the terminal device 100 receives an instruction to display a plurality of actions when the planter 632 or the mixed reality UI 620 is touched. The operation I / F 136 outputs an instruction to display a plurality of actions to the setting unit 138. When the setting unit 138 receives an instruction to display a plurality of actions, the setting unit 138 instructs the superimposing unit 114 via the acquiring unit 112 to display the plurality of actions in the mixed reality UI 620. In response to this, the superimposing unit 114, the display I / F 130, and the display device 132 cause the mixed reality UI 620 to display the text messages of "Appr.", "Guard", and "Over" as illustrated in FIG. 5B. In addition, the text message of "Over" means "get over a low obstacle".

運転者は、図5cのように、「Guard」をフリック操作によって選択する。その結果、図5dのように、プランタ632に対する複合現実UI620において、「Guard」の文字メッセージが示される。端末装置100の操作部134は、このような操作によって、車両200の動作を変更させるための指示(以下、「変更指示」という)を受けつける。変更指示では、「Appr.」から「Guard」への変更が示される。操作部134は、受けつけた変更指示を操作I/F136に出力する。操作I/F136は、変更指示を設定部138に出力する。設定部138は、変更指示を受けつけると、取得部112から受けつけた障害物情報を変更指示に応じて変更する。   The driver selects "Guard" by flicking operation as shown in FIG. 5c. As a result, as shown in FIG. 5 d, in mixed reality UI 620 for planter 632, a text message of “Guard” is shown. The operation unit 134 of the terminal device 100 receives an instruction for changing the operation of the vehicle 200 (hereinafter, referred to as a “change instruction”) by such an operation. The change instruction indicates a change from "Appr." To "Guard". The operation unit 134 outputs the received change instruction to the operation I / F 136. The operation I / F 136 outputs the change instruction to the setting unit 138. When the setting unit 138 receives the change instruction, the setting unit 138 changes the obstacle information received from the acquisition unit 112 according to the change instruction.

図5eは、フラップ634に対する複合現実UI620において、「Appr.」の文字メッセージが示されている場合を示す。本来、フラップ634に対する車両200の動作は「低障害物を乗り越える」であるので、文字メッセージとして「Over」が示されなければならない。そのため、運転者がこれまでと同様の操作を実行することによって、図5f、図5g、図5hと遷移する。この場合、変更指示では、「Appr.」から「Over」への変更が示される。   FIG. 5 e shows the case where the text message “Appr.” Is shown in the mixed reality UI 620 for the flap 634. Essentially, the operation of the vehicle 200 with respect to the flap 634 is “over low obstacle”, so “Over” must be indicated as a text message. Therefore, when the driver performs the same operation as before, the state transitions to FIGS. 5 f, 5 g, and 5 h. In this case, the change instruction indicates a change from "Appr." To "Over".

これまでの説明では、障害物検出部500において低障害物が検出されていることを前提にしている。一方、障害物検出部500において低障害物が検出されない場合もある。図5iのように、表示装置132には、輪留め630が表示されているが、当該輪留め630に対する複合現実UI620は表示されていない。その際、運転者は、輪留め630に触れる。端末装置100の操作部134は、輪留め630が触れられることによって再検出の指示を受けつける。再検出の指示は、映像において、複合現実UI620が非重畳の部分を選択するための指示であるといえる。操作I/F136は、再検出の指示を設定部138に出力する。設定部138は、再検出の指示を受けつけると、障害物検出部500に再検出を指示する。   The above description assumes that the obstacle detection unit 500 detects a low obstacle. On the other hand, there may be a case where the obstacle detection unit 500 does not detect a low obstacle. As shown in FIG. 5i, the display device 132 displays a looping 630, but the mixed reality UI 620 for the looping 630 is not displayed. At the same time, the driver touches the snap ring 630. The operation unit 134 of the terminal device 100 receives the redetection instruction by touching the loop fastener 630. The instruction for redetection can be said to be an instruction for the mixed reality UI 620 to select a non-overlapping portion in the image. The operation I / F 136 outputs a redetection instruction to the setting unit 138. When the setting unit 138 receives the redetection instruction, the setting unit 138 instructs the obstacle detection unit 500 to perform redetection.

障害物検出部500は、指示を受けつけると、輪留め630の周囲の一定範囲のみを対象にして、低障害物の検出処理を実行する。その際、障害物検出部500は、検出がされやすくなるように検出のパラメータを変更する。障害物検出部500において輪留め630が検出された場合、動作推定部502、取得部112、重畳部114、表示I/F130、表示装置132はこれまでと同様の処理を実行する。つまり、取得部112は、受けつけた指示において示された部分に対する新たな第1情報と新たな第2情報とを取得する。その結果、表示装置132には、図5jのように、輪留め630に対する複合現実UI620が表示される。   When the obstacle detection unit 500 receives the instruction, the obstacle detection unit 500 executes the low obstacle detection process targeting only a certain range around the looping 630. At this time, the obstacle detection unit 500 changes detection parameters so that detection is facilitated. When the clasp 630 is detected in the obstacle detection unit 500, the motion estimation unit 502, the acquisition unit 112, the superposition unit 114, the display I / F 130, and the display device 132 execute the same processing as described above. That is, the acquisition unit 112 acquires new first information and new second information for the portion indicated in the received instruction. As a result, as shown in FIG. 5j, the mixed reality UI 620 for the loop clip 630 is displayed on the display device 132.

図5kから図5mも、図5iから図5jと同様の状況に対する処理であるが、障害物検出部500において再検出させるべき領域を図5mのようにスワイプ操作で指定することが、図5jとは異なる。その際、スワイプ操作で指定された線分が対角線となる矩形領域が、再検出させるべき領域とされる。図1に戻る。   5k to 5m are also processing for the same situation as FIG. 5i to FIG. 5j, but specifying the area to be re-detected by the obstacle detection unit 500 by swipe operation as shown in FIG. Is different. At this time, a rectangular area whose line segment designated by the swipe operation is a diagonal is taken as an area to be re-detected. Return to FIG.

端末装置100の通信部110は、障害物情報を設定部138から受けつける。障害物情報には、変更後の車両200の動作に関する情報も含まれる。通信部110は、障害物情報が含まれた信号を駐車支援装置300に送信する。駐車支援装置300の通信部330は、端末装置100からの信号を受信すると、信号に含まれた障害物情報を駐車経路生成部332に出力する。駐車経路生成部332は、通信部110から障害物情報を受けつけ、位置・方位検出部314から車両200の位置情報と、車両200の方位情報とを受けつけ、探索部324から探索結果を受けつける。駐車経路生成部332は、これらの情報を反映させて、駐車経路を生成する。駐車経路の生成には、公知の技術が使用されればよいので、ここでは説明を省略する。駐車経路生成部332は、駐車経路を移動制御装置210に出力する。移動制御装置210は、駐車経路に沿って車両200を移動させる。   The communication unit 110 of the terminal device 100 receives obstacle information from the setting unit 138. The obstacle information also includes information on the operation of the vehicle 200 after the change. The communication unit 110 transmits a signal including obstacle information to the parking assistance device 300. When the communication unit 330 of the parking assistance device 300 receives a signal from the terminal device 100, the communication unit 330 outputs the obstacle information included in the signal to the parking path generation unit 332. The parking path generation unit 332 receives obstacle information from the communication unit 110, receives position information of the vehicle 200 from the position / orientation detection unit 314, and direction information of the vehicle 200, and receives a search result from the search unit 324. The parking path generation unit 332 generates a parking path by reflecting these pieces of information. A known technique may be used to generate the parking path, so the description is omitted here. The parking path generation unit 332 outputs the parking path to the movement control device 210. The movement control device 210 moves the vehicle 200 along the parking path.

以上の構成による駐車支援システム1000の動作を説明する。図6は、駐車支援システム1000における駐車支援手順を示すシーケンス図である。駐車支援装置300は映像を撮像し(S10)、端末装置100も映像を撮像する(S12)。駐車支援装置300は、探索結果を端末装置100に送信する(S14)。駐車支援装置300は位置と方位とを検出し(S16)、端末装置100も位置と方位とを検出する(S18)。駐車支援装置300は、位置情報と方位情報とを端末装置100に送信する(S20)。端末装置100は、低障害物を検出するとともに、車両200の動作を推定する(S22)。端末装置100は、車両200の映像を投影変換し(S24)、投影変換映像と複合現実UI620とを端末装置100の映像に重畳して表示する(S26)。端末装置100は、車両200の動作の変更の指示を受けつける(S28)。端末装置100は、障害物情報を駐車支援装置300に出力する(S30)。駐車支援装置300は、駐車経路を生成する(S32)。   The operation of the parking assistance system 1000 having the above configuration will be described. FIG. 6 is a sequence diagram showing a parking assistance procedure in the parking assistance system 1000. The parking assistance device 300 captures an image (S10), and the terminal device 100 also captures an image (S12). The parking assistance device 300 transmits the search result to the terminal device 100 (S14). The parking assistance device 300 detects the position and orientation (S16), and the terminal device 100 also detects the position and orientation (S18). The parking assistance device 300 transmits the position information and the direction information to the terminal device 100 (S20). The terminal device 100 detects the low obstacle and estimates the operation of the vehicle 200 (S22). The terminal device 100 performs projection conversion on the image of the vehicle 200 (S24), superimposes the projection conversion image and the mixed reality UI 620 on the image of the terminal device 100, and displays the superimposed image (S26). The terminal device 100 receives an instruction to change the operation of the vehicle 200 (S28). The terminal device 100 outputs the obstacle information to the parking assistance device 300 (S30). The parking assistance device 300 generates a parking path (S32).

図7は、端末装置100における送信手順を示すフローチャートである。通信部110は、車両200の位置情報と、車両200の方位情報とを受信する(S50)。位置・方位検出部120は、端末装置100の位置情報と、端末装置100の方位情報とを検出する(S52)。障害物検出部500は低障害物を検出し、動作推定部502は車両200の動作を推定する(S54)。重畳部114は、低障害物の状況を重畳して表示する(S56)。運転者による操作がなければ(S58のN)、ステップ50に戻る。運転者による操作がある場合(S58のY)に、操作が決定でなければ(S60のN)、設定部138は、低障害物判定を修正して(S62)、ステップ50に戻る。操作が決定であれば(S60のY)。通信部110は障害物情報を送信する(S64)。   FIG. 7 is a flowchart showing a transmission procedure in the terminal device 100. The communication unit 110 receives the position information of the vehicle 200 and the direction information of the vehicle 200 (S50). The position / orientation detection unit 120 detects the position information of the terminal device 100 and the azimuth information of the terminal device 100 (S52). The obstacle detection unit 500 detects a low obstacle, and the motion estimation unit 502 estimates the motion of the vehicle 200 (S54). The superposing unit 114 superimposes and displays the state of the low obstacle (S56). If there is no operation by the driver (N at S58), the process returns to step 50. If there is an operation by the driver (Y at S58), if the operation is not determined (N at S60), the setting unit 138 corrects the low obstacle determination (S62), and returns to step 50. If the operation is determined (Y at S60). The communication unit 110 transmits obstacle information (S64).

図8は、端末装置100における別の送信手順を示すフローチャートである。通信部110は、車両200の位置情報と、車両200の方位情報とを受信する(S100)。位置・方位検出部120は、端末装置100の位置情報と、端末装置100の方位情報とを検出する(S102)。障害物検出部500は低障害物を検出し、動作推定部502は車両200の動作を推定する(S104)。重畳部114は、低障害物の状況を重畳して表示する(S106)。運転者による操作がなければ(S108のN)、ステップ100に戻る。運転者による操作がある場合(S108のY)に、操作が決定でなく(S110のN)、複合現実UI620の操作であれば(S112のY)、設定部138は、低障害物判定を修正して(S114)、ステップ100に戻る。複合現実UI620の操作でなければ(S112のN)、障害物検出部500は、手動による低障害物検出を実行して(S116)、ステップ106に戻る。操作が決定であれば(S110のY)。通信部110は障害物情報を送信する(S118)。   FIG. 8 is a flowchart showing another transmission procedure in the terminal device 100. The communication unit 110 receives the position information of the vehicle 200 and the direction information of the vehicle 200 (S100). The position / orientation detection unit 120 detects the position information of the terminal device 100 and the azimuth information of the terminal device 100 (S102). The obstacle detection unit 500 detects a low obstacle, and the motion estimation unit 502 estimates the motion of the vehicle 200 (S104). The superposing unit 114 superimposes and displays the condition of the low obstacle (S106). If there is no operation by the driver (N in S108), the process returns to step 100. If there is an operation by the driver (Y in S108), the operation is not determined (N in S110), and if the operation is a mixed reality UI 620 (Y in S112), the setting unit 138 corrects the low obstacle determination Then (S114), the process returns to step 100. If the operation is not the operation of the mixed reality UI 620 (N in S112), the obstacle detection unit 500 executes low obstacle detection manually (S116), and returns to step S106. If the operation is determined (Y in S110). The communication unit 110 transmits obstacle information (S118).

図9は、端末装置100における低障害物状況重畳表示手順を示すフローチャートである。これは、図7のステップ56、図8のステップ106の処理に相当する。投影変換部504は、車両200の映像を、車両200の位置と向き、端末装置100の位置と向きに基づき、端末装置100の視点からの映像に投影変換する(S150)。重畳部114は、端末装置100の映像の一部に抽出投影変換映像を重畳する(S152)。重畳部114は、判別された低障害物の位置、車両200の位置と向き、端末装置100の位置と向きに基づき、端末装置100の映像に映っている低障害物の映像上での座標を算出する(S154)。重畳部114は、判別に基づき複合現実UI620を生成する(S156)。重畳部114は、複合現実UI620を座標に重畳する(S158)。   FIG. 9 is a flowchart showing the low obstacle condition superimposed display procedure in the terminal device 100. This corresponds to the processing of step 56 of FIG. 7 and step 106 of FIG. The projection conversion unit 504 projects and converts the image of the vehicle 200 into an image from the viewpoint of the terminal device 100 based on the position and orientation of the vehicle 200 and the position and orientation of the terminal device 100 (S150). The superimposing unit 114 superimposes the extracted projection conversion video on a part of the video of the terminal device 100 (S152). The superposing unit 114 determines the coordinates on the image of the low obstacle shown in the image of the terminal device 100 based on the determined position of the low obstacle, the position and orientation of the vehicle 200, and the position and orientation of the terminal device 100. Calculate (S154). The superimposing unit 114 generates a mixed reality UI 620 based on the determination (S156). The superimposing unit 114 superimposes the mixed reality UI 620 on the coordinates (S158).

図10は、端末装置100における別の低障害物状況重畳表示手順を示すフローチャートである。これも、図7のステップ56、図8のステップ106の処理に相当する。投影変換部504は、車両200の映像を、車両200の位置と向き、端末装置100の位置と向きに基づき、端末装置100の視点からの映像に投影変換する(S200)。重畳部114は、抽出投影変換映像を、車両200の周辺の障害物の三次元空間での配置に基づいて、障害物で隠される部分に関してマスク処理を実行する(S202)。重畳部114は、端末装置100の映像の一部に抽出投影変換映像を重畳する(S204)。重畳部114は、判別された低障害物の位置、車両200の位置と向き、端末装置100の位置と向きに基づき、端末装置100の映像に映っている低障害物の映像上での座標を算出する(S206)。重畳部114は、判別に基づき複合現実UI620を生成する(S208)。重畳部114は、複合現実UI620を座標に重畳する(S210)。   FIG. 10 is a flowchart showing another low obstacle situation superimposed display procedure in the terminal device 100. This also corresponds to the processing of step 56 of FIG. 7 and step 106 of FIG. The projection conversion unit 504 projects and converts the image of the vehicle 200 into an image from the viewpoint of the terminal device 100 based on the position and orientation of the vehicle 200 and the position and orientation of the terminal device 100 (S200). The superimposing unit 114 performs mask processing on the extraction projection conversion image on the portion hidden by the obstacle based on the arrangement of the obstacle in the three-dimensional space around the vehicle 200 (S202). The superposing unit 114 superimposes the extracted projection conversion video on a part of the video of the terminal device 100 (S204). The superposing unit 114 determines the coordinates on the image of the low obstacle shown in the image of the terminal device 100 based on the determined position of the low obstacle, the position and orientation of the vehicle 200, and the position and orientation of the terminal device 100. Calculate (S206). The superimposing unit 114 generates a mixed reality UI 620 based on the determination (S208). The superimposing unit 114 superimposes the mixed reality UI 620 on the coordinates (S210).

図11は、端末装置100におけるさらに別の低障害物状況重畳表示手順を示すフローチャートである。これも、図7のステップ56、図8のステップ106の処理に相当する。投影変換部504は、判別された低障害物の位置、車両200の位置と向き、端末装置100の位置と向きに基づき、端末装置100の映像に映っている判別された低障害物の映像上での座標を算出する(S250)。重畳部114は、判別に基づき複合現実UI620を生成する(S252)。重畳部114は、複合現実UI620を座標に重畳する(S254)。障害物検出部500は、判別された低障害物の位置、車両200の位置と向きに基づき、判別された低障害物と車両200の後端の間の距離を算出する(S256)。障害物検出部500は、距離に基づき距離情報を生成する(S258)。重畳部114は、距離情報を映像の座標に重畳する(S260)。   FIG. 11 is a flowchart showing yet another low obstacle situation superimposed display procedure in the terminal device 100. This also corresponds to the processing of step 56 of FIG. 7 and step 106 of FIG. Based on the determined position of the low obstacle, the position and orientation of the vehicle 200, and the position and orientation of the terminal device 100, the projection conversion unit 504 is on the image of the low obstacle identified in the image of the terminal device 100. Coordinates at are calculated (S250). The superimposing unit 114 generates a mixed reality UI 620 based on the determination (S 252). The superimposing unit 114 superimposes the mixed reality UI 620 on the coordinates (S254). The obstacle detection unit 500 calculates the distance between the determined low obstacle and the rear end of the vehicle 200 based on the determined position of the low obstacle and the position and direction of the vehicle 200 (S256). The obstacle detection unit 500 generates distance information based on the distance (S258). The superimposing unit 114 superimposes the distance information on the coordinates of the image (S260).

本実施の形態によれば、遠隔操作による自動駐車における物体検出の未検出/誤検出を端末装置の表示装置に複合現実表示して修正するので操作性をよくできる。また、高さの低い輪留め/低障害物/段差は検出による判別が難しいにも関わらず、その判別によって駐車経路が異なっており、フリック操作で所定の選択肢を選択するので、正しい選択を実行できる。また、検出による判別が難しい高さの低い輪留め/低障害物/段差の誤検出をフリック操作で修正するので、簡便な操作で迅速に修正できる。   According to the present embodiment, the undetected / false detection of object detection in automatic parking by remote control is corrected by displaying the mixed reality on the display device of the terminal device, and operability can be improved. In addition, despite the fact that detection is difficult due to detection of low height looped / low obstacle / step differences, the parking path is different depending on the judgment, and a predetermined option is selected by flick operation, so the correct selection is performed. it can. In addition, since the false detection of the low-level looped / low obstacle / step difference which is difficult to detect by detection is corrected by the flick operation, it is possible to quickly correct it by a simple operation.

また、表示された映像に重畳した複合現実UIに対して、車両の動作を変更させるための指示を受けつけ、受けつけた変更の指示を駐車支援装置に送信するので、低障害物の種類の検出結果を修正できる。また、低障害物に接触する、低障害物を回避する、低障害物を乗り越える、のいずれか1つを別の1つに変更させるので、推定された動作を、低障害物に対して適した動作に修正できる。また、映像に距離情報も重畳されるので、車両から低障害物までの距離を運転者に知らせることができる。   In addition, the mixed reality UI superimposed on the displayed image receives an instruction to change the operation of the vehicle, and transmits the received change instruction to the parking assistance apparatus, so that the detection result of the type of low obstacle is You can correct In addition, the estimated operation is suitable for the low obstacle because one of the low obstacle is contacted, the low obstacle is avoided, and the low obstacle is overcome. Can be corrected to Further, since the distance information is also superimposed on the image, the driver can be notified of the distance from the vehicle to the low obstacle.

また、低障害物を検出してから、検出した低障害物に対する車両の動作を推定するので、低障害物に対する動作を自動的に推定できる。また、複合現実UIが非重畳の部分を選択するための指示を受けつけると、当該部分に対して検出処理と推定処理を再実行するので、未検出であった低障害物を検出できる。また、検出処理と推定処理を再実行する際に、検出されやすくなるようなパラメータを設定するので、未検出であった低障害物を検出しやすくできる。また、検出処理と推定処理を再実行して新たな第1情報と新たな第2情報とを取得するので、未検出であった低障害物の検出結果を修正できる。また、車両の映像を投影変換してから、端末装置の映像に重畳させるので、運転者に見やすい映像を提供できる。   Further, since the motion of the vehicle with respect to the detected low obstacle is estimated after the low obstacle is detected, the motion with respect to the low obstacle can be estimated automatically. In addition, when the mixed reality UI receives an instruction to select a non-overlapping portion, the detection process and the estimation process are re-executed on the portion, so that the low obstacle which has not been detected can be detected. In addition, when re-executing the detection process and the estimation process, parameters that facilitate detection are set, so it is possible to easily detect an undetected low obstacle. In addition, since the detection process and the estimation process are re-executed to acquire new first information and new second information, it is possible to correct the detection result of the undetected low obstacle. In addition, since the image of the vehicle is projected and converted, and then superimposed on the image of the terminal device, it is possible to provide an easy-to-view image for the driver.

また、変更後の車両の動作に関する情報を端末装置から受信した場合、変更後の車両の動作に関する情報を反映させて駐車経路を生成するので、低障害物に対して適切に対応できる。また、低障害物に接触する、低障害物を回避する、低障害物を乗り越える、のいずれか1つが示されるので、低障害物に対して適した動作を反映した駐車経路を生成できる。また、車両の位置情報と、車両の方位情報とを送信して、それらをもとに、車両の撮像部で撮像された映像を投影変換させるので、駐車支援装置の処理量を低減できる。また、探索結果を送信し、探索結果から低障害物を検出させるとともに、低障害物に対する車両の動作を推定させるので、駐車支援装置の処理量を低減できる。   Further, when the information on the operation of the vehicle after the change is received from the terminal device, the information on the operation of the vehicle after the change is reflected to generate the parking path, so that it is possible to appropriately cope with the low obstacle. In addition, any one of the low obstacle touching, avoiding the low obstacle, and overcoming the low obstacle is indicated, so that it is possible to generate a parking path reflecting the operation suitable for the low obstacle. In addition, the position information of the vehicle and the direction information of the vehicle are transmitted, and based on these, the image captured by the imaging unit of the vehicle is projected and converted, so that the processing amount of the parking assistance device can be reduced. Further, the search result is transmitted, and the low obstacle is detected from the search result, and the operation of the vehicle with respect to the low obstacle is estimated, so that the processing amount of the parking assistance device can be reduced.

(実施の形態2)
次に、実施の形態2を説明する。実施の形態2は、実施の形態1と同様に、車両の駐車を支援する駐車支援システムに関し、駐車支援装置と端末装置とを含む。実施の形態1では、障害物検出部、動作推定部、投影変換部が端末装置に含まれているが、実施の形態2では、これらが駐車支援装置に含まれる。ここでは、これまでとの差異を中心に説明する。
Second Embodiment
Next, the second embodiment will be described. Similar to Embodiment 1, Embodiment 2 relates to a parking assistance system for assisting parking of a vehicle, and includes a parking assistance device and a terminal device. In the first embodiment, the obstacle detection unit, the motion estimation unit, and the projection conversion unit are included in the terminal device, but in the second embodiment, these are included in the parking assistance device. Here, we will focus on the differences from the previous ones.

図12は、本実施の形態2に係る駐車支援システム1000の構成を示す。駐車支援システム1000は、端末装置100、車両200を含む。端末装置100は、測位装置116、デジタルコンパス118、撮像部126、表示装置132、操作部134、処理部160を含む。処理部160は、通信部110、取得部112、重畳部114、位置・方位検出部120、撮像I/F128、表示I/F130、操作I/F136、設定部138、制御部150を含む。位置・方位検出部120は、測位I/F122、コンパスI/F124を含む。   FIG. 12 shows the configuration of a parking assistance system 1000 according to the second embodiment. The parking assistance system 1000 includes a terminal device 100 and a vehicle 200. The terminal device 100 includes a positioning device 116, a digital compass 118, an imaging unit 126, a display device 132, an operation unit 134, and a processing unit 160. The processing unit 160 includes a communication unit 110, an acquisition unit 112, a superposition unit 114, a position / orientation detection unit 120, an imaging I / F 128, a display I / F 130, an operation I / F 136, a setting unit 138, and a control unit 150. The position / orientation detection unit 120 includes a positioning I / F 122 and a compass I / F 124.

車両200は、移動制御装置210、駐車支援装置300、測位装置310、デジタルコンパス312、撮像部320、ソナー322を含む。駐車支援装置300は、位置・方位検出部314、探索部324、通信部330、駐車経路生成部332、制御部350、障害物検出部500、動作推定部502、投影変換部504を含む。位置・方位検出部314は、測位I/F316、コンパスI/F318を含み、探索部324は、撮像I/F326、ソナーI/F328を含む。   The vehicle 200 includes a movement control device 210, a parking assistance device 300, a positioning device 310, a digital compass 312, an imaging unit 320, and a sonar 322. The parking assistance device 300 includes a position / orientation detection unit 314, a search unit 324, a communication unit 330, a parking path generation unit 332, a control unit 350, an obstacle detection unit 500, an operation estimation unit 502, and a projection conversion unit 504. The position / orientation detection unit 314 includes a positioning I / F 316 and a compass I / F 318, and the search unit 324 includes an imaging I / F 326 and a sonar I / F 328.

測位I/F122とコンパスI/F124とを含む位置・方位検出部120は、これまでと同様に、端末装置100の位置情報と撮像部126の方位情報とを検出する。位置・方位検出部120は、端末装置100の位置情報と撮像部126の方位情報とを通信部110、重畳部114に出力する。通信部110は、位置・方位検出部120から、端末装置100の位置情報と撮像部126の方位情報とを受けつける。通信部110は、端末装置100の位置情報と撮像部126の方位情報とが含まれた信号を駐車支援装置300に送信する。   The position / orientation detection unit 120 including the positioning I / F 122 and the compass I / F 124 detects the position information of the terminal device 100 and the azimuth information of the imaging unit 126 as in the above. The position / orientation detection unit 120 outputs the position information of the terminal device 100 and the azimuth information of the imaging unit 126 to the communication unit 110 and the superposition unit 114. The communication unit 110 receives from the position / orientation detection unit 120 the position information of the terminal device 100 and the azimuth information of the imaging unit 126. The communication unit 110 transmits a signal including the position information of the terminal device 100 and the azimuth information of the imaging unit 126 to the parking assistance device 300.

駐車支援装置300の通信部330は、端末装置100からの信号を受信する。通信部330は、信号に含まれた端末装置100の位置情報と撮像部126の方位情報とを投影変換部504に出力する。撮像I/F326とソナーI/F328を含む探索部324は、これまでと同様に、車両200の外部を探索する。探索部324は、探索結果を障害物検出部500、投影変換部504に出力する。測位I/F316とコンパスI/F318とを含む位置・方位検出部314は、これまでと同様に、車両200の位置情報と、車両200の方位情報とを検出する。位置・方位検出部314は、車両200の位置情報と、車両200の方位情報とを投影変換部504、通信部330、駐車経路生成部332に出力する。   The communication unit 330 of the parking assistance device 300 receives a signal from the terminal device 100. The communication unit 330 outputs the position information of the terminal apparatus 100 included in the signal and the azimuth information of the imaging unit 126 to the projection conversion unit 504. The search unit 324 including the imaging I / F 326 and the sonar I / F 328 searches the outside of the vehicle 200 as before. The search unit 324 outputs the search result to the obstacle detection unit 500 and the projection conversion unit 504. The position / orientation detection unit 314 including the positioning I / F 316 and the compass I / F 318 detects the position information of the vehicle 200 and the azimuth information of the vehicle 200 as described above. The position / orientation detection unit 314 outputs the position information of the vehicle 200 and the direction information of the vehicle 200 to the projection conversion unit 504, the communication unit 330, and the parking path generation unit 332.

投影変換部504は、位置・方位検出部314から、車両200の位置情報と、車両200の方位情報とを受けつけ、通信部330から、端末装置100の位置情報と撮像部126の方位情報とを受けつけ、探索部324から探索結果を受けつける。投影変換部504は、車両200の位置情報と、車両200の方位情報と、端末装置100の位置情報と、撮像部126の方位情報とをもとに、撮像部126の視点に、車両200の映像を投影変換する。投影変換部504は、投影変換映像と、車両200の映像と投影変換映像との座標の対応関係を通信部330に出力する。通信部330は、これらが含まれた信号を端末装置100に送信する。   The projection conversion unit 504 receives the position information of the vehicle 200 and the orientation information of the vehicle 200 from the position / orientation detection unit 314, and the communication unit 330 transmits the position information of the terminal device 100 and the orientation information of the imaging unit 126. Accept and accept the search result from the search unit 324. Based on the position information of the vehicle 200, the direction information of the vehicle 200, the position information of the terminal device 100, and the direction information of the imaging unit 126, the projection conversion unit 504 sets the vehicle 200 to the viewpoint of the imaging unit 126. Project and convert the image. The projection conversion unit 504 outputs, to the communication unit 330, the correspondence relationship between the projection conversion video and the coordinates of the video of the vehicle 200 and the projection conversion video. Communication unit 330 transmits a signal including these to terminal device 100.

障害物検出部500は、探索部324から探索結果を受けつける。障害物検出部500は、探索結果から低障害物を検出する。障害物検出部500は、検出した低障害物の位置に関する第1情報を通信部330に出力し、検出した低障害物の形状に関する情報を動作推定部502に出力する。動作推定部502は、障害物検出部500から低障害物の形状に関する情報を受けつける。動作推定部502、検出した低障害物に対する車両200の動作を推定する。動作推定部502は、車両200の動作に関する第2情報を通信部330に出力する。通信部330は、第1情報と第2情報との組合せを障害物情報とし、障害物情報が含まれた信号を端末装置100に送信する。   The obstacle detection unit 500 receives the search result from the search unit 324. The obstacle detection unit 500 detects a low obstacle from the search result. The obstacle detection unit 500 outputs the first information on the detected position of the low obstacle to the communication unit 330, and outputs the information on the detected shape of the low obstacle to the motion estimation unit 502. The motion estimation unit 502 receives from the obstacle detection unit 500 information on the shape of the low obstacle. The motion estimation unit 502 estimates the motion of the vehicle 200 with respect to the detected low obstacle. The motion estimation unit 502 outputs the second information on the motion of the vehicle 200 to the communication unit 330. The communication unit 330 sets the combination of the first information and the second information as obstacle information, and transmits a signal including the obstacle information to the terminal device 100.

端末装置100の通信部110は、駐車支援装置300からの信号を受信する。取得部112は、通信部110から障害物情報を取得する。重畳部114は、取得部112からの障害物情報を受けつけ、撮像I/F128からの端末装置100の映像を受けつけ、通信部110からの投影変換映像を受けつける。また、重畳部114は、車両200の映像と投影変換映像との座標の対応関係を通信部110から受けつける。重畳部114は、これらを利用して、抽出投影変換映像と複合現実UI620とが端末装置100の映像に重畳された重畳映像を生成する。重畳部114は、重畳映像を表示I/F130に出力する。表示I/F130は、重畳映像を表示装置132に表示させる。表示装置132は、重畳映像を表示する。   The communication unit 110 of the terminal device 100 receives a signal from the parking assistance device 300. The acquisition unit 112 acquires obstacle information from the communication unit 110. The superposing unit 114 receives obstacle information from the acquisition unit 112, receives an image of the terminal device 100 from the imaging I / F 128, and receives a projection conversion image from the communication unit 110. Also, the superimposing unit 114 receives, from the communication unit 110, the correspondence between the coordinates of the image of the vehicle 200 and the projection conversion image. The superimposing unit 114 uses these to generate a superimposed image in which the extraction projection conversion video and the mixed reality UI 620 are superimposed on the video of the terminal device 100. The superimposing unit 114 outputs the superimposed image to the display I / F 130. The display I / F 130 causes the display device 132 to display the superimposed video. The display device 132 displays the superimposed video.

なお、障害物検出部500において低障害物が検出されない場合、運転者はこれまでと同様の処理を実行する。端末装置100の操作部134は、再検出の指示を受けつけ、再検出の指示を設定部138経由で通信部110に出力する。通信部110は、再検出の指示が含まれた信号を駐車支援装置300に送信する。駐車支援装置300の通信部330は、端末装置100からの信号を受信し、信号に含まれた再検出の指示を障害物検出部500に出力する。障害物検出部500と動作推定部502は、再検出の指示に応じて、新たな検出処理と新たな推定処理を実行する。通信部330は、新たな検出処理の結果と新たな推定処理の結果とをもとにした新たな第1情報と新たな第2情報とを障害物情報として、障害物情報が含まれた信号を端末装置100に送信する。端末装置100の通信部110は、駐車支援装置300からの信号を受信し、信号に含まれた障害物情報を取得部112に出力する。つまり、取得部112は、受けつけた指示において示された部分に対する新たな第1情報と新たな第2情報とを取得する。これに続く処理は、これまでと同様である。   When the obstacle detection unit 500 does not detect a low obstacle, the driver executes the same processing as before. The operation unit 134 of the terminal device 100 receives the redetection instruction, and outputs the redetection instruction to the communication unit 110 via the setting unit 138. Communication unit 110 transmits a signal including a redetection instruction to parking assistance device 300. The communication unit 330 of the parking assistance device 300 receives a signal from the terminal device 100, and outputs an instruction for redetection included in the signal to the obstacle detection unit 500. The obstacle detection unit 500 and the motion estimation unit 502 execute a new detection process and a new estimation process according to the re-detection instruction. The communication unit 330 uses, as obstacle information, new first information and new second information based on the new detection process result and the new estimation process result as a signal including obstacle information. Are transmitted to the terminal device 100. The communication unit 110 of the terminal device 100 receives a signal from the parking assistance device 300, and outputs obstacle information included in the signal to the acquisition unit 112. That is, the acquisition unit 112 acquires new first information and new second information for the portion indicated in the received instruction. The subsequent processing is the same as before.

以上の構成による駐車支援システム1000の動作を説明する。図13は、駐車支援システム1000における駐車支援手順を示すシーケンス図である。駐車支援装置300は映像を撮像し(S300)、端末装置100も映像を撮像する(S302)。駐車支援装置300は位置と方位とを検出し(S304)、端末装置100も位置と方位とを検出する(S306)。端末装置100は、位置情報と方位情報とを駐車支援装置300に送信する(S308)。駐車支援装置300は、低障害物を検出するとともに、車両200の動作を推定する(S310)。駐車支援装置300は、車両200の映像を投影変換し(S312)、障害物情報と投影変換映像を端末装置100に送信する(S314)。端末装置100は、投影変換映像と複合現実UI620とを端末装置100の映像に重畳して表示する(S316)。端末装置100は、車両200の動作の変更の指示を受けつける(S318)。端末装置100は、障害物情報を駐車支援装置300に出力する(S320)。駐車支援装置300は、駐車経路を生成する(S322)。   The operation of the parking assistance system 1000 having the above configuration will be described. FIG. 13 is a sequence diagram showing a parking assistance procedure in the parking assistance system 1000. The parking assistance device 300 captures a video (S300), and the terminal device 100 also captures a video (S302). The parking assistance device 300 detects the position and orientation (S304), and the terminal device 100 also detects the position and orientation (S306). The terminal device 100 transmits the position information and the direction information to the parking assistance device 300 (S308). The parking assistance device 300 detects a low obstacle and estimates the operation of the vehicle 200 (S310). The parking assistance device 300 performs projection conversion of the image of the vehicle 200 (S312), and transmits obstacle information and the projection conversion image to the terminal device 100 (S314). The terminal device 100 superimposes the projection conversion image and the mixed reality UI 620 on the image of the terminal device 100 and displays the image (S316). The terminal device 100 receives an instruction to change the operation of the vehicle 200 (S318). The terminal device 100 outputs the obstacle information to the parking assistance device 300 (S320). The parking assistance device 300 generates a parking path (S322).

本実施の形態によれば、第1情報と第2情報とを駐車支援装置から受信するので、端末装置において、低障害物の検出処理と動作の推定処理を不要にできる。また、駐車支援装置において生成された投影変換映像を受信するので、端末装置の処理量を低減できる。また、複合現実UIが非重畳の部分を選択するための指示を受けつけると、当該部分に対する新たな第1情報と新たな第2情報とを送信するので、未検出であった低障害物の検出結果を修正できる。また、車両の映像を投影変換してから送信するので、運転者に見やすい映像を提供できる。   According to the present embodiment, since the first information and the second information are received from the parking assistance device, the terminal device can dispense with the detection processing of the low obstacle and the estimation processing of the operation. Further, since the projection conversion video generated in the parking assistance device is received, the processing amount of the terminal device can be reduced. Also, when the mixed reality UI receives an instruction to select a non-overlapping portion, it transmits new first information and new second information for the portion, so detection of a low obstacle which has not been detected is performed. You can correct the result. Further, since the image of the vehicle is subjected to projection conversion and then transmitted, it is possible to provide an easy-to-see image to the driver.

(実施の形態3)
次に、実施の形態3を説明する。実施の形態3は、これまでと同様に、車両の駐車を支援する駐車支援システムに関する。一方、実施の形態3に係る駐車支援システムは、駐車支援装置と端末装置とに加えてサーバも含む。サーバには、障害物検出部、動作推定部、投影変換部が含まれる。ここでは、これまでとの差異を中心に説明する。
Third Embodiment
Next, the third embodiment will be described. The third embodiment relates to a parking assistance system for assisting parking of a vehicle, as described above. On the other hand, the parking assistance system according to the third embodiment includes a server in addition to the parking assistance device and the terminal device. The server includes an obstacle detection unit, a motion estimation unit, and a projection conversion unit. Here, we will focus on the differences from the previous ones.

図14は、本実施の形態3に係る駐車支援システム1000の構成を示す。駐車支援システム1000は、端末装置100、車両200、サーバ400を含む。車両200は、駐車支援装置300を含む。サーバ400は、通信部410、データ交換部412、障害物検出部500、動作推定部502、投影変換部504を含む。サーバ400は、ネットワークを介して、端末装置100、駐車支援装置300と通信可能である。   FIG. 14 shows the configuration of a parking assistance system 1000 according to the third embodiment. The parking assistance system 1000 includes a terminal device 100, a vehicle 200, and a server 400. Vehicle 200 includes a parking assistance device 300. Server 400 includes a communication unit 410, a data exchange unit 412, an obstacle detection unit 500, an operation estimation unit 502, and a projection conversion unit 504. The server 400 can communicate with the terminal device 100 and the parking assistance device 300 via a network.

サーバ400の通信部410は、端末装置100からの信号を受信するとともに、車両200からの信号を受信する。これにより、通信部410は、端末装置100の位置情報と、端末装置100の撮像部126の方位情報とを端末装置100から受信し、車両200において探索された探索結果を駐車支援装置300から受信する。さらに、通信部410は、車両200の位置情報と、車両200の方位情報とを駐車支援装置300から受信する。データ交換部412は、通信部410に接続されるとともに、障害物検出部500、動作推定部502、投影変換部504とも接続され、これらの間でデータを交換する。   The communication unit 410 of the server 400 receives a signal from the terminal device 100 and receives a signal from the vehicle 200. Thus, the communication unit 410 receives the position information of the terminal device 100 and the direction information of the imaging unit 126 of the terminal device 100 from the terminal device 100, and receives the search result searched for in the vehicle 200 from the parking assistance device 300. Do. Furthermore, the communication unit 410 receives the position information of the vehicle 200 and the direction information of the vehicle 200 from the parking assistance device 300. The data exchange unit 412 is connected to the communication unit 410, and is also connected to the obstacle detection unit 500, the motion estimation unit 502, and the projection conversion unit 504, and exchanges data among them.

投影変換部504は、データ交換部412から、車両200の位置情報と、車両200の方位情報と、端末装置100の位置情報と、撮像部126の方位情報と、探索結果を受けつける。投影変換部504は、車両200の位置情報と、車両200の方位情報と、端末装置100の位置情報と、撮像部126の方位情報とをもとに、撮像部126の視点に、車両200の映像を投影変換する。投影変換部504は、投影変換映像と、車両200の映像と投影変換映像との座標の対応関係をデータ交換部412経由で通信部410に出力する。通信部410は、これらが含まれた信号を端末装置100に送信する。   The projection conversion unit 504 receives, from the data exchange unit 412, the position information of the vehicle 200, the direction information of the vehicle 200, the position information of the terminal device 100, the direction information of the imaging unit 126, and the search result. Based on the position information of the vehicle 200, the direction information of the vehicle 200, the position information of the terminal device 100, and the direction information of the imaging unit 126, the projection conversion unit 504 sets the vehicle 200 to the viewpoint of the imaging unit 126. Project and convert the image. The projection conversion unit 504 outputs the correspondence relationship between the projection conversion video and the coordinates of the video of the vehicle 200 and the projection conversion video to the communication unit 410 via the data exchange unit 412. Communication unit 410 transmits a signal including these to terminal device 100.

障害物検出部500は、データ交換部412から探索結果を受けつける。障害物検出部500は、探索結果から低障害物を検出する。障害物検出部500は、検出した低障害物の位置に関する第1情報をデータ交換部412経由で通信部410に出力し、検出した低障害物の形状に関する情報を動作推定部502に出力する。動作推定部502は、障害物検出部500から低障害物の形状に関する情報を受けつける。動作推定部502、検出した低障害物に対する車両200の動作を推定する。動作推定部502は、車両200の動作に関する第2情報をデータ交換部412経由で通信部410に出力する。通信部410は、第1情報と第2情報との組合せを障害物情報とし、障害物情報が含まれた信号を端末装置100に送信する。   The obstacle detection unit 500 receives the search result from the data exchange unit 412. The obstacle detection unit 500 detects a low obstacle from the search result. The obstacle detection unit 500 outputs the first information on the detected position of the low obstacle to the communication unit 410 via the data exchange unit 412, and outputs the information on the shape of the detected low obstacle to the motion estimation unit 502. The motion estimation unit 502 receives from the obstacle detection unit 500 information on the shape of the low obstacle. The motion estimation unit 502 estimates the motion of the vehicle 200 with respect to the detected low obstacle. The motion estimation unit 502 outputs the second information on the motion of the vehicle 200 to the communication unit 410 via the data exchange unit 412. Communication unit 410 sets the combination of the first information and the second information as obstacle information, and transmits a signal including the obstacle information to terminal device 100.

以上の構成による駐車支援システム1000の動作を説明する。図15は、駐車支援システム1000における駐車支援手順を示すシーケンス図である。駐車支援装置300は映像を撮像し(S350)、端末装置100も映像を撮像する(S352)。駐車支援装置300は、探索結果をサーバ400に送信する(S354)。駐車支援装置300は位置と方位とを検出し(S356)、端末装置100も位置と方位とを検出する(S358)。駐車支援装置300は位置情報と方位情報とをサーバ400に送信し(S360)、端末装置100は位置情報と方位情報とをサーバ400に送信する(S362)。サーバ400は、低障害物を検出するとともに、車両200の動作を推定する(S364)。サーバ400は、車両200の映像を投影変換し(S366)、障害物情報と投影変換映像を端末装置100に送信する(S368)。端末装置100は、投影変換映像と複合現実UI620とを端末装置100の映像に重畳して表示する(S370)。端末装置100は、車両200の動作の変更の指示を受けつける(S372)。端末装置100は、障害物情報を駐車支援装置300に出力する(S374)。駐車支援装置300は、駐車経路を生成する(S376)。   The operation of the parking assistance system 1000 having the above configuration will be described. FIG. 15 is a sequence diagram showing a parking assistance procedure in the parking assistance system 1000. The parking assistance device 300 captures an image (S350), and the terminal device 100 also captures an image (S352). The parking assistance device 300 transmits the search result to the server 400 (S354). The parking assistance device 300 detects the position and orientation (S356), and the terminal device 100 also detects the position and orientation (S358). The parking assistance device 300 transmits the position information and the direction information to the server 400 (S360), and the terminal device 100 transmits the position information and the direction information to the server 400 (S362). The server 400 detects a low obstacle and estimates the operation of the vehicle 200 (S364). The server 400 performs projection conversion of the image of the vehicle 200 (S366), and transmits obstacle information and the projection conversion image to the terminal device 100 (S368). The terminal device 100 superimposes the projection conversion image and the mixed reality UI 620 on the image of the terminal device 100 and displays the image (S370). The terminal device 100 receives an instruction to change the operation of the vehicle 200 (S372). The terminal device 100 outputs the obstacle information to the parking assistance device 300 (S374). The parking assistance device 300 generates a parking path (S376).

本実施の形態によれば、車両の映像を投影変換してから送信するので、運転者に見やすい映像を提供できる。また、投影変換映像の生成をサーバにおいて実行するので、端末装置と駐車支援装置の処理量を低減できる。また、検出された低障害物に対する車両の動作を推定するので、低障害物に対する動作を自動的に推定できる。また、低障害物の検出と車両の動作の推定とをサーバにおいて実行するので、端末装置と駐車支援装置の処理量を低減できる。   According to the present embodiment, since the image of the vehicle is subjected to projection conversion and then transmitted, an image that can be easily viewed by the driver can be provided. In addition, since the generation of the projection conversion video is executed in the server, the processing amount of the terminal device and the parking assistance device can be reduced. Further, since the motion of the vehicle with respect to the detected low obstacle is estimated, the motion with respect to the low obstacle can be automatically estimated. In addition, since the detection of the low obstacle and the estimation of the operation of the vehicle are performed in the server, the throughput of the terminal device and the parking assistance device can be reduced.

以上、本開示に係る実施の形態について図面を参照して詳述してきたが、上述した装置や各処理部の機能は、コンピュータプログラムにより実現されうる。上述した機能をプログラムにより実現するコンピュータは、キーボードやマウス、タッチパッドなどの入力装置、ディスプレイやスピーカなどの出力装置、CPU(Central Processing Unit)、ROM、RAM、ハードディスク装置やSSD(Solid State Drive)などの記憶装置、DVD−ROM(Digital Versatile Disk Read Only Memory)やUSBメモリなどの記録媒体から情報を読み取る読取装置、ネットワークを介して通信を行うネットワークカードなどを備え、各部はバスにより接続される。また、読取装置は、上記プログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。また、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。   Although the embodiments according to the present disclosure have been described in detail with reference to the drawings, the functions of the above-described apparatus and each processing unit may be realized by a computer program. The computer that realizes the functions described above by a program includes input devices such as a keyboard, a mouse, and a touch pad, output devices such as a display and a speaker, a central processing unit (CPU), a ROM, a RAM, a hard disk drive, and a solid state drive (SSD). Etc., a reading device that reads information from a recording medium such as a DVD-ROM (Digital Versatile Disk Read Only Memory) or a USB memory, a network card that communicates via a network, etc. . Further, the reading device reads the program from the recording medium having the program recorded thereon and stores the program in the storage device. In addition, the function of each device is realized by the CPU copying the program stored in the storage device to the RAM, sequentially reading out the instructions included in the program from the RAM, and executing the instruction.

本開示の一態様の概要は、次の通りである。本開示のある態様のプログラムは、車両に搭載された通信装置と通信可能な端末装置でのプログラムであって、車両により検出された障害物に関する第1情報と、車両の当該障害物に対する動作に関する第2情報とを取得するステップと、端末装置の撮像部で撮像した映像に対して、第2情報における動作が示された複合現実UIを、第1情報において示された障害物の位置に重畳するステップと、複合現実UIが重畳された映像を端末装置の表示部に表示させるステップと、表示部に表示させた映像に重畳した複合現実UIに対して、車両の動作を指定させるための指示を受けつけるステップと、受けつけた動作の指定の指示を通信装置に送信するステップと、をコンピュータに実行させる。   The outline of one aspect of the present disclosure is as follows. A program according to an aspect of the present disclosure is a program in a terminal device capable of communicating with a communication device mounted on a vehicle, and relates to first information on an obstacle detected by the vehicle and an operation of the vehicle with respect to the obstacle The step of acquiring the second information, and the mixed reality UI in which the operation in the second information is indicated on the image captured by the imaging unit of the terminal device is superimposed on the position of the obstacle indicated in the first information. And a step of causing the display unit of the terminal device to display an image on which the mixed reality UI is superimposed, and an instruction for causing the mixed reality UI superimposed on the image displayed on the display unit to specify the operation of the vehicle And causing the computer to execute the steps of accepting and transmitting an instruction for specifying the accepted operation to the communication device.

この態様によると、表示された映像に重畳した複合現実UIに対して、車両の動作を変更させるための指示を受けつけ、受けつけた変更の指示を通信装置に送信するので、障害物の種類の検出結果を修正できる。   According to this aspect, the mixed reality UI superimposed on the displayed image receives an instruction for changing the operation of the vehicle, and transmits the received change instruction to the communication device, so that the type of obstacle is detected. You can correct the result.

取得するステップにおいて取得した第2情報は、車両の動作として、障害物に接触する、障害物を回避する、障害物を乗り越える、のいずれか1つを行うことを示し、受けつけるステップは、第2情報において示された1つの動作とは異なる1つの動作を指定させるための指示を受けつける。この場合、障害物に接触する、障害物を回避する、障害物を乗り越える、のいずれか1つを別の1つに変更させるので、障害物に対して適した動作に修正できる。   The second information acquired in the acquiring step indicates that the operation of the vehicle is to perform any one of contact with an obstacle, avoiding an obstacle, and overcoming an obstacle, and accepting the second step Receive an instruction to specify one operation different from the one indicated in the information. In this case, since any one of touching an obstacle, avoiding an obstacle, and overcoming an obstacle is changed to another one, it is possible to correct the action suitable for the obstacle.

取得するステップにおいて取得した第1情報は、車両から障害物までの距離情報をさらに含んでもよい。重畳するステップは、第1情報に含まれた距離情報をさらに重畳する。この場合、距離情報も重畳されるので、車両から障害物までの距離を運転者に知らせることができる。   The first information acquired in the acquiring step may further include distance information from the vehicle to the obstacle. The step of superimposing further superimposes the distance information included in the first information. In this case, since the distance information is also superimposed, it is possible to notify the driver of the distance from the vehicle to the obstacle.

車両において探索された探索結果を受信するステップと、受信した探索結果から障害物を検出するステップと、検出した障害物に対する車両の動作を推定するステップと、をさらに備えてもよい。取得するステップは、検出結果をもとにした第1情報を取得するとともに、推定結果をもとにした第2情報を取得する。この場合、障害物を検出してから、検出した障害物に対する車両の動作を推定するので、障害物に対する動作を自動的に推定できる。   The method may further comprise the steps of receiving a search result searched for in the vehicle, detecting an obstacle from the received search result, and estimating an action of the vehicle with respect to the detected obstacle. The acquiring step acquires first information based on the detection result and acquires second information based on the estimation result. In this case, since the obstacle is detected and then the motion of the vehicle with respect to the detected obstacle is estimated, the motion with respect to the obstacle can be estimated automatically.

車両において探索された探索結果に対する障害物の検出結果をもとに生成された第1情報と、検出された障害物に対する車両の動作の推定結果をもとに生成された第2情報とを受信するステップをさらに備えてもよい。取得するステップは、受信した第1情報と第2情報とを取得する。この場合、第1情報と第2情報とを受信するので、障害物の検出処理と動作の推定処理を不要にできる。   Receives the first information generated based on the detection result of the obstacle for the search result searched for in the vehicle and the second information generated based on the estimation result of the operation of the vehicle for the detected obstacle The method may further comprise the step of The acquiring step acquires the received first information and second information. In this case, since the first information and the second information are received, the obstacle detection process and the operation estimation process can be omitted.

表示部に表示させた映像において、複合現実UIが非重畳の部分を選択するための指示を受けつけるステップをさらに備えてもよい。取得するステップは、受けつけた指示において示された部分に対する新たな第1情報と新たな第2情報とを取得する。この場合、複合現実UIが非重畳の部分を選択するための指示を受けつけると、当該部分に対する新たな第1情報と新たな第2情報とを取得するので、未検出であった障害物の検出結果を修正できる。   In the image displayed on the display unit, the method may further include a step of receiving an instruction for selecting a non-overlapping portion by the mixed reality UI. The acquiring step acquires new first information and new second information for the portion indicated in the received instruction. In this case, when the mixed reality UI receives an instruction to select a non-overlapping portion, new first information and new second information for the portion are acquired, so detection of an undetected obstacle is performed. You can correct the result.

車両の位置情報と、車両の方位情報とを受信するステップと、端末装置の位置情報と、端末装置の撮像部の方位情報とを検出するステップと、車両の位置情報と、車両の方位情報と、端末装置の位置情報と、端末装置の撮像部の方位情報とをもとに、端末装置の撮像部の視点に、車両の撮像部で撮像された映像を投影変換するステップとをさらに備えてもよい。重畳するステップは、端末装置の撮像部で撮像した映像に対して、投影変換した映像と複合現実UIとを重畳する。この場合、車両の撮像部で撮像された映像を投影変換してから、端末装置の撮像部で撮像した映像に重畳させるので、運転者に見やすい映像を提供できる。   The steps of receiving the position information of the vehicle, the direction information of the vehicle, the steps of detecting the position information of the terminal device, the direction information of the imaging unit of the terminal device, the position information of the vehicle, the direction information of the vehicle And projecting the image captured by the imaging unit of the vehicle to the viewpoint of the imaging unit of the terminal based on the position information of the terminal and the orientation information of the imaging unit of the terminal. It is also good. The superimposing step superimposes the projection-converted video and the mixed reality UI on the video captured by the imaging unit of the terminal device. In this case, the image captured by the imaging unit of the vehicle is projected and converted, and then superimposed on the image captured by the imaging unit of the terminal device, so that an easy-to-view video can be provided to the driver.

端末装置の位置情報と、端末装置の撮像部の方位情報とを検出するステップと、検出した端末装置の位置情報と、端末装置の撮像部の方位情報とを送信するステップと、車両の位置情報と、車両の方位情報と、端末装置の位置情報と、端末装置の撮像部の方位情報とをもとに、端末装置の撮像部の視点に、車両の撮像部で撮像された映像が投影変換されており、投影変換された映像を受信するステップをさらに備えてもよい。重畳するステップは、端末装置の撮像部で撮像した映像に対して、投影変換された映像と複合現実UIとを重畳する。この場合、車両の撮像部で撮像された映像が投影変換されてから受信するので、処理量を低減できる。   Detecting the position information of the terminal device and the direction information of the imaging unit of the terminal device; transmitting the detected position information of the terminal device; and the direction information of the imaging unit of the terminal device; Based on the direction information of the vehicle, the position information of the terminal device, and the direction information of the imaging unit of the terminal device, the image captured by the imaging unit of the vehicle is projected and converted to the viewpoint of the imaging unit of the terminal device The method may further comprise receiving the projected and transformed image. The superimposing step superimposes the projection-converted video and the mixed reality UI on the video captured by the imaging unit of the terminal device. In this case, since the image captured by the imaging unit of the vehicle is subjected to projection conversion and then received, the processing amount can be reduced.

本開示の別の態様は、駐車支援装置である。この装置は、自動駐車させるべき車両に搭載された駐車支援装置であって、端末装置の撮像部で撮像した映像に対して、車両に対して検出された障害物の位置に、当該障害物に対して推定された車両の動作が示された複合現実UIが重畳されるとともに、複合現実UIを重畳した映像が端末装置の表示部に表示されており、表示部に表示させた映像に重畳した複合現実UIに対して、車両の動作を変更させるための指示を端末装置が受けつけた場合に、変更後の車両の動作に関する情報を端末装置から受信する通信部と、通信部において受信した情報であって、かつ変更後の車両の動作に関する情報を反映させて駐車経路を生成する駐車経路生成部と、を備える。   Another aspect of the present disclosure is a parking assistance device. This device is a parking assistance device mounted on a vehicle to be automatically parked, and for an image captured by an imaging unit of a terminal device, the obstacle is detected at the position of an obstacle detected for the vehicle. The mixed reality UI showing the motion of the vehicle estimated is superimposed, and a video on which the mixed reality UI is superimposed is displayed on the display unit of the terminal device, and is superimposed on the video displayed on the display unit. When the terminal device receives an instruction to change the operation of the vehicle to the mixed reality UI, the communication unit receives information on the operation of the vehicle after the change from the terminal device, and the information received by the communication unit And a parking path generation unit that generates a parking path by reflecting information related to the operation of the vehicle after the change.

この態様によると、変更後の車両の動作に関する情報を端末装置から受信した場合、変更後の車両の動作に関する情報を反映させて駐車経路を生成するので、障害物の種類の検出結果の修正に適した駐車経路を生成できる。   According to this aspect, when the information on the operation of the vehicle after the change is received from the terminal device, the information on the operation of the vehicle after the change is reflected to generate the parking path, so that the detection result of the obstacle type is corrected. A suitable parking path can be generated.

車両の動作は、障害物に接触する、障害物を回避する、障害物を乗り越える、のいずれか1つを示す。この場合、障害物に接触する、障害物を回避する、障害物を乗り越える、のいずれか1つが示されるので、障害物に対して適した動作を反映した駐車経路を生成できる。   The operation of the vehicle indicates any one of contact with an obstacle, avoiding an obstacle and overcoming an obstacle. In this case, any one of touching an obstacle, avoiding an obstacle, and overcoming an obstacle is indicated, so that it is possible to generate a parking path reflecting an action suitable for the obstacle.

車両の外部を探索する探索部と、探索部における探索結果から障害物を検出する障害物検出部と、障害物検出部において検出した障害物に対する車両の動作を推定する動作推定部をさらに備えてもよい。通信部は、障害物検出部において検出した障害物に関する第1情報と、動作推定部において推定した車両の動作に関する第2情報とを送信する。この場合、障害物を検出してから、検出した障害物に対する車両の動作を推定するので、障害物に対する動作を自動的に推定できる。   The search unit for searching the outside of the vehicle, an obstacle detection unit for detecting an obstacle from the search result in the search unit, and a motion estimation unit for estimating the motion of the vehicle with respect to the obstacle detected by the obstacle detection unit It is also good. The communication unit transmits first information on an obstacle detected by the obstacle detection unit and second information on an operation of the vehicle estimated by the movement estimation unit. In this case, since the obstacle is detected and then the motion of the vehicle with respect to the detected obstacle is estimated, the motion with respect to the obstacle can be estimated automatically.

通信部は、表示部に表示させた映像において、複合現実UIが非重畳の部分を選択するための指示を端末装置が受けつけた場合に、複合現実UIが非重畳の部分を選択するための指示を端末装置から受信し、障害物検出部と動作推定部は、通信部が受信した指示に応じて、新たな検出処理と新たな推定処理を実行し、通信部は、障害物検出部と動作推定部において実行した新たな検出処理の結果と新たな推定処理の結果とをもとにした新たな第1情報と新たな第2情報とを送信する。この場合、複合現実UIが非重畳の部分を選択するための指示を受けつけると、当該部分に対する新たな第1情報と新たな第2情報とを送信するので、未検出であった障害物の検出結果を修正できる。   The communication unit instructs the mixed reality UI to select the non-overlapping part when the terminal device receives an instruction to select the non-overlapping part in the mixed reality UI in the image displayed on the display unit. Is received from the terminal device, and the obstacle detection unit and the motion estimation unit execute new detection processing and new estimation processing according to the instruction received by the communication unit, and the communication unit operates the obstacle detection unit and the motion detection unit. New first information and new second information are transmitted based on the result of the new detection process executed by the estimation unit and the result of the new estimation process. In this case, when the mixed reality UI receives an instruction to select a non-overlapping portion, it transmits new first information and new second information to the portion, so detection of an undetected obstacle is performed. You can correct the result.

車両の外部を探索する探索部をさらに備えてもよい。通信部は、探索部における探索結果を送信し、通信部が送信した探索結果から障害物を検出させるとともに、障害物に対する車両の動作を推定させる。この場合、探索結果を送信し、探索結果から障害物を検出させるとともに、障害物に対する車両の動作を推定させるので、処理量を低減できる。   You may further provide the search part which searches the exterior of a vehicle. The communication unit transmits the search result in the search unit, detects an obstacle from the search result transmitted by the communication unit, and estimates the operation of the vehicle with respect to the obstacle. In this case, the search result is transmitted, the obstacle is detected from the search result, and the movement of the vehicle with respect to the obstacle is estimated, so that the amount of processing can be reduced.

通信部は、端末装置の位置情報と、端末装置の撮像部の方位情報とを受信し、本駐車支援装置は、車両の位置情報と、車両の方位情報とを検出する位置・方位検出部と、車両の位置情報と、車両の方位情報と、端末装置の位置情報と、端末装置の撮像部の方位情報とをもとに、端末装置の撮像部の視点に、車両の撮像部で撮像された映像を投影変換する投影変換部とをさらに備えてもよい。通信部は、投影変換部において投影変換された映像を送信する。この場合、車両の撮像部で撮像された映像を投影変換してから送信するので、運転者に見やすい映像を提供できる。   The communication unit receives the position information of the terminal device and the direction information of the imaging unit of the terminal device, and the parking assistance device detects the position information of the vehicle and the direction information of the vehicle. Based on the position information of the vehicle, the direction information of the vehicle, the position information of the terminal device, and the direction information of the image pickup unit of the terminal device, the image pickup unit of the vehicle The image processing apparatus may further include a projection conversion unit that performs projection conversion on the selected image. The communication unit transmits the image projected and converted by the projection conversion unit. In this case, since the image captured by the imaging unit of the vehicle is subjected to projection conversion and then transmitted, an image that can be easily viewed by the driver can be provided.

車両の位置情報と、車両の方位情報とを検出する位置・方位検出部をさらに備えてもよい。通信部は、位置・方位検出部において検出した車両の位置情報と、車両の方位情報とを送信し、通信部が送信した車両の位置情報と車両の方位情報と、端末装置の位置情報と、端末装置の撮像部の方位情報とをもとに、端末装置の撮像部の視点に、車両の撮像部で撮像された映像が投影変換される。この場合、車両の位置情報と、車両の方位情報とを送信して、それらをもとに、車両の撮像部で撮像された映像を投影変換させるので、処理量を低減できる。   You may further provide the position and direction detection part which detects the position information of a vehicle, and the direction information of a vehicle. The communication unit transmits the position information of the vehicle detected by the position / direction detection unit and the direction information of the vehicle, and the position information of the vehicle and the direction information of the vehicle transmitted by the communication unit, and the position information of the terminal device Based on the direction information of the imaging unit of the terminal device, the image captured by the imaging unit of the vehicle is projected and converted to the viewpoint of the imaging unit of the terminal device. In this case, the position information of the vehicle and the direction information of the vehicle are transmitted, and based on these, the image captured by the imaging unit of the vehicle is projection-transformed, so that the amount of processing can be reduced.

本開示のさらに別の態様もまた、プログラムである。このプログラムは、自動駐車させるべき車両に搭載された通信装置と、端末装置と通信可能であるサーバのプログラムであって、車両において探索された探索結果を通信装置から受信するステップと、受信した探索結果から障害物を検出するステップと、検出した障害物に対する車両の動作を推定するステップと、検出した障害物に関する第1情報と、推定した車両の動作に関する第2情報とを端末装置に送信するステップと、をコンピュータに実行させる。   Yet another aspect of the present disclosure is also a program. This program is a program of a communication device mounted on a vehicle to be automatically parked and a server program capable of communicating with a terminal device, receiving the search results searched for in the vehicle from the communication device, and the received search The step of detecting an obstacle from the result, the step of estimating the operation of the vehicle with respect to the detected obstacle, the first information about the detected obstacle, and the second information about the estimated operation of the vehicle are transmitted to the terminal device Have the computer execute the steps.

この態様によると、検出された障害物に対する車両の動作を推定するので、障害物に対する動作を自動的に推定できる。   According to this aspect, since the motion of the vehicle with respect to the detected obstacle is estimated, the motion with respect to the obstacle can be estimated automatically.

以上、本開示を実施の形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。   The present disclosure has been described above based on the embodiments. It is understood by those skilled in the art that these embodiments are exemplifications, and that various modifications can be made to the combinations of the respective components and processing processes, and such modifications are also within the scope of the present disclosure. It is a place.

本実施の形態1から3において、障害物検出部500、動作推定部502、投影変換部504は、端末装置100、駐車支援装置300、サーバ400のいずれかにまとめて含まれる。しかしながらこれに限らず例えば、障害物検出部500、動作推定部502が端末装置100、駐車支援装置300、サーバ400のいずれかに含まれ、投影変換部504が、障害物検出部500、動作推定部502を含んだ装置以外の装置に含まれてもよい。本変形例によれば、構成の自由度を向上できる。   In the first to third embodiments, the obstacle detection unit 500, the motion estimation unit 502, and the projection conversion unit 504 are collectively included in any of the terminal device 100, the parking assistance device 300, and the server 400. However, the present invention is not limited to this. For example, the obstacle detection unit 500 and the motion estimation unit 502 are included in any of the terminal device 100, the parking assistance device 300, and the server 400, and the projection conversion unit 504 is an obstacle detection unit 500 and motion estimation. The unit other than the unit including the unit 502 may be included. According to this modification, the degree of freedom of the configuration can be improved.

本実施の形態1から3において、重畳映像には、抽出投影変換映像が重畳されている。しかしながらこれに限らず例えば、重畳映像に抽出投影変換映像が重畳されてなくてもよい。本変形例によれば、処理を簡易にできる。   In the first to third embodiments, the extraction projection conversion video is superimposed on the superimposed video. However, the present invention is not limited to this. For example, the extraction projection conversion video may not be superimposed on the superimposed video. According to this modification, processing can be simplified.

本開示によれば、遠隔操作による自動駐車に適した処理を実行できる。   According to the present disclosure, processing suitable for automatic parking by remote control can be performed.

100 端末装置、 110 通信部、 112 取得部、 114 重畳部、 116 測位装置、 118 デジタルコンパス、 120 位置・方位検出部、 122 測位I/F、 124 コンパスI/F、 126 撮像部、 128 撮像I/F、 130 表示I/F、 132 表示装置、 134 操作部、 136 操作I/F、 138 設定部、 150 制御部、 160 処理部、 180 端末位置、 182 端末方位、 200 車両、 210 移動制御装置、 220 他車両、 230 駐車領域、 280 車両位置、 282 車両方位、 300 駐車支援装置、 310 測位装置、 312 デジタルコンパス、 314 位置・方位検出部、 316 測位I/F、 318 コンパスI/F、 320 撮像部、 322 ソナー、 324 探索部、 326 撮像I/F、 328 ソナーI/F、 330 通信部、 332 駐車経路生成部、 350 制御部、 500 障害物検出部、 502 動作推定部、 504 投影変換部、 620 複合現実UI、 1000 駐車支援システム。   Reference Signs List 100 terminal device, 110 communication unit, 112 acquisition unit, 114 superposition unit, 116 positioning device, 118 digital compass, 120 position / direction detection unit, 122 positioning I / F, 124 compass I / F, 126 imaging unit, 128 imaging I / F, 130 display I / F, 132 display device, 134 operation unit, 136 operation I / F, 138 setting unit, 150 control unit, 160 processing unit, 180 terminal position, 182 terminal direction, 200 vehicle, 210 movement control device , 220 other vehicle, 230 parking area, 280 vehicle position, 282 vehicle direction, 300 parking assist device, 310 positioning device, 312 digital compass, 314 position / direction detection unit, 316 positioning I / F, 318 compass I / F, 320 Imaging unit, 322 sona , 324 search unit, 326 imaging I / F, 328 sonar I / F, 330 communication unit, 332 parking path generation unit, 350 control unit, 500 obstacle detection unit, 502 motion estimation unit, 504 projection conversion unit, 620 mixed reality UI, 1000 parking assistance system.

Claims (16)

車両に搭載された通信装置と通信可能な端末装置でのプログラムであって、
前記車両により検出された障害物に関する第1情報と、前記車両の当該障害物に対する動作に関する第2情報とを取得するステップと、
前記端末装置の撮像部で撮像した映像に対して、第2情報における動作が示された複合現実UIを、第1情報において示された障害物の位置に重畳するステップと、
複合現実UIが重畳された映像を前記端末装置の表示部に表示させるステップと、
前記表示部に表示させた映像に重畳した複合現実UIに対して、前記車両の動作を指定させるための指示を受けつけるステップと、
受けつけた動作の指定の指示を前記通信装置に送信するステップと、
をコンピュータに実行させるためのプログラム。
A program in a terminal device capable of communicating with a communication device mounted on a vehicle,
Acquiring first information on an obstacle detected by the vehicle and second information on an operation of the vehicle with respect to the obstacle;
Superimposing a mixed reality UI in which an action in the second information is indicated on an image captured by an imaging unit of the terminal device on a position of an obstacle indicated in the first information;
Displaying a video on which a mixed reality UI is superimposed on the display unit of the terminal device;
Accepting an instruction for causing the mixed reality UI superimposed on the image displayed on the display unit to specify the operation of the vehicle;
Transmitting to the communication device an instruction for specifying the received operation;
A program to make a computer run.
前記取得するステップにおいて取得した第2情報は、前記車両の動作として、障害物に接触する、障害物を回避する、障害物を乗り越える、のいずれか1つを行うことを示し、
前記受けつけるステップは、第2情報において示された1つの動作とは異なる1つの動作を指定させるための指示を受けつける、
請求項1に記載のプログラム。
The second information acquired in the acquiring step indicates, as the operation of the vehicle, performing one of contact with an obstacle, avoiding an obstacle, and overcoming an obstacle.
The accepting step accepts an instruction for specifying one operation different from the one indicated in the second information.
The program according to claim 1.
前記取得するステップにおいて取得した第1情報は、前記車両から障害物までの距離情報をさらに含み、
前記重畳するステップは、第1情報に含まれた距離情報をさらに重畳する、
請求項1または2に記載のプログラム。
The first information acquired in the acquiring step further includes distance information from the vehicle to an obstacle,
The superimposing step further superimposes the distance information included in the first information.
The program according to claim 1 or 2.
前記車両において探索された探索結果を受信するステップと、
受信した探索結果から障害物を検出するステップと、
検出した障害物に対する前記車両の動作を推定するステップと、
をさらに備え、
前記取得するステップは、検出結果をもとにした第1情報を取得するとともに、推定結果をもとにした第2情報を取得する、
請求項1から3のいずれかに記載のプログラム。
Receiving a search result searched for in the vehicle;
Detecting an obstacle from the received search result;
Estimating the motion of the vehicle with respect to the detected obstacle;
And further
The acquiring step acquires first information based on the detection result and acquires second information based on the estimation result.
The program according to any one of claims 1 to 3.
前記車両において探索された探索結果に対する障害物の検出結果をもとに生成された第1情報と、検出された障害物に対する前記車両の動作の推定結果をもとに生成された第2情報とを受信するステップをさらに備え、
前記取得するステップは、受信した第1情報と第2情報とを取得する、
請求項1から3のいずれかに記載のプログラム。
First information generated based on a detection result of an obstacle with respect to a search result searched for in the vehicle, and second information generated based on an estimation result of the operation of the vehicle with respect to the detected obstacle Further comprising the step of receiving
The acquiring step acquires the received first information and second information.
The program according to any one of claims 1 to 3.
前記表示部に表示させた映像において、複合現実UIが非重畳の部分を選択するための指示を受けつけるステップをさらに備え、
前記取得するステップは、受けつけた指示において示された部分に対する新たな第1情報と新たな第2情報とを取得する、
請求項1から5のいずれかに記載のプログラム。
In the image displayed on the display unit, the method further comprises the step of accepting an instruction for selecting a non-overlapping portion by the mixed reality UI.
The acquiring step acquires new first information and new second information for the portion indicated in the received instruction.
The program according to any one of claims 1 to 5.
前記車両の位置情報と、前記車両の方位情報とを受信するステップと、
前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とを検出するステップと、
前記車両の位置情報と、前記車両の方位情報と、前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とをもとに、前記端末装置の撮像部の視点に、前記車両の撮像部で撮像された映像を投影変換するステップとをさらに備え、
前記重畳するステップは、前記端末装置の撮像部で撮像した映像に対して、投影変換した映像と複合現実UIとを重畳する、
請求項1から6のいずれかに記載のプログラム。
Receiving position information of the vehicle and heading information of the vehicle;
Detecting position information of the terminal device and orientation information of an imaging unit of the terminal device;
Based on the position information of the vehicle, the direction information of the vehicle, the position information of the terminal device, and the direction information of the imaging unit of the terminal device, in the viewpoint of the imaging unit of the terminal device And projecting the image captured by the imaging unit.
The superimposing step superimposes the projection-converted video and the mixed reality UI on the video captured by the imaging unit of the terminal device.
The program according to any one of claims 1 to 6.
前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とを検出するステップと、
検出した前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とを送信するステップと、
前記車両の位置情報と、前記車両の方位情報と、前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とをもとに、前記端末装置の撮像部の視点に、前記車両の撮像部で撮像された映像が投影変換されており、投影変換された映像を受信するステップをさらに備え、
前記重畳するステップは、前記端末装置の撮像部で撮像した映像に対して、投影変換された映像と複合現実UIとを重畳する、
請求項1から6のいずれかに記載のプログラム。
Detecting position information of the terminal device and orientation information of an imaging unit of the terminal device;
Transmitting the detected position information of the terminal device and the azimuth information of the imaging unit of the terminal device;
Based on the position information of the vehicle, the direction information of the vehicle, the position information of the terminal device, and the direction information of the imaging unit of the terminal device, in the viewpoint of the imaging unit of the terminal device The image captured by the imaging unit is project-transformed, and the method further comprises the step of receiving the project-transformed video,
The superimposing step superimposes the projection-converted video and the mixed reality UI on the video captured by the imaging unit of the terminal device.
The program according to any one of claims 1 to 6.
自動駐車させるべき車両に搭載された駐車支援装置であって、
端末装置の撮像部で撮像した映像に対して、前記車両に対して検出された障害物の位置に、当該障害物に対して推定された前記車両の動作が示された複合現実UIが重畳されるとともに、複合現実UIを重畳した映像が前記端末装置の表示部に表示されており、前記表示部に表示させた映像に重畳した複合現実UIに対して、前記車両の動作を変更させるための指示を前記端末装置が受けつけた場合に、変更後の前記車両の動作に関する情報を前記端末装置から受信する通信部と、
前記通信部において受信した情報であって、かつ変更後の前記車両の動作に関する情報を反映させて駐車経路を生成する駐車経路生成部と、
を備える駐車支援装置。
A parking assistance device mounted on a vehicle to be automatically parked,
The mixed reality UI showing the operation of the vehicle estimated for the obstacle is superimposed on the image captured by the imaging unit of the terminal device at the position of the obstacle detected for the vehicle And a video on which the mixed reality UI is superimposed is displayed on the display unit of the terminal device, and the operation of the vehicle is changed with respect to the mixed reality UI superimposed on the video displayed on the display unit. A communication unit that receives, from the terminal device, information related to the operation of the vehicle after the change when the terminal device receives an instruction;
A parking path generation unit that generates a parking path by reflecting information received by the communication unit and information related to the operation of the vehicle after the change;
Parking assistance device provided with.
前記車両の動作は、障害物に接触する、障害物を回避する、障害物を乗り越える、のいずれか1つを示す、
請求項9に記載の駐車支援装置。
The operation of the vehicle indicates any one of contact with an obstacle, avoiding an obstacle and overcoming an obstacle.
The parking assistance apparatus of Claim 9.
前記車両の外部を探索する探索部と、
前記探索部における探索結果から障害物を検出する障害物検出部と、
前記障害物検出部において検出した障害物に対する前記車両の動作を推定する動作推定部をさらに備え、
前記通信部は、前記障害物検出部において検出した障害物に関する第1情報と、前記動作推定部において推定した前記車両の動作に関する第2情報とを送信する、
請求項9または10に記載の駐車支援装置。
A search unit for searching the outside of the vehicle;
An obstacle detection unit that detects an obstacle from the search result in the search unit;
It further comprises a motion estimation unit for estimating the motion of the vehicle with respect to the obstacle detected by the obstacle detection unit,
The communication unit transmits first information on an obstacle detected by the obstacle detection unit and second information on an operation of the vehicle estimated by the movement estimation unit.
A parking assistance device according to claim 9 or 10.
前記通信部は、前記表示部に表示させた映像において、複合現実UIが非重畳の部分を選択するための指示を前記端末装置が受けつけた場合に、複合現実UIが非重畳の部分を選択するための指示を前記端末装置から受信し、
前記障害物検出部と前記動作推定部は、前記通信部が受信した指示に応じて、新たな検出処理と新たな推定処理を実行し、
前記通信部は、前記障害物検出部と前記動作推定部において実行した新たな検出処理の結果と新たな推定処理の結果とをもとにした新たな第1情報と新たな第2情報とを送信する、
請求項11に記載の駐車支援装置。
The communication unit selects the non-overlapping portion of the mixed reality UI when the terminal device receives an instruction for selecting the non-overlapping portion of the mixed reality UI in the image displayed on the display unit. Receive instructions for the communication from the terminal device,
The obstacle detection unit and the motion estimation unit execute a new detection process and a new estimation process according to the instruction received by the communication unit,
The communication unit performs new first information and new second information based on the result of the new detection process performed by the obstacle detection unit and the motion estimation unit and the result of the new estimation process. Send,
The parking assistance device according to claim 11.
前記車両の外部を探索する探索部をさらに備え、
前記通信部は、前記探索部における探索結果を送信し、
前記通信部が送信した探索結果から障害物を検出させるとともに、障害物に対する前記車両の動作を推定させる、
請求項9または10に記載の駐車支援装置。
It further comprises a search unit for searching the outside of the vehicle,
The communication unit transmits a search result in the search unit;
As well as detecting an obstacle from the search result transmitted by the communication unit, the operation of the vehicle with respect to the obstacle is estimated.
A parking assistance device according to claim 9 or 10.
前記通信部は、前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とを受信し、
本駐車支援装置は、
前記車両の位置情報と、前記車両の方位情報とを検出する位置・方位検出部と、
前記車両の位置情報と、前記車両の方位情報と、前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とをもとに、前記端末装置の撮像部の視点に、前記車両の撮像部で撮像された映像を投影変換する投影変換部とをさらに備え、
前記通信部は、前記投影変換部において投影変換された映像を送信する、
請求項9に記載の駐車支援装置。
The communication unit receives position information of the terminal device and orientation information of an imaging unit of the terminal device,
The parking assistance device
A position / orientation detection unit that detects the position information of the vehicle and the azimuth information of the vehicle;
Based on the position information of the vehicle, the direction information of the vehicle, the position information of the terminal device, and the direction information of the imaging unit of the terminal device, in the viewpoint of the imaging unit of the terminal device And a projection conversion unit for projecting and converting an image captured by the imaging unit.
The communication unit transmits an image projected and converted by the projection conversion unit.
The parking assistance apparatus of Claim 9.
前記車両の位置情報と、前記車両の方位情報とを検出する位置・方位検出部をさらに備え、
前記通信部は、前記位置・方位検出部において検出した前記車両の位置情報と、前記車両の方位情報とを送信し、
前記通信部が送信した前記車両の位置情報と前記車両の方位情報と、前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とをもとに、前記端末装置の撮像部の視点に、前記車両の撮像部で撮像された映像が投影変換される、
請求項9に記載の駐車支援装置。
It further comprises a position / orientation detection unit for detecting the position information of the vehicle and the azimuth information of the vehicle,
The communication unit transmits position information of the vehicle detected by the position / orientation detection unit and direction information of the vehicle.
The viewpoint of the imaging unit of the terminal device based on the position information of the vehicle, the orientation information of the vehicle, the position information of the terminal device, and the orientation information of the imaging unit of the terminal device transmitted by the communication unit And the image captured by the imaging unit of the vehicle is projection-transformed,
The parking assistance apparatus of Claim 9.
自動駐車させるべき車両に搭載された通信装置と、端末装置と通信可能であるサーバのプログラムであって、
前記車両において探索された探索結果を前記通信装置から受信するステップと、
受信した探索結果から障害物を検出するステップと、
検出した障害物に対する前記車両の動作を推定するステップと、
検出した障害物に関する第1情報と、推定した前記車両の動作に関する第2情報とを前記端末装置に送信するステップと、
をコンピュータに実行させるためのプログラム。
A communication device mounted on a vehicle to be automatically parked, and a program of a server capable of communicating with a terminal device,
Receiving from the communication device a search result searched for in the vehicle;
Detecting an obstacle from the received search result;
Estimating the motion of the vehicle with respect to the detected obstacle;
Transmitting to the terminal device first information related to the detected obstacle and second information related to the estimated operation of the vehicle;
A program to make a computer run.
JP2017201282A 2017-10-17 2017-10-17 Program and parking support device Pending JP2019073190A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017201282A JP2019073190A (en) 2017-10-17 2017-10-17 Program and parking support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017201282A JP2019073190A (en) 2017-10-17 2017-10-17 Program and parking support device

Publications (1)

Publication Number Publication Date
JP2019073190A true JP2019073190A (en) 2019-05-16

Family

ID=66542968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017201282A Pending JP2019073190A (en) 2017-10-17 2017-10-17 Program and parking support device

Country Status (1)

Country Link
JP (1) JP2019073190A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021079892A (en) * 2019-11-22 2021-05-27 トヨタ自動車株式会社 Vehicle travel method, and target position input application
JP2023101499A (en) * 2019-09-06 2023-07-21 トヨタ自動車株式会社 Vehicle control device, vehicle control method and vehicle control program
US12140973B2 (en) 2019-09-06 2024-11-12 Toyota Jidosha Kabushiki Kaisha Vehicle remote instruction system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023101499A (en) * 2019-09-06 2023-07-21 トヨタ自動車株式会社 Vehicle control device, vehicle control method and vehicle control program
JP7525003B2 (en) 2019-09-06 2024-07-30 トヨタ自動車株式会社 Vehicle control device, vehicle control method, and vehicle control program
US12066842B2 (en) 2019-09-06 2024-08-20 Toyota Jidosha Kabushiki Kaisha Vehicle remote instruction system
US12140973B2 (en) 2019-09-06 2024-11-12 Toyota Jidosha Kabushiki Kaisha Vehicle remote instruction system
US12140972B2 (en) 2019-09-06 2024-11-12 Toyota Jidosha Kabushiki Kaisha Vehicle remote instruction system
JP2021079892A (en) * 2019-11-22 2021-05-27 トヨタ自動車株式会社 Vehicle travel method, and target position input application
JP7272243B2 (en) 2019-11-22 2023-05-12 トヨタ自動車株式会社 Vehicle driving method, target position input application

Similar Documents

Publication Publication Date Title
CN110967011B (en) Positioning method, device, equipment and storage medium
JP6484587B2 (en) Method and system for determining spatial characteristics of a camera
WO2021128777A1 (en) Method, apparatus, device, and storage medium for detecting travelable region
TWI574223B (en) Navigation system using augmented reality technology
US10043314B2 (en) Display control method and information processing apparatus
KR102518534B1 (en) Apparatus and mehtod for recognizing position of vehicle
JP5255674B2 (en) Data transmission operation device and data transmission control method
JP6278927B2 (en) Bridge inspection support device, bridge inspection support method, bridge inspection support system, and program
US20120027305A1 (en) Apparatus to provide guide for augmented reality object recognition and method thereof
US10887565B2 (en) Information processing device and information processing method
CN107771310B (en) Head-mounted display device and processing method thereof
US20130093887A1 (en) Obstacle Detection System and Obstacle Detection Method Thereof
CN111624630A (en) GNSS-based satellite selection method and device, terminal and storage medium
JP2006166295A (en) Control system, controlled device suited to the system and remote control device
JP2021520540A (en) Camera positioning methods and devices, terminals and computer programs
JP2008026253A (en) Device and program for photographing periphery of vehicle and for transmitting
JP6145563B2 (en) Information display device
JP2019073190A (en) Program and parking support device
KR20190052709A (en) Magnetic position estimation method and magnetic position estimation apparatus
JP2014053795A (en) Information processor and information processing system
US20120281102A1 (en) Portable terminal, activity history depiction method, and activity history depiction system
US20130155211A1 (en) Interactive system and interactive device thereof
US10735902B1 (en) Method and computer program for taking action based on determined movement path of mobile devices
CN115460539A (en) Method, device, medium and program product for acquiring electronic fence
KR101302363B1 (en) Electronic device and method for controlling of the same

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180417