JP2019073190A - Program and parking support device - Google Patents
Program and parking support device Download PDFInfo
- Publication number
- JP2019073190A JP2019073190A JP2017201282A JP2017201282A JP2019073190A JP 2019073190 A JP2019073190 A JP 2019073190A JP 2017201282 A JP2017201282 A JP 2017201282A JP 2017201282 A JP2017201282 A JP 2017201282A JP 2019073190 A JP2019073190 A JP 2019073190A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- information
- unit
- obstacle
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本開示は、駐車支援技術、特に駐車を支援するプログラムおよび駐車支援装置に関する。 The present disclosure relates to parking assistance technology, in particular, a program for assisting parking and a parking assistance apparatus.
車両を狭いスペースに駐車させる場合などに運転者の操作を補助する運転支援システムとして、車両を遠隔操作するシステムが提案されている。これでまでの運転支援システムでは、リモコン送信装置による車両操作が実現可能であるが、ボタン操作が煩雑であるとともに、操作者自身の移動が必要である。このような運転支援システムにおける操作性を改良するために、車両は、生成した俯瞰画像を携帯型遠隔操作装置に送信し、携帯型遠隔操作装置は、俯瞰画像を表示するとともに、俯瞰画像上への経路の入力を受けつける。 A system for remotely operating a vehicle has been proposed as a driving support system that assists the driver's operation when parking the vehicle in a narrow space or the like. In the driving support system up to now, the vehicle operation by the remote control transmission device can be realized, but the button operation is complicated and the movement of the operator itself is necessary. In order to improve the operability in such a driving support system, the vehicle transmits the generated overhead image to the portable remote control device, and the portable remote control device displays the overhead image and onto the overhead image. Accept the input of the route.
低い高さの低障害物には、接触すべき輪留め、踏んではいけないプランタ、乗り越えるべき駐車場のフラップなどがあり、その種類に応じた経路を生成すべきである。一方、低障害物の種類を自動検出する場合、自動検出の結果が誤ることもあるので、それを修正する機能が望まれる。 The low obstacles of low height include a loop to be touched, a planter which should not be stepped on, a flap of a parking lot to be overcome, etc., and a route according to the type should be generated. On the other hand, when the type of the low obstacle is automatically detected, the result of the automatic detection may be erroneous, so a function of correcting the result is desired.
本開示はこうした状況に鑑みなされたものであり、その目的は、遠隔操作による自動駐車に適した処理を実行する技術を提供することにある。 This indication is made in view of such a situation, and the object is to provide art which performs processing suitable for automatic parking by remote control.
上記課題を解決するために、本開示のある態様のプログラムは、車両に搭載された通信装置と通信可能な端末装置でのプログラムであって、車両により検出された障害物に関する第1情報と、車両の当該障害物に対する動作に関する第2情報とを取得するステップと、端末装置の撮像部で撮像した映像に対して、第2情報における動作が示された複合現実UIを、第1情報において示された障害物の位置に重畳するステップと、複合現実UIが重畳された映像を端末装置の表示部に表示させるステップと、表示部に表示させた映像に重畳した複合現実UIに対して、車両の動作を指定させるための指示を受けつけるステップと、受けつけた動作の指定の指示を通信装置に送信するステップと、をコンピュータに実行させる。 In order to solve the above problems, a program according to an aspect of the present disclosure is a program in a terminal device capable of communicating with a communication device mounted on a vehicle, and first information related to an obstacle detected by the vehicle; In the first information, a mixed reality UI in which an operation in the second information is shown in the step of acquiring the second information on the operation of the vehicle with respect to the obstacle and the image captured by the imaging unit of the terminal device The step of superimposing on the position of the obstacle, the step of displaying the image on which the mixed reality UI is superimposed on the display unit of the terminal device, and the vehicle on the mixed reality UI superimposed on the image displayed on the display unit And causing the computer to execute the steps of: receiving an instruction for specifying the operation of and transmitting the instruction for specifying the received operation to the communication device.
本開示の別の態様は、駐車支援装置である。この装置は、自動駐車させるべき車両に搭載された駐車支援装置であって、端末装置の撮像部で撮像した映像に対して、車両に対して検出された障害物の位置に、当該障害物に対して推定された車両の動作が示された複合現実UIが重畳されるとともに、複合現実UIを重畳した映像が端末装置の表示部に表示されており、表示部に表示させた映像に重畳した複合現実UIに対して、車両の動作を変更させるための指示を端末装置が受けつけた場合に、変更後の車両の動作に関する情報を端末装置から受信する通信部と、通信部において受信した情報であって、かつ変更後の車両の動作に関する情報を反映させて駐車経路を生成する駐車経路生成部と、を備える。 Another aspect of the present disclosure is a parking assistance device. This device is a parking assistance device mounted on a vehicle to be automatically parked, and for an image captured by an imaging unit of a terminal device, the obstacle is detected at the position of an obstacle detected for the vehicle. The mixed reality UI showing the motion of the vehicle estimated is superimposed, and a video on which the mixed reality UI is superimposed is displayed on the display unit of the terminal device, and is superimposed on the video displayed on the display unit. When the terminal device receives an instruction to change the operation of the vehicle to the mixed reality UI, the communication unit receives information on the operation of the vehicle after the change from the terminal device, and the information received by the communication unit And a parking path generation unit that generates a parking path by reflecting information related to the operation of the vehicle after the change.
本開示のさらに別の態様もまた、プログラムである。このプログラムは、自動駐車させるべき車両に搭載された通信装置と、端末装置と通信可能であるサーバのプログラムであって、車両において探索された探索結果を通信装置から受信するステップと、受信した探索結果から障害物を検出するステップと、検出した障害物に対する車両の動作を推定するステップと、検出した障害物に関する第1情報と、推定した車両の動作に関する第2情報とを端末装置に送信するステップと、をコンピュータに実行させる。 Yet another aspect of the present disclosure is also a program. This program is a program of a communication device mounted on a vehicle to be automatically parked and a server program capable of communicating with a terminal device, receiving the search results searched for in the vehicle from the communication device, and the received search The step of detecting an obstacle from the result, the step of estimating the operation of the vehicle with respect to the detected obstacle, the first information about the detected obstacle, and the second information about the estimated operation of the vehicle are transmitted to the terminal device Have the computer execute the steps.
なお、以上の構成要素の任意の組合せ、本開示の表現を装置、システム、方法、プログラム、プログラムを記録した記録媒体、本装置を搭載した車両などの間で変換したものもまた、本開示の態様として有効である。 In the present disclosure, any combination of the above components, the expression of the present disclosure converted between an apparatus, a system, a method, a program, a recording medium recording the program, a vehicle equipped with the present apparatus, etc. It is effective as an aspect.
本開示によれば、遠隔操作による自動駐車に適した処理を実行できる。 According to the present disclosure, processing suitable for automatic parking by remote control can be performed.
(実施の形態1)
本実施形態を具体的に説明する前に、概要を述べる。本実施の形態は、車両の駐車を支援する駐車支援システムに関する。ここでは、携帯電話装置、スマートフォン等の端末装置を所持した運転者が車両の外部に存在する状況下において、駐車支援装置を搭載した車両が自動駐車を実行することを前提とする。車両には、カメラ等の撮像部とソナーが備えられており、それらによって障害物が探索される。駐車支援装置は、障害物の探索結果を反映しながら駐車経路を生成し、駐車経路にそって車両を移動させる。このような駐車の状況下において、高さ10cm程度の低い障害物(以下、「低障害物」という)として、輪留め、プランタ、駐車場のフラップ等が検出されうる。輪留めを検出した場合、駐車支援装置は、輪留めに車両のタイヤを接触させるように駐車経路を生成すべきである。また、プランタを検出した場合、駐車支援装置は、プランタを踏まないように避けるような駐車経路を生成すべきである。さらに、フラップを検出した場合、駐車支援装置は、フラップを乗り越えるような駐車経路を生成すべきである。つまり、駐車支援装置は、低障害物の種類に応じて車両の動作を変えなければならず、低障害物の種類の特定が重要になる。一方、撮像部とソナーには誤検出が発生しうる。
Embodiment 1
Before specifically describing the present embodiment, an outline will be described. The present embodiment relates to a parking assistance system for assisting parking of a vehicle. Here, it is assumed that the vehicle equipped with the parking assist device executes automatic parking under a situation where a driver who possesses a terminal device such as a mobile telephone device or a smartphone exists outside the vehicle. The vehicle is provided with an imaging unit such as a camera and a sonar, and an obstacle is searched for by these. The parking assistance apparatus generates a parking path while reflecting a search result of an obstacle, and moves the vehicle along the parking path. Under such a parking situation, a loop stop, a planter, a flap of a parking lot, etc. can be detected as a low obstacle about 10 cm high (hereinafter referred to as "low obstacle"). If a clasp is detected, the parking assistance device should generate a parking path so that the clasp is in contact with the vehicle's tire. Also, if a planter is detected, the parking assistance device should generate a parking path that avoids stepping on the planter. In addition, if a flap is detected, the parking assistance device should generate a parking path over the flap. That is, the parking assistance device must change the operation of the vehicle according to the type of low obstacle, and the identification of the type of low obstacle becomes important. On the other hand, false detection may occur in the imaging unit and the sonar.
このような状況下において低障害物の種類を正確に特定するために、本実施例に係る駐車支援システムは次の処理を実行する。車両の撮像部(以下、「車載カメラ」という)とソナーで低障害物が探索される。端末装置は、探索結果を受信し、探索結果から低障害物を検出するとともに、それの種類に応じた車両の動作を特定する。端末装置は、撮像した映像に対して、特定された車両の動作が示されるUI(User Interface)を、低障害物の位置に重畳させて表示装置に表示する。この表示により、運転者は、低障害物に対する車両の動作を認識できる。 In order to accurately identify the type of low obstacle under such circumstances, the parking assistance system according to the present embodiment performs the following process. Low obstacles are searched for by the imaging unit of the vehicle (hereinafter referred to as “in-vehicle camera”) and sonar. The terminal device receives the search result, detects a low obstacle from the search result, and specifies the operation of the vehicle according to the type of the obstacle. The terminal device superimposes a UI (User Interface) in which the operation of the specified vehicle is shown on the captured image on the position of the low obstacle and displays the superimposed image on the display device. By this display, the driver can recognize the operation of the vehicle with respect to the low obstacle.
車両の動作が誤っている場合、運転者は、表示されたUIをタッチして、車両の動作の選択肢を表示させることによって、正しい車両の動作をフリック操作で選択する。一方、低障害物が存在するにもかかわらずUIが表示されていない場合、当該低障害物は未検出であるので、運転者は、表示された低障害物を指定することで検出に参考情報を与え検出性能を高める。車両は、修正された車両の動作も反映させながら駐車経路を生成する。以下、本実施の形態について、図面を参照して詳細に説明する。なお、以下に説明する各実施の形態は一例であり、本開示はこれらの実施の形態により限定されるものではない。 When the operation of the vehicle is erroneous, the driver touches the displayed UI to display the operation options of the vehicle, and selects the correct operation of the vehicle by flick operation. On the other hand, when the UI is not displayed despite the presence of the low obstacle, the low obstacle is not detected, so that the driver designates the displayed low obstacle to detect the reference information. To improve detection performance. The vehicle generates a parking path while also reflecting the modified vehicle behavior. Hereinafter, the present embodiment will be described in detail with reference to the drawings. In addition, each embodiment described below is an example, and this indication is not limited by these embodiments.
図1は、本実施の形態1に係る駐車支援システム1000の構成を示す。駐車支援システム1000は、端末装置100、車両200を含む。端末装置100は、測位装置116、デジタルコンパス118、撮像部126、表示装置132、操作部134、処理部160を含む。処理部160は、通信部110、取得部112、重畳部114、位置・方位検出部120、撮像I/F128、表示I/F130、操作I/F136、設定部138、制御部150、障害物検出部500、動作推定部502、投影変換部504を含む。位置・方位検出部120は、測位I/F122、コンパスI/F124を含む。
FIG. 1 shows the configuration of a
車両200は、移動制御装置210、駐車支援装置300、測位装置310、デジタルコンパス312、撮像部320、ソナー322を含む。駐車支援装置300は、位置・方位検出部314、探索部324、通信部330、駐車経路生成部332、制御部350を含む。位置・方位検出部314は、測位I/F316、コンパスI/F318を含み、探索部324は、撮像I/F326、ソナーI/F328を含む。ここで、端末装置100の通信部110と駐車支援装置300の通信部330は、無線通信システムにより接続される。なお、これらは、直接接続されてもよく、基地局装置を介して接続されてもよい。
The
運転者は、端末装置100を所持しながら、車両200の外部に存在する。このような状態において、車両200を自動駐車させる場合、運転者は、端末装置100の操作部134に自動駐車実行の指示を入力する。操作部134は、運転者からの操作を受付可能であり、例えば、表示装置132との組合せによってタッチパネルを構成する。操作部134は、運転者からの操作として自動駐車実行の指示を受けつける。操作部134は、受けつけた操作を操作I/F136に出力する。操作I/F136は、操作部134から受けつけた操作が自動駐車実行の指示である場合、自動駐車実行の指示を制御部150に通知するとともに、設定部138経由で通信部110に出力する。制御部150は、操作I/F136から自動駐車実行の指示を受けつけると、自動駐車の処理の実行を開始する。また、通信部110は、操作I/F136から自動駐車実行の指示を受けつけると、自動駐車実行の指示が含まれた信号を駐車支援装置300に送信する。
The driver is present outside the
駐車支援装置300の通信部330は、端末装置100からの信号を受信する。通信部330は、受信した信号に含まれた自動駐車実行の指示を制御部350に出力する。制御部350は、通信部330から自動駐車実行の指示を受けつけると、自動駐車の処理の実行を開始する。撮像部320は車両200に搭載されたカメラである。車両200には複数の撮像部320が搭載されていてもよく、例えば、車両200の前後左右に4つの撮像部320が搭載されてもよい。撮像部320は、車両200の外部の映像を撮像する。ここで、映像は、複数の画像が時系列に並べられることによって構成される。撮像部320は、撮像した映像を撮像I/F326に出力する。
The
ソナー322は車両200に搭載された探知装置である。車両200には複数のソナー322が搭載されてもよい。例えば、車両200の前方と後方にそれぞれ4つのソナー322が搭載され、車両200の前方左側、前方右側、後方左側、後方右側に1つずつのソナー322が搭載されることによって、車両200に合計12個のソナー322が搭載されてもよい。ソナー322は、音波によって物体、例えば低障害物を探索する装置であり、物体との距離を測定することができるものである。ソナー322は、探索結果をソナーI/F328に出力する。
The
撮像I/F326は、撮像部320からの映像を受けつけ、ソナーI/F328は、ソナー322からの探索結果を受けつける。撮像部320において撮像される映像によっても低障害物を探索することが可能であるので、映像を受けつけることも探索結果を受けつけることに相当する。そのため、撮像I/F326とソナーI/F328を含む探索部324は、車両200の外部を探索するといえる。探索部324は、映像および探索結果(以下、これらを「探索結果」と総称する)を通信部330に出力する。
The imaging I /
測位装置310は、GNSS(Global Navigation Satellite System)の衛星から受信した信号をもとに、車両200の位置を測位する。車両200の位置は、例えば、緯度、経度、高度によって示される。測位装置310は、測位した位置の情報(以下、「位置情報」という)を測位I/F316に出力する。デジタルコンパス118は、電子的なセンサーによって地磁気を検知して方位を判定する。ここでは、車両200の前方あるいは後方が向く方位が判定される。この方位は車両200の方位と呼ばれる。デジタルコンパス118は、判定した方位の情報(以下、「方位情報」という)をコンパスI/F318に出力する。
The
測位I/F316は、測位装置310から位置情報を受けつけ、コンパスI/F318は、デジタルコンパス312から方位情報を受けつける。そのため、測位I/F316とコンパスI/F318とを含む位置・方位検出部314は、車両200の位置情報と、車両200の方位情報とを検出するといえる。位置・方位検出部314は、車両200の位置情報と、車両200の方位情報とを通信部330に出力する。
Positioning I /
通信部330は、探索部324から探索結果を受けつけると、探索結果が含まれた信号を端末装置100に送信する。通信部330は、位置・方位検出部314から車両200の位置情報と、車両200の方位情報とを受けつけると、車両200の位置情報と、車両200の方位情報とが含まれた信号を端末装置100に送信する。駐車支援装置300、測位装置310、デジタルコンパス312、撮像部320、ソナー322におけるこれらの処理は、繰り返し実行される。
When
端末装置100の通信部110は、駐車支援装置300からの信号を受信する。信号には、車両200の位置情報と、車両200の方位情報が含まれていたり、探索結果が含まれていたりする。通信部110は、探索結果を障害物検出部500に出力するとともに、探索結果のうちの映像と、車両200の位置情報と、車両200の方位情報とを投影変換部504に出力する。測位装置116は、測位装置310と同様であり、デジタルコンパス118は、デジタルコンパス312と同様である。ここで、測位装置116は、端末装置100の位置を測位し、デジタルコンパス118は、撮像部126の向く方位を判定する。
The communication unit 110 of the
測位I/F122は、測位I/F316と同様であり、コンパスI/F124は、コンパスI/F318と同様である。測位I/F122は、測位装置116からの位置情報を受けつけるとともに、コンパスI/F124は、デジタルコンパス118からの方位情報を受けつける。そのため、測位I/F122とコンパスI/F124とを含む位置・方位検出部120は、端末装置100の位置情報と撮像部126の方位情報とを検出するといえる。位置・方位検出部120は、端末装置100の位置情報と撮像部126の方位情報とを投影変換部504、重畳部114に出力する。
Positioning I / F 122 is similar to positioning I /
投影変換部504は、車両200の位置情報と、車両200の方位情報と、端末装置100の位置情報と、撮像部126の方位情報とを受けつけるとともに、車両200の撮像部320において撮像された映像(以下、「車両200の映像」という)を受けつける。ここでは、投影変換部504の処理を説明するために、図2を使用する。図2は、投影変換部504における処理の概要を示す。これは、車両200を上方から見た上面図である。車両200の後方には、他車両220と総称される第1他車両220aと第2他車両220bとが並列に駐車されており、それらの間には駐車領域230が配置される。ここでは、車両200を駐車領域230に駐車させる場合を想定する。また、車両200の外側には運転者50が存在しており、運転者50は端末装置100を所持する。ここで、端末位置180は、端末装置100の位置情報を示し、端末方位182は、撮像部126の方位情報を示し、車両位置280は、車両200の位置情報を示し、車両方位282は、車両200の方位情報を示す。
The
投影変換部504は、車両200を基準とした座標系に空間モデル600を生成する。空間モデル600とは、車両200の映像を3次元空間座標系にマッピングする曲面からなるモデルである。図示のごとく、空間モデル600は円筒形状を有する曲面からなり、その内側の面に車両200の映像がマッピングされる。ここで、車両200の映像に含まれる画像を構成する各画素の位置は、撮像部320を含むU−V平面上の座標として示される。投影変換部504は、U−V座標系の座標として示される画素をワールド座標系における座標に変換する。また、投影変換部504は、車両位置280、車両方位282、画素のワールド座標から、画素の空間モデル600への投影点を計算する。さらに、投影変換部504は、空間モデル600の投影点に画素の色データをマッピングする。
The
投影変換部504は、空間モデル600にマッピングされた映像を、端末位置180と端末方位182から投影した映像に変換する。以下では、このように投影変換された映像を「投影変換映像」ということもある。つまり、投影変換部504は、車両200の位置情報と方位情報と、端末装置100の位置情報と、撮像部126の方位情報とをもとに、撮像部126の視点に、車両200の映像を投影変換する。図1に戻る。投影変換部504は、投影変換映像と、車両200の映像と投影変換映像との座標の対応関係を重畳部114に出力する。
The
障害物検出部500は、通信部110から探索結果を受けつける。障害物検出部500は、探索結果から障害物を検出する。ここでは、障害物のうち、低障害物を処理対象として説明する。障害物検出部500における低障害物の検出は、低障害物の位置と、低障害物の形状とを検出することを含む。また、低障害物の位置は、車両200の映像上の座標として示されるとともに、緯度・経度・高度でも示される。障害物検出部500における処理に公知の技術が使用されればよいので、ここでは説明を省略する。障害物検出部500は、検出した低障害物の位置に関する情報(以下、「第1情報」という)を取得部112に出力し、検出した低障害物の形状に関する情報を動作推定部502に出力する。
The
動作推定部502は、障害物検出部500から低障害物の形状に関する情報を受けつける。動作推定部502は、低障害物の形状と車両200の動作との対応関係が示されたテーブルを予め記憶する。テーブルでは、例えば、「輪留め」の形状と「低障害物に接触」の動作とが対応づけられ、「プランタ」の形状と「低障害物を回避する」動作とが対応づけられ、「フラップ」の形状と「低障害物を乗り越える」動作とが対応づけられている。なお、テーブルの内容はこれらに限定されない。動作推定部502は、テーブルに含まれた複数種類の形状から、受けつけた低障害物の形状に最も近い形状を選択する。当該選択には公知の技術が使用されればよい。また、動作推定部502は、選択した形状に対応した動作をテーブルから特定する。これは、検出した低障害物に対する車両200の動作を推定することに相当する。動作推定部502は、車両200の動作に関する情報(以下、「第2情報」という)を取得部112に出力する。
The
取得部112は、障害物検出部500から第1情報を受けつけるとともに、動作推定部502から第2情報を受けつける。第2情報は、車両200の動作として、低障害物に接触する、低障害物を回避する、低障害物を乗り越える、のいずれか1つを示す。取得部112は、第1情報と第2情報との組合せを障害物情報として重畳部114、設定部138に出力する。撮像部126は、撮像部320と同様であり、撮像I/F128は、撮像I/F326と同様である。撮像I/F128は、撮像部126において撮像された映像(以下、「端末装置100の映像」という)を重畳部114に出力する。
The acquisition unit 112 receives the first information from the
重畳部114は、取得部112からの障害物情報を受けつけ、撮像I/F128からの端末装置100の映像を受けつけ、投影変換部504からの投影変換映像を受けつける。また、重畳部114は、車両200の映像と投影変換映像との座標の対応関係を投影変換部504から受けつける。重畳部114は、対応関係を利用して、障害物情報における第1情報で示された位置を座標変換する。座標変換された位置は、端末装置100の映像における低障害物の位置を示す。また、重畳部114は、低障害物の位置の近傍の領域を投影変換映像から抽出する。重畳部114は、端末装置100からの映像に対して、抽出した投影変換映像(以下、「抽出投影変換映像」という)を、位置を合わせながら重畳する。重畳部114は、抽出投影変換映像を重畳した映像における低障害物の位置に、車両200の動作が示されたアイコン(以下、「複合現実UI」という)を重畳する。重畳部114は、抽出投影変換映像と複合現実UIとが重畳された映像(以下、「重畳映像」という)を表示I/F130に出力する。表示I/F130は、重畳映像を表示装置132に表示させる。表示装置132は、重畳映像を表示する。
The
図3は、表示装置132に表示される映像を示す。これは、図2に示された状況を示す。表示装置132には重畳映像が示されており、重畳映像には第1他車両220aと第2他車両220bとが含まれる。また、第1他車両220aと第2他車両220bとの間には、抽出投影変換映像622が配置される。抽出投影変換映像622には輪留め630が含まれ、輪留め630を指し示すように複合現実UI620が配置される。複合現実UI620には、「Appr.」の文字メッセージが示されているが、これは「低障害物に接触(Approach)」を意味する。
FIG. 3 shows an image displayed on the
図4a−図4bは、表示装置132に表示される別の映像を示す。図3において第1他車両220a上に抽出投影変換映像622が重畳されているので、第1他車両220aの一部が欠けている。この欠けを防止するために、障害物検出部500が他車両220等の障害物を検出した場合に、重畳部114は、抽出投影変換映像622にマスク処理を施すことによって、障害物上に抽出投影変換映像622を重畳させなくてもよい。図4は、このような処理がなされた表示を示す。図示のごとく、第1他車両220aの一部は欠けていない。
4a-4b illustrate another image displayed on
図1の障害物検出部500は、車両200から低障害物までの距離を測定してもよい。距離の測定には公知の技術が使用されればよいので、ここでは説明を省略する。障害物検出部500は、測定した距離の情報(以下、「距離情報」という)も第1情報に含めて取得部112に出力する。そのため、取得部112が取得した第1情報には、車両200から低障害物までの距離情報も含まれる。重畳部114は、第1情報に含まれた距離情報も重畳する。図4bは、このような処理がなされた表示を示す。複合現実UI620の上方に距離情報624が示される。図1に戻る。
The
運転者は、図3、図4a−図4bのような表示装置132の複合現実UI620を見て車両200の動作を正しいと判断した場合、図3、図4a−図4bに示されたOKボタン626に触れる。端末装置100の操作部134は、OKボタン626が触れられることによるOKの指示を受けつける。操作部134は、受けつけたOKの指示を操作I/F136に出力する。操作I/F136は、OKの指示を設定部138に出力する。設定部138は、OKの指示を受けつけると、取得部112から受けつけた障害物情報を通信部110に出力する。
When the driver sees the
一方、運転者は、表示装置132の複合現実UI620を見て車両200の動作を正しくないと判断した場合、次の操作を実行する。図5a−図5mは、表示装置132に表示され、操作部134によって操作される複合現実UI620を示す。図5aは、プランタ632に対する複合現実UI620において、「Appr.」の文字メッセージが示されている場合を示す。本来、プランタ632に対する車両200の動作は「低障害物を回避する」であるので、文字メッセージとして「Guard」が示されなければならない。
On the other hand, when the driver sees the
その際、運転者は、プランタ632あるいは複合現実UI620に触れる。端末装置100の操作部134は、プランタ632あるいは複合現実UI620が触れられることによって複数の行動の表示の指示を受けつける。操作I/F136は、複数の行動の表示の指示を設定部138に出力する。設定部138は、複数の行動の表示の指示を受けつけると、取得部112を介して重畳部114に対して、複合現実UI620において複数の行動を表示することを指示する。これに応じて、重畳部114、表示I/F130、表示装置132は、図5bのように、複合現実UI620において、「Appr.」、「Guard」、「Over」の文字メッセージを表示させる。なお、「Over」の文字メッセージは「低障害物を乗り越える」を意味する。
At this time, the driver touches the
運転者は、図5cのように、「Guard」をフリック操作によって選択する。その結果、図5dのように、プランタ632に対する複合現実UI620において、「Guard」の文字メッセージが示される。端末装置100の操作部134は、このような操作によって、車両200の動作を変更させるための指示(以下、「変更指示」という)を受けつける。変更指示では、「Appr.」から「Guard」への変更が示される。操作部134は、受けつけた変更指示を操作I/F136に出力する。操作I/F136は、変更指示を設定部138に出力する。設定部138は、変更指示を受けつけると、取得部112から受けつけた障害物情報を変更指示に応じて変更する。
The driver selects "Guard" by flicking operation as shown in FIG. 5c. As a result, as shown in FIG. 5 d, in
図5eは、フラップ634に対する複合現実UI620において、「Appr.」の文字メッセージが示されている場合を示す。本来、フラップ634に対する車両200の動作は「低障害物を乗り越える」であるので、文字メッセージとして「Over」が示されなければならない。そのため、運転者がこれまでと同様の操作を実行することによって、図5f、図5g、図5hと遷移する。この場合、変更指示では、「Appr.」から「Over」への変更が示される。
FIG. 5 e shows the case where the text message “Appr.” Is shown in the
これまでの説明では、障害物検出部500において低障害物が検出されていることを前提にしている。一方、障害物検出部500において低障害物が検出されない場合もある。図5iのように、表示装置132には、輪留め630が表示されているが、当該輪留め630に対する複合現実UI620は表示されていない。その際、運転者は、輪留め630に触れる。端末装置100の操作部134は、輪留め630が触れられることによって再検出の指示を受けつける。再検出の指示は、映像において、複合現実UI620が非重畳の部分を選択するための指示であるといえる。操作I/F136は、再検出の指示を設定部138に出力する。設定部138は、再検出の指示を受けつけると、障害物検出部500に再検出を指示する。
The above description assumes that the
障害物検出部500は、指示を受けつけると、輪留め630の周囲の一定範囲のみを対象にして、低障害物の検出処理を実行する。その際、障害物検出部500は、検出がされやすくなるように検出のパラメータを変更する。障害物検出部500において輪留め630が検出された場合、動作推定部502、取得部112、重畳部114、表示I/F130、表示装置132はこれまでと同様の処理を実行する。つまり、取得部112は、受けつけた指示において示された部分に対する新たな第1情報と新たな第2情報とを取得する。その結果、表示装置132には、図5jのように、輪留め630に対する複合現実UI620が表示される。
When the
図5kから図5mも、図5iから図5jと同様の状況に対する処理であるが、障害物検出部500において再検出させるべき領域を図5mのようにスワイプ操作で指定することが、図5jとは異なる。その際、スワイプ操作で指定された線分が対角線となる矩形領域が、再検出させるべき領域とされる。図1に戻る。
5k to 5m are also processing for the same situation as FIG. 5i to FIG. 5j, but specifying the area to be re-detected by the
端末装置100の通信部110は、障害物情報を設定部138から受けつける。障害物情報には、変更後の車両200の動作に関する情報も含まれる。通信部110は、障害物情報が含まれた信号を駐車支援装置300に送信する。駐車支援装置300の通信部330は、端末装置100からの信号を受信すると、信号に含まれた障害物情報を駐車経路生成部332に出力する。駐車経路生成部332は、通信部110から障害物情報を受けつけ、位置・方位検出部314から車両200の位置情報と、車両200の方位情報とを受けつけ、探索部324から探索結果を受けつける。駐車経路生成部332は、これらの情報を反映させて、駐車経路を生成する。駐車経路の生成には、公知の技術が使用されればよいので、ここでは説明を省略する。駐車経路生成部332は、駐車経路を移動制御装置210に出力する。移動制御装置210は、駐車経路に沿って車両200を移動させる。
The communication unit 110 of the
以上の構成による駐車支援システム1000の動作を説明する。図6は、駐車支援システム1000における駐車支援手順を示すシーケンス図である。駐車支援装置300は映像を撮像し(S10)、端末装置100も映像を撮像する(S12)。駐車支援装置300は、探索結果を端末装置100に送信する(S14)。駐車支援装置300は位置と方位とを検出し(S16)、端末装置100も位置と方位とを検出する(S18)。駐車支援装置300は、位置情報と方位情報とを端末装置100に送信する(S20)。端末装置100は、低障害物を検出するとともに、車両200の動作を推定する(S22)。端末装置100は、車両200の映像を投影変換し(S24)、投影変換映像と複合現実UI620とを端末装置100の映像に重畳して表示する(S26)。端末装置100は、車両200の動作の変更の指示を受けつける(S28)。端末装置100は、障害物情報を駐車支援装置300に出力する(S30)。駐車支援装置300は、駐車経路を生成する(S32)。
The operation of the
図7は、端末装置100における送信手順を示すフローチャートである。通信部110は、車両200の位置情報と、車両200の方位情報とを受信する(S50)。位置・方位検出部120は、端末装置100の位置情報と、端末装置100の方位情報とを検出する(S52)。障害物検出部500は低障害物を検出し、動作推定部502は車両200の動作を推定する(S54)。重畳部114は、低障害物の状況を重畳して表示する(S56)。運転者による操作がなければ(S58のN)、ステップ50に戻る。運転者による操作がある場合(S58のY)に、操作が決定でなければ(S60のN)、設定部138は、低障害物判定を修正して(S62)、ステップ50に戻る。操作が決定であれば(S60のY)。通信部110は障害物情報を送信する(S64)。
FIG. 7 is a flowchart showing a transmission procedure in the
図8は、端末装置100における別の送信手順を示すフローチャートである。通信部110は、車両200の位置情報と、車両200の方位情報とを受信する(S100)。位置・方位検出部120は、端末装置100の位置情報と、端末装置100の方位情報とを検出する(S102)。障害物検出部500は低障害物を検出し、動作推定部502は車両200の動作を推定する(S104)。重畳部114は、低障害物の状況を重畳して表示する(S106)。運転者による操作がなければ(S108のN)、ステップ100に戻る。運転者による操作がある場合(S108のY)に、操作が決定でなく(S110のN)、複合現実UI620の操作であれば(S112のY)、設定部138は、低障害物判定を修正して(S114)、ステップ100に戻る。複合現実UI620の操作でなければ(S112のN)、障害物検出部500は、手動による低障害物検出を実行して(S116)、ステップ106に戻る。操作が決定であれば(S110のY)。通信部110は障害物情報を送信する(S118)。
FIG. 8 is a flowchart showing another transmission procedure in the
図9は、端末装置100における低障害物状況重畳表示手順を示すフローチャートである。これは、図7のステップ56、図8のステップ106の処理に相当する。投影変換部504は、車両200の映像を、車両200の位置と向き、端末装置100の位置と向きに基づき、端末装置100の視点からの映像に投影変換する(S150)。重畳部114は、端末装置100の映像の一部に抽出投影変換映像を重畳する(S152)。重畳部114は、判別された低障害物の位置、車両200の位置と向き、端末装置100の位置と向きに基づき、端末装置100の映像に映っている低障害物の映像上での座標を算出する(S154)。重畳部114は、判別に基づき複合現実UI620を生成する(S156)。重畳部114は、複合現実UI620を座標に重畳する(S158)。
FIG. 9 is a flowchart showing the low obstacle condition superimposed display procedure in the
図10は、端末装置100における別の低障害物状況重畳表示手順を示すフローチャートである。これも、図7のステップ56、図8のステップ106の処理に相当する。投影変換部504は、車両200の映像を、車両200の位置と向き、端末装置100の位置と向きに基づき、端末装置100の視点からの映像に投影変換する(S200)。重畳部114は、抽出投影変換映像を、車両200の周辺の障害物の三次元空間での配置に基づいて、障害物で隠される部分に関してマスク処理を実行する(S202)。重畳部114は、端末装置100の映像の一部に抽出投影変換映像を重畳する(S204)。重畳部114は、判別された低障害物の位置、車両200の位置と向き、端末装置100の位置と向きに基づき、端末装置100の映像に映っている低障害物の映像上での座標を算出する(S206)。重畳部114は、判別に基づき複合現実UI620を生成する(S208)。重畳部114は、複合現実UI620を座標に重畳する(S210)。
FIG. 10 is a flowchart showing another low obstacle situation superimposed display procedure in the
図11は、端末装置100におけるさらに別の低障害物状況重畳表示手順を示すフローチャートである。これも、図7のステップ56、図8のステップ106の処理に相当する。投影変換部504は、判別された低障害物の位置、車両200の位置と向き、端末装置100の位置と向きに基づき、端末装置100の映像に映っている判別された低障害物の映像上での座標を算出する(S250)。重畳部114は、判別に基づき複合現実UI620を生成する(S252)。重畳部114は、複合現実UI620を座標に重畳する(S254)。障害物検出部500は、判別された低障害物の位置、車両200の位置と向きに基づき、判別された低障害物と車両200の後端の間の距離を算出する(S256)。障害物検出部500は、距離に基づき距離情報を生成する(S258)。重畳部114は、距離情報を映像の座標に重畳する(S260)。
FIG. 11 is a flowchart showing yet another low obstacle situation superimposed display procedure in the
本実施の形態によれば、遠隔操作による自動駐車における物体検出の未検出/誤検出を端末装置の表示装置に複合現実表示して修正するので操作性をよくできる。また、高さの低い輪留め/低障害物/段差は検出による判別が難しいにも関わらず、その判別によって駐車経路が異なっており、フリック操作で所定の選択肢を選択するので、正しい選択を実行できる。また、検出による判別が難しい高さの低い輪留め/低障害物/段差の誤検出をフリック操作で修正するので、簡便な操作で迅速に修正できる。 According to the present embodiment, the undetected / false detection of object detection in automatic parking by remote control is corrected by displaying the mixed reality on the display device of the terminal device, and operability can be improved. In addition, despite the fact that detection is difficult due to detection of low height looped / low obstacle / step differences, the parking path is different depending on the judgment, and a predetermined option is selected by flick operation, so the correct selection is performed. it can. In addition, since the false detection of the low-level looped / low obstacle / step difference which is difficult to detect by detection is corrected by the flick operation, it is possible to quickly correct it by a simple operation.
また、表示された映像に重畳した複合現実UIに対して、車両の動作を変更させるための指示を受けつけ、受けつけた変更の指示を駐車支援装置に送信するので、低障害物の種類の検出結果を修正できる。また、低障害物に接触する、低障害物を回避する、低障害物を乗り越える、のいずれか1つを別の1つに変更させるので、推定された動作を、低障害物に対して適した動作に修正できる。また、映像に距離情報も重畳されるので、車両から低障害物までの距離を運転者に知らせることができる。 In addition, the mixed reality UI superimposed on the displayed image receives an instruction to change the operation of the vehicle, and transmits the received change instruction to the parking assistance apparatus, so that the detection result of the type of low obstacle is You can correct In addition, the estimated operation is suitable for the low obstacle because one of the low obstacle is contacted, the low obstacle is avoided, and the low obstacle is overcome. Can be corrected to Further, since the distance information is also superimposed on the image, the driver can be notified of the distance from the vehicle to the low obstacle.
また、低障害物を検出してから、検出した低障害物に対する車両の動作を推定するので、低障害物に対する動作を自動的に推定できる。また、複合現実UIが非重畳の部分を選択するための指示を受けつけると、当該部分に対して検出処理と推定処理を再実行するので、未検出であった低障害物を検出できる。また、検出処理と推定処理を再実行する際に、検出されやすくなるようなパラメータを設定するので、未検出であった低障害物を検出しやすくできる。また、検出処理と推定処理を再実行して新たな第1情報と新たな第2情報とを取得するので、未検出であった低障害物の検出結果を修正できる。また、車両の映像を投影変換してから、端末装置の映像に重畳させるので、運転者に見やすい映像を提供できる。 Further, since the motion of the vehicle with respect to the detected low obstacle is estimated after the low obstacle is detected, the motion with respect to the low obstacle can be estimated automatically. In addition, when the mixed reality UI receives an instruction to select a non-overlapping portion, the detection process and the estimation process are re-executed on the portion, so that the low obstacle which has not been detected can be detected. In addition, when re-executing the detection process and the estimation process, parameters that facilitate detection are set, so it is possible to easily detect an undetected low obstacle. In addition, since the detection process and the estimation process are re-executed to acquire new first information and new second information, it is possible to correct the detection result of the undetected low obstacle. In addition, since the image of the vehicle is projected and converted, and then superimposed on the image of the terminal device, it is possible to provide an easy-to-view image for the driver.
また、変更後の車両の動作に関する情報を端末装置から受信した場合、変更後の車両の動作に関する情報を反映させて駐車経路を生成するので、低障害物に対して適切に対応できる。また、低障害物に接触する、低障害物を回避する、低障害物を乗り越える、のいずれか1つが示されるので、低障害物に対して適した動作を反映した駐車経路を生成できる。また、車両の位置情報と、車両の方位情報とを送信して、それらをもとに、車両の撮像部で撮像された映像を投影変換させるので、駐車支援装置の処理量を低減できる。また、探索結果を送信し、探索結果から低障害物を検出させるとともに、低障害物に対する車両の動作を推定させるので、駐車支援装置の処理量を低減できる。 Further, when the information on the operation of the vehicle after the change is received from the terminal device, the information on the operation of the vehicle after the change is reflected to generate the parking path, so that it is possible to appropriately cope with the low obstacle. In addition, any one of the low obstacle touching, avoiding the low obstacle, and overcoming the low obstacle is indicated, so that it is possible to generate a parking path reflecting the operation suitable for the low obstacle. In addition, the position information of the vehicle and the direction information of the vehicle are transmitted, and based on these, the image captured by the imaging unit of the vehicle is projected and converted, so that the processing amount of the parking assistance device can be reduced. Further, the search result is transmitted, and the low obstacle is detected from the search result, and the operation of the vehicle with respect to the low obstacle is estimated, so that the processing amount of the parking assistance device can be reduced.
(実施の形態2)
次に、実施の形態2を説明する。実施の形態2は、実施の形態1と同様に、車両の駐車を支援する駐車支援システムに関し、駐車支援装置と端末装置とを含む。実施の形態1では、障害物検出部、動作推定部、投影変換部が端末装置に含まれているが、実施の形態2では、これらが駐車支援装置に含まれる。ここでは、これまでとの差異を中心に説明する。
Second Embodiment
Next, the second embodiment will be described. Similar to Embodiment 1, Embodiment 2 relates to a parking assistance system for assisting parking of a vehicle, and includes a parking assistance device and a terminal device. In the first embodiment, the obstacle detection unit, the motion estimation unit, and the projection conversion unit are included in the terminal device, but in the second embodiment, these are included in the parking assistance device. Here, we will focus on the differences from the previous ones.
図12は、本実施の形態2に係る駐車支援システム1000の構成を示す。駐車支援システム1000は、端末装置100、車両200を含む。端末装置100は、測位装置116、デジタルコンパス118、撮像部126、表示装置132、操作部134、処理部160を含む。処理部160は、通信部110、取得部112、重畳部114、位置・方位検出部120、撮像I/F128、表示I/F130、操作I/F136、設定部138、制御部150を含む。位置・方位検出部120は、測位I/F122、コンパスI/F124を含む。
FIG. 12 shows the configuration of a
車両200は、移動制御装置210、駐車支援装置300、測位装置310、デジタルコンパス312、撮像部320、ソナー322を含む。駐車支援装置300は、位置・方位検出部314、探索部324、通信部330、駐車経路生成部332、制御部350、障害物検出部500、動作推定部502、投影変換部504を含む。位置・方位検出部314は、測位I/F316、コンパスI/F318を含み、探索部324は、撮像I/F326、ソナーI/F328を含む。
The
測位I/F122とコンパスI/F124とを含む位置・方位検出部120は、これまでと同様に、端末装置100の位置情報と撮像部126の方位情報とを検出する。位置・方位検出部120は、端末装置100の位置情報と撮像部126の方位情報とを通信部110、重畳部114に出力する。通信部110は、位置・方位検出部120から、端末装置100の位置情報と撮像部126の方位情報とを受けつける。通信部110は、端末装置100の位置情報と撮像部126の方位情報とが含まれた信号を駐車支援装置300に送信する。
The position / orientation detection unit 120 including the positioning I / F 122 and the compass I /
駐車支援装置300の通信部330は、端末装置100からの信号を受信する。通信部330は、信号に含まれた端末装置100の位置情報と撮像部126の方位情報とを投影変換部504に出力する。撮像I/F326とソナーI/F328を含む探索部324は、これまでと同様に、車両200の外部を探索する。探索部324は、探索結果を障害物検出部500、投影変換部504に出力する。測位I/F316とコンパスI/F318とを含む位置・方位検出部314は、これまでと同様に、車両200の位置情報と、車両200の方位情報とを検出する。位置・方位検出部314は、車両200の位置情報と、車両200の方位情報とを投影変換部504、通信部330、駐車経路生成部332に出力する。
The
投影変換部504は、位置・方位検出部314から、車両200の位置情報と、車両200の方位情報とを受けつけ、通信部330から、端末装置100の位置情報と撮像部126の方位情報とを受けつけ、探索部324から探索結果を受けつける。投影変換部504は、車両200の位置情報と、車両200の方位情報と、端末装置100の位置情報と、撮像部126の方位情報とをもとに、撮像部126の視点に、車両200の映像を投影変換する。投影変換部504は、投影変換映像と、車両200の映像と投影変換映像との座標の対応関係を通信部330に出力する。通信部330は、これらが含まれた信号を端末装置100に送信する。
The
障害物検出部500は、探索部324から探索結果を受けつける。障害物検出部500は、探索結果から低障害物を検出する。障害物検出部500は、検出した低障害物の位置に関する第1情報を通信部330に出力し、検出した低障害物の形状に関する情報を動作推定部502に出力する。動作推定部502は、障害物検出部500から低障害物の形状に関する情報を受けつける。動作推定部502、検出した低障害物に対する車両200の動作を推定する。動作推定部502は、車両200の動作に関する第2情報を通信部330に出力する。通信部330は、第1情報と第2情報との組合せを障害物情報とし、障害物情報が含まれた信号を端末装置100に送信する。
The
端末装置100の通信部110は、駐車支援装置300からの信号を受信する。取得部112は、通信部110から障害物情報を取得する。重畳部114は、取得部112からの障害物情報を受けつけ、撮像I/F128からの端末装置100の映像を受けつけ、通信部110からの投影変換映像を受けつける。また、重畳部114は、車両200の映像と投影変換映像との座標の対応関係を通信部110から受けつける。重畳部114は、これらを利用して、抽出投影変換映像と複合現実UI620とが端末装置100の映像に重畳された重畳映像を生成する。重畳部114は、重畳映像を表示I/F130に出力する。表示I/F130は、重畳映像を表示装置132に表示させる。表示装置132は、重畳映像を表示する。
The communication unit 110 of the
なお、障害物検出部500において低障害物が検出されない場合、運転者はこれまでと同様の処理を実行する。端末装置100の操作部134は、再検出の指示を受けつけ、再検出の指示を設定部138経由で通信部110に出力する。通信部110は、再検出の指示が含まれた信号を駐車支援装置300に送信する。駐車支援装置300の通信部330は、端末装置100からの信号を受信し、信号に含まれた再検出の指示を障害物検出部500に出力する。障害物検出部500と動作推定部502は、再検出の指示に応じて、新たな検出処理と新たな推定処理を実行する。通信部330は、新たな検出処理の結果と新たな推定処理の結果とをもとにした新たな第1情報と新たな第2情報とを障害物情報として、障害物情報が含まれた信号を端末装置100に送信する。端末装置100の通信部110は、駐車支援装置300からの信号を受信し、信号に含まれた障害物情報を取得部112に出力する。つまり、取得部112は、受けつけた指示において示された部分に対する新たな第1情報と新たな第2情報とを取得する。これに続く処理は、これまでと同様である。
When the
以上の構成による駐車支援システム1000の動作を説明する。図13は、駐車支援システム1000における駐車支援手順を示すシーケンス図である。駐車支援装置300は映像を撮像し(S300)、端末装置100も映像を撮像する(S302)。駐車支援装置300は位置と方位とを検出し(S304)、端末装置100も位置と方位とを検出する(S306)。端末装置100は、位置情報と方位情報とを駐車支援装置300に送信する(S308)。駐車支援装置300は、低障害物を検出するとともに、車両200の動作を推定する(S310)。駐車支援装置300は、車両200の映像を投影変換し(S312)、障害物情報と投影変換映像を端末装置100に送信する(S314)。端末装置100は、投影変換映像と複合現実UI620とを端末装置100の映像に重畳して表示する(S316)。端末装置100は、車両200の動作の変更の指示を受けつける(S318)。端末装置100は、障害物情報を駐車支援装置300に出力する(S320)。駐車支援装置300は、駐車経路を生成する(S322)。
The operation of the
本実施の形態によれば、第1情報と第2情報とを駐車支援装置から受信するので、端末装置において、低障害物の検出処理と動作の推定処理を不要にできる。また、駐車支援装置において生成された投影変換映像を受信するので、端末装置の処理量を低減できる。また、複合現実UIが非重畳の部分を選択するための指示を受けつけると、当該部分に対する新たな第1情報と新たな第2情報とを送信するので、未検出であった低障害物の検出結果を修正できる。また、車両の映像を投影変換してから送信するので、運転者に見やすい映像を提供できる。 According to the present embodiment, since the first information and the second information are received from the parking assistance device, the terminal device can dispense with the detection processing of the low obstacle and the estimation processing of the operation. Further, since the projection conversion video generated in the parking assistance device is received, the processing amount of the terminal device can be reduced. Also, when the mixed reality UI receives an instruction to select a non-overlapping portion, it transmits new first information and new second information for the portion, so detection of a low obstacle which has not been detected is performed. You can correct the result. Further, since the image of the vehicle is subjected to projection conversion and then transmitted, it is possible to provide an easy-to-see image to the driver.
(実施の形態3)
次に、実施の形態3を説明する。実施の形態3は、これまでと同様に、車両の駐車を支援する駐車支援システムに関する。一方、実施の形態3に係る駐車支援システムは、駐車支援装置と端末装置とに加えてサーバも含む。サーバには、障害物検出部、動作推定部、投影変換部が含まれる。ここでは、これまでとの差異を中心に説明する。
Third Embodiment
Next, the third embodiment will be described. The third embodiment relates to a parking assistance system for assisting parking of a vehicle, as described above. On the other hand, the parking assistance system according to the third embodiment includes a server in addition to the parking assistance device and the terminal device. The server includes an obstacle detection unit, a motion estimation unit, and a projection conversion unit. Here, we will focus on the differences from the previous ones.
図14は、本実施の形態3に係る駐車支援システム1000の構成を示す。駐車支援システム1000は、端末装置100、車両200、サーバ400を含む。車両200は、駐車支援装置300を含む。サーバ400は、通信部410、データ交換部412、障害物検出部500、動作推定部502、投影変換部504を含む。サーバ400は、ネットワークを介して、端末装置100、駐車支援装置300と通信可能である。
FIG. 14 shows the configuration of a
サーバ400の通信部410は、端末装置100からの信号を受信するとともに、車両200からの信号を受信する。これにより、通信部410は、端末装置100の位置情報と、端末装置100の撮像部126の方位情報とを端末装置100から受信し、車両200において探索された探索結果を駐車支援装置300から受信する。さらに、通信部410は、車両200の位置情報と、車両200の方位情報とを駐車支援装置300から受信する。データ交換部412は、通信部410に接続されるとともに、障害物検出部500、動作推定部502、投影変換部504とも接続され、これらの間でデータを交換する。
The
投影変換部504は、データ交換部412から、車両200の位置情報と、車両200の方位情報と、端末装置100の位置情報と、撮像部126の方位情報と、探索結果を受けつける。投影変換部504は、車両200の位置情報と、車両200の方位情報と、端末装置100の位置情報と、撮像部126の方位情報とをもとに、撮像部126の視点に、車両200の映像を投影変換する。投影変換部504は、投影変換映像と、車両200の映像と投影変換映像との座標の対応関係をデータ交換部412経由で通信部410に出力する。通信部410は、これらが含まれた信号を端末装置100に送信する。
The
障害物検出部500は、データ交換部412から探索結果を受けつける。障害物検出部500は、探索結果から低障害物を検出する。障害物検出部500は、検出した低障害物の位置に関する第1情報をデータ交換部412経由で通信部410に出力し、検出した低障害物の形状に関する情報を動作推定部502に出力する。動作推定部502は、障害物検出部500から低障害物の形状に関する情報を受けつける。動作推定部502、検出した低障害物に対する車両200の動作を推定する。動作推定部502は、車両200の動作に関する第2情報をデータ交換部412経由で通信部410に出力する。通信部410は、第1情報と第2情報との組合せを障害物情報とし、障害物情報が含まれた信号を端末装置100に送信する。
The
以上の構成による駐車支援システム1000の動作を説明する。図15は、駐車支援システム1000における駐車支援手順を示すシーケンス図である。駐車支援装置300は映像を撮像し(S350)、端末装置100も映像を撮像する(S352)。駐車支援装置300は、探索結果をサーバ400に送信する(S354)。駐車支援装置300は位置と方位とを検出し(S356)、端末装置100も位置と方位とを検出する(S358)。駐車支援装置300は位置情報と方位情報とをサーバ400に送信し(S360)、端末装置100は位置情報と方位情報とをサーバ400に送信する(S362)。サーバ400は、低障害物を検出するとともに、車両200の動作を推定する(S364)。サーバ400は、車両200の映像を投影変換し(S366)、障害物情報と投影変換映像を端末装置100に送信する(S368)。端末装置100は、投影変換映像と複合現実UI620とを端末装置100の映像に重畳して表示する(S370)。端末装置100は、車両200の動作の変更の指示を受けつける(S372)。端末装置100は、障害物情報を駐車支援装置300に出力する(S374)。駐車支援装置300は、駐車経路を生成する(S376)。
The operation of the
本実施の形態によれば、車両の映像を投影変換してから送信するので、運転者に見やすい映像を提供できる。また、投影変換映像の生成をサーバにおいて実行するので、端末装置と駐車支援装置の処理量を低減できる。また、検出された低障害物に対する車両の動作を推定するので、低障害物に対する動作を自動的に推定できる。また、低障害物の検出と車両の動作の推定とをサーバにおいて実行するので、端末装置と駐車支援装置の処理量を低減できる。 According to the present embodiment, since the image of the vehicle is subjected to projection conversion and then transmitted, an image that can be easily viewed by the driver can be provided. In addition, since the generation of the projection conversion video is executed in the server, the processing amount of the terminal device and the parking assistance device can be reduced. Further, since the motion of the vehicle with respect to the detected low obstacle is estimated, the motion with respect to the low obstacle can be automatically estimated. In addition, since the detection of the low obstacle and the estimation of the operation of the vehicle are performed in the server, the throughput of the terminal device and the parking assistance device can be reduced.
以上、本開示に係る実施の形態について図面を参照して詳述してきたが、上述した装置や各処理部の機能は、コンピュータプログラムにより実現されうる。上述した機能をプログラムにより実現するコンピュータは、キーボードやマウス、タッチパッドなどの入力装置、ディスプレイやスピーカなどの出力装置、CPU(Central Processing Unit)、ROM、RAM、ハードディスク装置やSSD(Solid State Drive)などの記憶装置、DVD−ROM(Digital Versatile Disk Read Only Memory)やUSBメモリなどの記録媒体から情報を読み取る読取装置、ネットワークを介して通信を行うネットワークカードなどを備え、各部はバスにより接続される。また、読取装置は、上記プログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。また、CPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。 Although the embodiments according to the present disclosure have been described in detail with reference to the drawings, the functions of the above-described apparatus and each processing unit may be realized by a computer program. The computer that realizes the functions described above by a program includes input devices such as a keyboard, a mouse, and a touch pad, output devices such as a display and a speaker, a central processing unit (CPU), a ROM, a RAM, a hard disk drive, and a solid state drive (SSD). Etc., a reading device that reads information from a recording medium such as a DVD-ROM (Digital Versatile Disk Read Only Memory) or a USB memory, a network card that communicates via a network, etc. . Further, the reading device reads the program from the recording medium having the program recorded thereon and stores the program in the storage device. In addition, the function of each device is realized by the CPU copying the program stored in the storage device to the RAM, sequentially reading out the instructions included in the program from the RAM, and executing the instruction.
本開示の一態様の概要は、次の通りである。本開示のある態様のプログラムは、車両に搭載された通信装置と通信可能な端末装置でのプログラムであって、車両により検出された障害物に関する第1情報と、車両の当該障害物に対する動作に関する第2情報とを取得するステップと、端末装置の撮像部で撮像した映像に対して、第2情報における動作が示された複合現実UIを、第1情報において示された障害物の位置に重畳するステップと、複合現実UIが重畳された映像を端末装置の表示部に表示させるステップと、表示部に表示させた映像に重畳した複合現実UIに対して、車両の動作を指定させるための指示を受けつけるステップと、受けつけた動作の指定の指示を通信装置に送信するステップと、をコンピュータに実行させる。 The outline of one aspect of the present disclosure is as follows. A program according to an aspect of the present disclosure is a program in a terminal device capable of communicating with a communication device mounted on a vehicle, and relates to first information on an obstacle detected by the vehicle and an operation of the vehicle with respect to the obstacle The step of acquiring the second information, and the mixed reality UI in which the operation in the second information is indicated on the image captured by the imaging unit of the terminal device is superimposed on the position of the obstacle indicated in the first information. And a step of causing the display unit of the terminal device to display an image on which the mixed reality UI is superimposed, and an instruction for causing the mixed reality UI superimposed on the image displayed on the display unit to specify the operation of the vehicle And causing the computer to execute the steps of accepting and transmitting an instruction for specifying the accepted operation to the communication device.
この態様によると、表示された映像に重畳した複合現実UIに対して、車両の動作を変更させるための指示を受けつけ、受けつけた変更の指示を通信装置に送信するので、障害物の種類の検出結果を修正できる。 According to this aspect, the mixed reality UI superimposed on the displayed image receives an instruction for changing the operation of the vehicle, and transmits the received change instruction to the communication device, so that the type of obstacle is detected. You can correct the result.
取得するステップにおいて取得した第2情報は、車両の動作として、障害物に接触する、障害物を回避する、障害物を乗り越える、のいずれか1つを行うことを示し、受けつけるステップは、第2情報において示された1つの動作とは異なる1つの動作を指定させるための指示を受けつける。この場合、障害物に接触する、障害物を回避する、障害物を乗り越える、のいずれか1つを別の1つに変更させるので、障害物に対して適した動作に修正できる。 The second information acquired in the acquiring step indicates that the operation of the vehicle is to perform any one of contact with an obstacle, avoiding an obstacle, and overcoming an obstacle, and accepting the second step Receive an instruction to specify one operation different from the one indicated in the information. In this case, since any one of touching an obstacle, avoiding an obstacle, and overcoming an obstacle is changed to another one, it is possible to correct the action suitable for the obstacle.
取得するステップにおいて取得した第1情報は、車両から障害物までの距離情報をさらに含んでもよい。重畳するステップは、第1情報に含まれた距離情報をさらに重畳する。この場合、距離情報も重畳されるので、車両から障害物までの距離を運転者に知らせることができる。 The first information acquired in the acquiring step may further include distance information from the vehicle to the obstacle. The step of superimposing further superimposes the distance information included in the first information. In this case, since the distance information is also superimposed, it is possible to notify the driver of the distance from the vehicle to the obstacle.
車両において探索された探索結果を受信するステップと、受信した探索結果から障害物を検出するステップと、検出した障害物に対する車両の動作を推定するステップと、をさらに備えてもよい。取得するステップは、検出結果をもとにした第1情報を取得するとともに、推定結果をもとにした第2情報を取得する。この場合、障害物を検出してから、検出した障害物に対する車両の動作を推定するので、障害物に対する動作を自動的に推定できる。 The method may further comprise the steps of receiving a search result searched for in the vehicle, detecting an obstacle from the received search result, and estimating an action of the vehicle with respect to the detected obstacle. The acquiring step acquires first information based on the detection result and acquires second information based on the estimation result. In this case, since the obstacle is detected and then the motion of the vehicle with respect to the detected obstacle is estimated, the motion with respect to the obstacle can be estimated automatically.
車両において探索された探索結果に対する障害物の検出結果をもとに生成された第1情報と、検出された障害物に対する車両の動作の推定結果をもとに生成された第2情報とを受信するステップをさらに備えてもよい。取得するステップは、受信した第1情報と第2情報とを取得する。この場合、第1情報と第2情報とを受信するので、障害物の検出処理と動作の推定処理を不要にできる。 Receives the first information generated based on the detection result of the obstacle for the search result searched for in the vehicle and the second information generated based on the estimation result of the operation of the vehicle for the detected obstacle The method may further comprise the step of The acquiring step acquires the received first information and second information. In this case, since the first information and the second information are received, the obstacle detection process and the operation estimation process can be omitted.
表示部に表示させた映像において、複合現実UIが非重畳の部分を選択するための指示を受けつけるステップをさらに備えてもよい。取得するステップは、受けつけた指示において示された部分に対する新たな第1情報と新たな第2情報とを取得する。この場合、複合現実UIが非重畳の部分を選択するための指示を受けつけると、当該部分に対する新たな第1情報と新たな第2情報とを取得するので、未検出であった障害物の検出結果を修正できる。 In the image displayed on the display unit, the method may further include a step of receiving an instruction for selecting a non-overlapping portion by the mixed reality UI. The acquiring step acquires new first information and new second information for the portion indicated in the received instruction. In this case, when the mixed reality UI receives an instruction to select a non-overlapping portion, new first information and new second information for the portion are acquired, so detection of an undetected obstacle is performed. You can correct the result.
車両の位置情報と、車両の方位情報とを受信するステップと、端末装置の位置情報と、端末装置の撮像部の方位情報とを検出するステップと、車両の位置情報と、車両の方位情報と、端末装置の位置情報と、端末装置の撮像部の方位情報とをもとに、端末装置の撮像部の視点に、車両の撮像部で撮像された映像を投影変換するステップとをさらに備えてもよい。重畳するステップは、端末装置の撮像部で撮像した映像に対して、投影変換した映像と複合現実UIとを重畳する。この場合、車両の撮像部で撮像された映像を投影変換してから、端末装置の撮像部で撮像した映像に重畳させるので、運転者に見やすい映像を提供できる。 The steps of receiving the position information of the vehicle, the direction information of the vehicle, the steps of detecting the position information of the terminal device, the direction information of the imaging unit of the terminal device, the position information of the vehicle, the direction information of the vehicle And projecting the image captured by the imaging unit of the vehicle to the viewpoint of the imaging unit of the terminal based on the position information of the terminal and the orientation information of the imaging unit of the terminal. It is also good. The superimposing step superimposes the projection-converted video and the mixed reality UI on the video captured by the imaging unit of the terminal device. In this case, the image captured by the imaging unit of the vehicle is projected and converted, and then superimposed on the image captured by the imaging unit of the terminal device, so that an easy-to-view video can be provided to the driver.
端末装置の位置情報と、端末装置の撮像部の方位情報とを検出するステップと、検出した端末装置の位置情報と、端末装置の撮像部の方位情報とを送信するステップと、車両の位置情報と、車両の方位情報と、端末装置の位置情報と、端末装置の撮像部の方位情報とをもとに、端末装置の撮像部の視点に、車両の撮像部で撮像された映像が投影変換されており、投影変換された映像を受信するステップをさらに備えてもよい。重畳するステップは、端末装置の撮像部で撮像した映像に対して、投影変換された映像と複合現実UIとを重畳する。この場合、車両の撮像部で撮像された映像が投影変換されてから受信するので、処理量を低減できる。 Detecting the position information of the terminal device and the direction information of the imaging unit of the terminal device; transmitting the detected position information of the terminal device; and the direction information of the imaging unit of the terminal device; Based on the direction information of the vehicle, the position information of the terminal device, and the direction information of the imaging unit of the terminal device, the image captured by the imaging unit of the vehicle is projected and converted to the viewpoint of the imaging unit of the terminal device The method may further comprise receiving the projected and transformed image. The superimposing step superimposes the projection-converted video and the mixed reality UI on the video captured by the imaging unit of the terminal device. In this case, since the image captured by the imaging unit of the vehicle is subjected to projection conversion and then received, the processing amount can be reduced.
本開示の別の態様は、駐車支援装置である。この装置は、自動駐車させるべき車両に搭載された駐車支援装置であって、端末装置の撮像部で撮像した映像に対して、車両に対して検出された障害物の位置に、当該障害物に対して推定された車両の動作が示された複合現実UIが重畳されるとともに、複合現実UIを重畳した映像が端末装置の表示部に表示されており、表示部に表示させた映像に重畳した複合現実UIに対して、車両の動作を変更させるための指示を端末装置が受けつけた場合に、変更後の車両の動作に関する情報を端末装置から受信する通信部と、通信部において受信した情報であって、かつ変更後の車両の動作に関する情報を反映させて駐車経路を生成する駐車経路生成部と、を備える。 Another aspect of the present disclosure is a parking assistance device. This device is a parking assistance device mounted on a vehicle to be automatically parked, and for an image captured by an imaging unit of a terminal device, the obstacle is detected at the position of an obstacle detected for the vehicle. The mixed reality UI showing the motion of the vehicle estimated is superimposed, and a video on which the mixed reality UI is superimposed is displayed on the display unit of the terminal device, and is superimposed on the video displayed on the display unit. When the terminal device receives an instruction to change the operation of the vehicle to the mixed reality UI, the communication unit receives information on the operation of the vehicle after the change from the terminal device, and the information received by the communication unit And a parking path generation unit that generates a parking path by reflecting information related to the operation of the vehicle after the change.
この態様によると、変更後の車両の動作に関する情報を端末装置から受信した場合、変更後の車両の動作に関する情報を反映させて駐車経路を生成するので、障害物の種類の検出結果の修正に適した駐車経路を生成できる。 According to this aspect, when the information on the operation of the vehicle after the change is received from the terminal device, the information on the operation of the vehicle after the change is reflected to generate the parking path, so that the detection result of the obstacle type is corrected. A suitable parking path can be generated.
車両の動作は、障害物に接触する、障害物を回避する、障害物を乗り越える、のいずれか1つを示す。この場合、障害物に接触する、障害物を回避する、障害物を乗り越える、のいずれか1つが示されるので、障害物に対して適した動作を反映した駐車経路を生成できる。 The operation of the vehicle indicates any one of contact with an obstacle, avoiding an obstacle and overcoming an obstacle. In this case, any one of touching an obstacle, avoiding an obstacle, and overcoming an obstacle is indicated, so that it is possible to generate a parking path reflecting an action suitable for the obstacle.
車両の外部を探索する探索部と、探索部における探索結果から障害物を検出する障害物検出部と、障害物検出部において検出した障害物に対する車両の動作を推定する動作推定部をさらに備えてもよい。通信部は、障害物検出部において検出した障害物に関する第1情報と、動作推定部において推定した車両の動作に関する第2情報とを送信する。この場合、障害物を検出してから、検出した障害物に対する車両の動作を推定するので、障害物に対する動作を自動的に推定できる。 The search unit for searching the outside of the vehicle, an obstacle detection unit for detecting an obstacle from the search result in the search unit, and a motion estimation unit for estimating the motion of the vehicle with respect to the obstacle detected by the obstacle detection unit It is also good. The communication unit transmits first information on an obstacle detected by the obstacle detection unit and second information on an operation of the vehicle estimated by the movement estimation unit. In this case, since the obstacle is detected and then the motion of the vehicle with respect to the detected obstacle is estimated, the motion with respect to the obstacle can be estimated automatically.
通信部は、表示部に表示させた映像において、複合現実UIが非重畳の部分を選択するための指示を端末装置が受けつけた場合に、複合現実UIが非重畳の部分を選択するための指示を端末装置から受信し、障害物検出部と動作推定部は、通信部が受信した指示に応じて、新たな検出処理と新たな推定処理を実行し、通信部は、障害物検出部と動作推定部において実行した新たな検出処理の結果と新たな推定処理の結果とをもとにした新たな第1情報と新たな第2情報とを送信する。この場合、複合現実UIが非重畳の部分を選択するための指示を受けつけると、当該部分に対する新たな第1情報と新たな第2情報とを送信するので、未検出であった障害物の検出結果を修正できる。 The communication unit instructs the mixed reality UI to select the non-overlapping part when the terminal device receives an instruction to select the non-overlapping part in the mixed reality UI in the image displayed on the display unit. Is received from the terminal device, and the obstacle detection unit and the motion estimation unit execute new detection processing and new estimation processing according to the instruction received by the communication unit, and the communication unit operates the obstacle detection unit and the motion detection unit. New first information and new second information are transmitted based on the result of the new detection process executed by the estimation unit and the result of the new estimation process. In this case, when the mixed reality UI receives an instruction to select a non-overlapping portion, it transmits new first information and new second information to the portion, so detection of an undetected obstacle is performed. You can correct the result.
車両の外部を探索する探索部をさらに備えてもよい。通信部は、探索部における探索結果を送信し、通信部が送信した探索結果から障害物を検出させるとともに、障害物に対する車両の動作を推定させる。この場合、探索結果を送信し、探索結果から障害物を検出させるとともに、障害物に対する車両の動作を推定させるので、処理量を低減できる。 You may further provide the search part which searches the exterior of a vehicle. The communication unit transmits the search result in the search unit, detects an obstacle from the search result transmitted by the communication unit, and estimates the operation of the vehicle with respect to the obstacle. In this case, the search result is transmitted, the obstacle is detected from the search result, and the movement of the vehicle with respect to the obstacle is estimated, so that the amount of processing can be reduced.
通信部は、端末装置の位置情報と、端末装置の撮像部の方位情報とを受信し、本駐車支援装置は、車両の位置情報と、車両の方位情報とを検出する位置・方位検出部と、車両の位置情報と、車両の方位情報と、端末装置の位置情報と、端末装置の撮像部の方位情報とをもとに、端末装置の撮像部の視点に、車両の撮像部で撮像された映像を投影変換する投影変換部とをさらに備えてもよい。通信部は、投影変換部において投影変換された映像を送信する。この場合、車両の撮像部で撮像された映像を投影変換してから送信するので、運転者に見やすい映像を提供できる。 The communication unit receives the position information of the terminal device and the direction information of the imaging unit of the terminal device, and the parking assistance device detects the position information of the vehicle and the direction information of the vehicle. Based on the position information of the vehicle, the direction information of the vehicle, the position information of the terminal device, and the direction information of the image pickup unit of the terminal device, the image pickup unit of the vehicle The image processing apparatus may further include a projection conversion unit that performs projection conversion on the selected image. The communication unit transmits the image projected and converted by the projection conversion unit. In this case, since the image captured by the imaging unit of the vehicle is subjected to projection conversion and then transmitted, an image that can be easily viewed by the driver can be provided.
車両の位置情報と、車両の方位情報とを検出する位置・方位検出部をさらに備えてもよい。通信部は、位置・方位検出部において検出した車両の位置情報と、車両の方位情報とを送信し、通信部が送信した車両の位置情報と車両の方位情報と、端末装置の位置情報と、端末装置の撮像部の方位情報とをもとに、端末装置の撮像部の視点に、車両の撮像部で撮像された映像が投影変換される。この場合、車両の位置情報と、車両の方位情報とを送信して、それらをもとに、車両の撮像部で撮像された映像を投影変換させるので、処理量を低減できる。 You may further provide the position and direction detection part which detects the position information of a vehicle, and the direction information of a vehicle. The communication unit transmits the position information of the vehicle detected by the position / direction detection unit and the direction information of the vehicle, and the position information of the vehicle and the direction information of the vehicle transmitted by the communication unit, and the position information of the terminal device Based on the direction information of the imaging unit of the terminal device, the image captured by the imaging unit of the vehicle is projected and converted to the viewpoint of the imaging unit of the terminal device. In this case, the position information of the vehicle and the direction information of the vehicle are transmitted, and based on these, the image captured by the imaging unit of the vehicle is projection-transformed, so that the amount of processing can be reduced.
本開示のさらに別の態様もまた、プログラムである。このプログラムは、自動駐車させるべき車両に搭載された通信装置と、端末装置と通信可能であるサーバのプログラムであって、車両において探索された探索結果を通信装置から受信するステップと、受信した探索結果から障害物を検出するステップと、検出した障害物に対する車両の動作を推定するステップと、検出した障害物に関する第1情報と、推定した車両の動作に関する第2情報とを端末装置に送信するステップと、をコンピュータに実行させる。 Yet another aspect of the present disclosure is also a program. This program is a program of a communication device mounted on a vehicle to be automatically parked and a server program capable of communicating with a terminal device, receiving the search results searched for in the vehicle from the communication device, and the received search The step of detecting an obstacle from the result, the step of estimating the operation of the vehicle with respect to the detected obstacle, the first information about the detected obstacle, and the second information about the estimated operation of the vehicle are transmitted to the terminal device Have the computer execute the steps.
この態様によると、検出された障害物に対する車両の動作を推定するので、障害物に対する動作を自動的に推定できる。 According to this aspect, since the motion of the vehicle with respect to the detected obstacle is estimated, the motion with respect to the obstacle can be estimated automatically.
以上、本開示を実施の形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the embodiments. It is understood by those skilled in the art that these embodiments are exemplifications, and that various modifications can be made to the combinations of the respective components and processing processes, and such modifications are also within the scope of the present disclosure. It is a place.
本実施の形態1から3において、障害物検出部500、動作推定部502、投影変換部504は、端末装置100、駐車支援装置300、サーバ400のいずれかにまとめて含まれる。しかしながらこれに限らず例えば、障害物検出部500、動作推定部502が端末装置100、駐車支援装置300、サーバ400のいずれかに含まれ、投影変換部504が、障害物検出部500、動作推定部502を含んだ装置以外の装置に含まれてもよい。本変形例によれば、構成の自由度を向上できる。
In the first to third embodiments, the
本実施の形態1から3において、重畳映像には、抽出投影変換映像が重畳されている。しかしながらこれに限らず例えば、重畳映像に抽出投影変換映像が重畳されてなくてもよい。本変形例によれば、処理を簡易にできる。 In the first to third embodiments, the extraction projection conversion video is superimposed on the superimposed video. However, the present invention is not limited to this. For example, the extraction projection conversion video may not be superimposed on the superimposed video. According to this modification, processing can be simplified.
本開示によれば、遠隔操作による自動駐車に適した処理を実行できる。 According to the present disclosure, processing suitable for automatic parking by remote control can be performed.
100 端末装置、 110 通信部、 112 取得部、 114 重畳部、 116 測位装置、 118 デジタルコンパス、 120 位置・方位検出部、 122 測位I/F、 124 コンパスI/F、 126 撮像部、 128 撮像I/F、 130 表示I/F、 132 表示装置、 134 操作部、 136 操作I/F、 138 設定部、 150 制御部、 160 処理部、 180 端末位置、 182 端末方位、 200 車両、 210 移動制御装置、 220 他車両、 230 駐車領域、 280 車両位置、 282 車両方位、 300 駐車支援装置、 310 測位装置、 312 デジタルコンパス、 314 位置・方位検出部、 316 測位I/F、 318 コンパスI/F、 320 撮像部、 322 ソナー、 324 探索部、 326 撮像I/F、 328 ソナーI/F、 330 通信部、 332 駐車経路生成部、 350 制御部、 500 障害物検出部、 502 動作推定部、 504 投影変換部、 620 複合現実UI、 1000 駐車支援システム。
Claims (16)
前記車両により検出された障害物に関する第1情報と、前記車両の当該障害物に対する動作に関する第2情報とを取得するステップと、
前記端末装置の撮像部で撮像した映像に対して、第2情報における動作が示された複合現実UIを、第1情報において示された障害物の位置に重畳するステップと、
複合現実UIが重畳された映像を前記端末装置の表示部に表示させるステップと、
前記表示部に表示させた映像に重畳した複合現実UIに対して、前記車両の動作を指定させるための指示を受けつけるステップと、
受けつけた動作の指定の指示を前記通信装置に送信するステップと、
をコンピュータに実行させるためのプログラム。 A program in a terminal device capable of communicating with a communication device mounted on a vehicle,
Acquiring first information on an obstacle detected by the vehicle and second information on an operation of the vehicle with respect to the obstacle;
Superimposing a mixed reality UI in which an action in the second information is indicated on an image captured by an imaging unit of the terminal device on a position of an obstacle indicated in the first information;
Displaying a video on which a mixed reality UI is superimposed on the display unit of the terminal device;
Accepting an instruction for causing the mixed reality UI superimposed on the image displayed on the display unit to specify the operation of the vehicle;
Transmitting to the communication device an instruction for specifying the received operation;
A program to make a computer run.
前記受けつけるステップは、第2情報において示された1つの動作とは異なる1つの動作を指定させるための指示を受けつける、
請求項1に記載のプログラム。 The second information acquired in the acquiring step indicates, as the operation of the vehicle, performing one of contact with an obstacle, avoiding an obstacle, and overcoming an obstacle.
The accepting step accepts an instruction for specifying one operation different from the one indicated in the second information.
The program according to claim 1.
前記重畳するステップは、第1情報に含まれた距離情報をさらに重畳する、
請求項1または2に記載のプログラム。 The first information acquired in the acquiring step further includes distance information from the vehicle to an obstacle,
The superimposing step further superimposes the distance information included in the first information.
The program according to claim 1 or 2.
受信した探索結果から障害物を検出するステップと、
検出した障害物に対する前記車両の動作を推定するステップと、
をさらに備え、
前記取得するステップは、検出結果をもとにした第1情報を取得するとともに、推定結果をもとにした第2情報を取得する、
請求項1から3のいずれかに記載のプログラム。 Receiving a search result searched for in the vehicle;
Detecting an obstacle from the received search result;
Estimating the motion of the vehicle with respect to the detected obstacle;
And further
The acquiring step acquires first information based on the detection result and acquires second information based on the estimation result.
The program according to any one of claims 1 to 3.
前記取得するステップは、受信した第1情報と第2情報とを取得する、
請求項1から3のいずれかに記載のプログラム。 First information generated based on a detection result of an obstacle with respect to a search result searched for in the vehicle, and second information generated based on an estimation result of the operation of the vehicle with respect to the detected obstacle Further comprising the step of receiving
The acquiring step acquires the received first information and second information.
The program according to any one of claims 1 to 3.
前記取得するステップは、受けつけた指示において示された部分に対する新たな第1情報と新たな第2情報とを取得する、
請求項1から5のいずれかに記載のプログラム。 In the image displayed on the display unit, the method further comprises the step of accepting an instruction for selecting a non-overlapping portion by the mixed reality UI.
The acquiring step acquires new first information and new second information for the portion indicated in the received instruction.
The program according to any one of claims 1 to 5.
前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とを検出するステップと、
前記車両の位置情報と、前記車両の方位情報と、前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とをもとに、前記端末装置の撮像部の視点に、前記車両の撮像部で撮像された映像を投影変換するステップとをさらに備え、
前記重畳するステップは、前記端末装置の撮像部で撮像した映像に対して、投影変換した映像と複合現実UIとを重畳する、
請求項1から6のいずれかに記載のプログラム。 Receiving position information of the vehicle and heading information of the vehicle;
Detecting position information of the terminal device and orientation information of an imaging unit of the terminal device;
Based on the position information of the vehicle, the direction information of the vehicle, the position information of the terminal device, and the direction information of the imaging unit of the terminal device, in the viewpoint of the imaging unit of the terminal device And projecting the image captured by the imaging unit.
The superimposing step superimposes the projection-converted video and the mixed reality UI on the video captured by the imaging unit of the terminal device.
The program according to any one of claims 1 to 6.
検出した前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とを送信するステップと、
前記車両の位置情報と、前記車両の方位情報と、前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とをもとに、前記端末装置の撮像部の視点に、前記車両の撮像部で撮像された映像が投影変換されており、投影変換された映像を受信するステップをさらに備え、
前記重畳するステップは、前記端末装置の撮像部で撮像した映像に対して、投影変換された映像と複合現実UIとを重畳する、
請求項1から6のいずれかに記載のプログラム。 Detecting position information of the terminal device and orientation information of an imaging unit of the terminal device;
Transmitting the detected position information of the terminal device and the azimuth information of the imaging unit of the terminal device;
Based on the position information of the vehicle, the direction information of the vehicle, the position information of the terminal device, and the direction information of the imaging unit of the terminal device, in the viewpoint of the imaging unit of the terminal device The image captured by the imaging unit is project-transformed, and the method further comprises the step of receiving the project-transformed video,
The superimposing step superimposes the projection-converted video and the mixed reality UI on the video captured by the imaging unit of the terminal device.
The program according to any one of claims 1 to 6.
端末装置の撮像部で撮像した映像に対して、前記車両に対して検出された障害物の位置に、当該障害物に対して推定された前記車両の動作が示された複合現実UIが重畳されるとともに、複合現実UIを重畳した映像が前記端末装置の表示部に表示されており、前記表示部に表示させた映像に重畳した複合現実UIに対して、前記車両の動作を変更させるための指示を前記端末装置が受けつけた場合に、変更後の前記車両の動作に関する情報を前記端末装置から受信する通信部と、
前記通信部において受信した情報であって、かつ変更後の前記車両の動作に関する情報を反映させて駐車経路を生成する駐車経路生成部と、
を備える駐車支援装置。 A parking assistance device mounted on a vehicle to be automatically parked,
The mixed reality UI showing the operation of the vehicle estimated for the obstacle is superimposed on the image captured by the imaging unit of the terminal device at the position of the obstacle detected for the vehicle And a video on which the mixed reality UI is superimposed is displayed on the display unit of the terminal device, and the operation of the vehicle is changed with respect to the mixed reality UI superimposed on the video displayed on the display unit. A communication unit that receives, from the terminal device, information related to the operation of the vehicle after the change when the terminal device receives an instruction;
A parking path generation unit that generates a parking path by reflecting information received by the communication unit and information related to the operation of the vehicle after the change;
Parking assistance device provided with.
請求項9に記載の駐車支援装置。 The operation of the vehicle indicates any one of contact with an obstacle, avoiding an obstacle and overcoming an obstacle.
The parking assistance apparatus of Claim 9.
前記探索部における探索結果から障害物を検出する障害物検出部と、
前記障害物検出部において検出した障害物に対する前記車両の動作を推定する動作推定部をさらに備え、
前記通信部は、前記障害物検出部において検出した障害物に関する第1情報と、前記動作推定部において推定した前記車両の動作に関する第2情報とを送信する、
請求項9または10に記載の駐車支援装置。 A search unit for searching the outside of the vehicle;
An obstacle detection unit that detects an obstacle from the search result in the search unit;
It further comprises a motion estimation unit for estimating the motion of the vehicle with respect to the obstacle detected by the obstacle detection unit,
The communication unit transmits first information on an obstacle detected by the obstacle detection unit and second information on an operation of the vehicle estimated by the movement estimation unit.
A parking assistance device according to claim 9 or 10.
前記障害物検出部と前記動作推定部は、前記通信部が受信した指示に応じて、新たな検出処理と新たな推定処理を実行し、
前記通信部は、前記障害物検出部と前記動作推定部において実行した新たな検出処理の結果と新たな推定処理の結果とをもとにした新たな第1情報と新たな第2情報とを送信する、
請求項11に記載の駐車支援装置。 The communication unit selects the non-overlapping portion of the mixed reality UI when the terminal device receives an instruction for selecting the non-overlapping portion of the mixed reality UI in the image displayed on the display unit. Receive instructions for the communication from the terminal device,
The obstacle detection unit and the motion estimation unit execute a new detection process and a new estimation process according to the instruction received by the communication unit,
The communication unit performs new first information and new second information based on the result of the new detection process performed by the obstacle detection unit and the motion estimation unit and the result of the new estimation process. Send,
The parking assistance device according to claim 11.
前記通信部は、前記探索部における探索結果を送信し、
前記通信部が送信した探索結果から障害物を検出させるとともに、障害物に対する前記車両の動作を推定させる、
請求項9または10に記載の駐車支援装置。 It further comprises a search unit for searching the outside of the vehicle,
The communication unit transmits a search result in the search unit;
As well as detecting an obstacle from the search result transmitted by the communication unit, the operation of the vehicle with respect to the obstacle is estimated.
A parking assistance device according to claim 9 or 10.
本駐車支援装置は、
前記車両の位置情報と、前記車両の方位情報とを検出する位置・方位検出部と、
前記車両の位置情報と、前記車両の方位情報と、前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とをもとに、前記端末装置の撮像部の視点に、前記車両の撮像部で撮像された映像を投影変換する投影変換部とをさらに備え、
前記通信部は、前記投影変換部において投影変換された映像を送信する、
請求項9に記載の駐車支援装置。 The communication unit receives position information of the terminal device and orientation information of an imaging unit of the terminal device,
The parking assistance device
A position / orientation detection unit that detects the position information of the vehicle and the azimuth information of the vehicle;
Based on the position information of the vehicle, the direction information of the vehicle, the position information of the terminal device, and the direction information of the imaging unit of the terminal device, in the viewpoint of the imaging unit of the terminal device And a projection conversion unit for projecting and converting an image captured by the imaging unit.
The communication unit transmits an image projected and converted by the projection conversion unit.
The parking assistance apparatus of Claim 9.
前記通信部は、前記位置・方位検出部において検出した前記車両の位置情報と、前記車両の方位情報とを送信し、
前記通信部が送信した前記車両の位置情報と前記車両の方位情報と、前記端末装置の位置情報と、前記端末装置の撮像部の方位情報とをもとに、前記端末装置の撮像部の視点に、前記車両の撮像部で撮像された映像が投影変換される、
請求項9に記載の駐車支援装置。 It further comprises a position / orientation detection unit for detecting the position information of the vehicle and the azimuth information of the vehicle,
The communication unit transmits position information of the vehicle detected by the position / orientation detection unit and direction information of the vehicle.
The viewpoint of the imaging unit of the terminal device based on the position information of the vehicle, the orientation information of the vehicle, the position information of the terminal device, and the orientation information of the imaging unit of the terminal device transmitted by the communication unit And the image captured by the imaging unit of the vehicle is projection-transformed,
The parking assistance apparatus of Claim 9.
前記車両において探索された探索結果を前記通信装置から受信するステップと、
受信した探索結果から障害物を検出するステップと、
検出した障害物に対する前記車両の動作を推定するステップと、
検出した障害物に関する第1情報と、推定した前記車両の動作に関する第2情報とを前記端末装置に送信するステップと、
をコンピュータに実行させるためのプログラム。 A communication device mounted on a vehicle to be automatically parked, and a program of a server capable of communicating with a terminal device,
Receiving from the communication device a search result searched for in the vehicle;
Detecting an obstacle from the received search result;
Estimating the motion of the vehicle with respect to the detected obstacle;
Transmitting to the terminal device first information related to the detected obstacle and second information related to the estimated operation of the vehicle;
A program to make a computer run.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017201282A JP2019073190A (en) | 2017-10-17 | 2017-10-17 | Program and parking support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017201282A JP2019073190A (en) | 2017-10-17 | 2017-10-17 | Program and parking support device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019073190A true JP2019073190A (en) | 2019-05-16 |
Family
ID=66542968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017201282A Pending JP2019073190A (en) | 2017-10-17 | 2017-10-17 | Program and parking support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019073190A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021079892A (en) * | 2019-11-22 | 2021-05-27 | トヨタ自動車株式会社 | Vehicle travel method, and target position input application |
JP2023101499A (en) * | 2019-09-06 | 2023-07-21 | トヨタ自動車株式会社 | Vehicle control device, vehicle control method and vehicle control program |
US12140973B2 (en) | 2019-09-06 | 2024-11-12 | Toyota Jidosha Kabushiki Kaisha | Vehicle remote instruction system |
-
2017
- 2017-10-17 JP JP2017201282A patent/JP2019073190A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023101499A (en) * | 2019-09-06 | 2023-07-21 | トヨタ自動車株式会社 | Vehicle control device, vehicle control method and vehicle control program |
JP7525003B2 (en) | 2019-09-06 | 2024-07-30 | トヨタ自動車株式会社 | Vehicle control device, vehicle control method, and vehicle control program |
US12066842B2 (en) | 2019-09-06 | 2024-08-20 | Toyota Jidosha Kabushiki Kaisha | Vehicle remote instruction system |
US12140973B2 (en) | 2019-09-06 | 2024-11-12 | Toyota Jidosha Kabushiki Kaisha | Vehicle remote instruction system |
US12140972B2 (en) | 2019-09-06 | 2024-11-12 | Toyota Jidosha Kabushiki Kaisha | Vehicle remote instruction system |
JP2021079892A (en) * | 2019-11-22 | 2021-05-27 | トヨタ自動車株式会社 | Vehicle travel method, and target position input application |
JP7272243B2 (en) | 2019-11-22 | 2023-05-12 | トヨタ自動車株式会社 | Vehicle driving method, target position input application |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110967011B (en) | Positioning method, device, equipment and storage medium | |
JP6484587B2 (en) | Method and system for determining spatial characteristics of a camera | |
WO2021128777A1 (en) | Method, apparatus, device, and storage medium for detecting travelable region | |
TWI574223B (en) | Navigation system using augmented reality technology | |
US10043314B2 (en) | Display control method and information processing apparatus | |
KR102518534B1 (en) | Apparatus and mehtod for recognizing position of vehicle | |
JP5255674B2 (en) | Data transmission operation device and data transmission control method | |
JP6278927B2 (en) | Bridge inspection support device, bridge inspection support method, bridge inspection support system, and program | |
US20120027305A1 (en) | Apparatus to provide guide for augmented reality object recognition and method thereof | |
US10887565B2 (en) | Information processing device and information processing method | |
CN107771310B (en) | Head-mounted display device and processing method thereof | |
US20130093887A1 (en) | Obstacle Detection System and Obstacle Detection Method Thereof | |
CN111624630A (en) | GNSS-based satellite selection method and device, terminal and storage medium | |
JP2006166295A (en) | Control system, controlled device suited to the system and remote control device | |
JP2021520540A (en) | Camera positioning methods and devices, terminals and computer programs | |
JP2008026253A (en) | Device and program for photographing periphery of vehicle and for transmitting | |
JP6145563B2 (en) | Information display device | |
JP2019073190A (en) | Program and parking support device | |
KR20190052709A (en) | Magnetic position estimation method and magnetic position estimation apparatus | |
JP2014053795A (en) | Information processor and information processing system | |
US20120281102A1 (en) | Portable terminal, activity history depiction method, and activity history depiction system | |
US20130155211A1 (en) | Interactive system and interactive device thereof | |
US10735902B1 (en) | Method and computer program for taking action based on determined movement path of mobile devices | |
CN115460539A (en) | Method, device, medium and program product for acquiring electronic fence | |
KR101302363B1 (en) | Electronic device and method for controlling of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180417 |