JP2024057142A - Information processing device, control method, program, and storage medium - Google Patents
Information processing device, control method, program, and storage medium Download PDFInfo
- Publication number
- JP2024057142A JP2024057142A JP2022163666A JP2022163666A JP2024057142A JP 2024057142 A JP2024057142 A JP 2024057142A JP 2022163666 A JP2022163666 A JP 2022163666A JP 2022163666 A JP2022163666 A JP 2022163666A JP 2024057142 A JP2024057142 A JP 2024057142A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- display
- driver
- image
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000002093 peripheral effect Effects 0.000 claims abstract description 132
- 238000004891 communication Methods 0.000 claims abstract description 59
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 239000002131 composite material Substances 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 19
- 230000015654 memory Effects 0.000 description 15
- 230000006399 behavior Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 230000000153 supplemental effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 206010041349 Somnolence Diseases 0.000 description 3
- 239000000090 biomarker Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 101100521334 Mus musculus Prom1 gene Proteins 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- VZSRBBMJRBPUNF-UHFFFAOYSA-N 2-(2,3-dihydro-1H-inden-2-ylamino)-N-[3-oxo-3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)propyl]pyrimidine-5-carboxamide Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)C(=O)NCCC(N1CC2=C(CC1)NN=N2)=O VZSRBBMJRBPUNF-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000007688 edging Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、移動体の運転者と移動体の外部に存在するユーザとのコミュニケーションを仲介するシステムに関する。 The present invention relates to a system that mediates communication between a driver of a mobile object and a user outside the mobile object.
従来から、車両の運転者と車外の人との会話を実現する技術が知られている。例えば、特許文献1には、通信ネットワークを介して車載システムと通信することで車両の運転者と会話相手との通話を実現する会話提供システムが開示されている。 Technologies that enable conversation between a vehicle driver and a person outside the vehicle have been known for some time. For example, Patent Document 1 discloses a conversation providing system that enables a conversation between the vehicle driver and a conversation partner by communicating with an in-vehicle system via a communication network.
運転者と車外の人とがコミュニケーションを行うシステムでは、車外の人は、車両周辺の撮影画像を確認しながら安全確認の補助に関する助言を行う場合がある。この場合、適切な安全確認の補助を車外の人が行うには、安全確認の補助に適した画像を車外の人に提示する必要がある。 In a system that allows communication between the driver and a person outside the vehicle, the person outside the vehicle may provide advice on assisting with safety checks while checking captured images of the vehicle's surroundings. In this case, for the person outside the vehicle to provide appropriate assistance with safety checks, it is necessary to present the person outside the vehicle with images suitable for assisting with safety checks.
本発明は、上述した課題を鑑み、移動体の運転者と移動体の外部に存在するユーザとのコミュニケーションを好適に仲介することが可能な情報処理装置を提供することを目的の一つとする。 In view of the above-mentioned problems, one of the objectives of the present invention is to provide an information processing device that can effectively mediate communication between a driver of a moving body and a user outside the moving body.
請求項1に記載の発明は、
移動体の運転者と前記移動体の外部に存在するユーザとのコミュニケーションを仲介するシステムに用いられる情報処理装置であって、
前記移動体から前記移動体の周辺を撮影した周辺撮影画像を取得する取得手段と、
前記移動体の運転者の状態又は操作を検出する検出手段と、
前記周辺撮影画像中の所定範囲を前記ユーザの端末装置に表示させる表示制御手段と、を備え、
前記表示制御手段は、前記運転者の状態又は操作に基づき、前記端末装置に表示させる前記所定範囲を決定する
情報処理装置である。
The invention described in claim 1 is
An information processing device used in a system that mediates communication between a driver of a moving body and a user outside the moving body, comprising:
An acquisition means for acquiring a peripheral image of the moving body by capturing an image of the surroundings of the moving body from the moving body;
A detection means for detecting a state or operation of a driver of the vehicle;
a display control means for displaying a predetermined range in the surrounding photographed image on a terminal device of the user;
The display control means is an information processing device that determines the predetermined range to be displayed on the terminal device based on a state or operation of the driver.
また、請求項8に記載の発明は、
移動体の運転者と前記移動体の外部に存在するユーザとのコミュニケーションを仲介するシステムに用いられる情報処理装置が実行する制御方法であって、
前記移動体から前記移動体の周辺を撮影した周辺撮影画像を取得する取得工程と、
前記移動体の運転者の状態又は操作を検出する検出工程と、
前記周辺撮影画像中の所定範囲を前記ユーザの端末装置に表示させる表示制御工程と、を有し、
前記表示制御工程は、前記運転者の状態又は操作に基づき、前記端末装置に表示させる前記所定範囲を決定する制御方法であることを特徴とする。
The invention described in claim 8 is as follows:
A control method executed by an information processing device used in a system that mediates communication between a driver of a moving body and a user present outside the moving body, comprising:
an acquisition step of acquiring a peripheral image of the moving body from the moving body;
A detection step of detecting a state or operation of a driver of the moving body;
A display control step of displaying a predetermined range in the peripheral photographed image on a terminal device of the user,
The display control step is a control method for determining the predetermined range to be displayed on the terminal device based on a state or operation of the driver.
また、請求項9に記載の発明は、
移動体の運転者と前記移動体の外部に存在するユーザとのコミュニケーションを仲介するシステムに用いられる情報処理装置のコンピュータが実行するプログラムであって、
前記移動体から前記移動体の周辺を撮影した周辺撮影画像を取得する取得手段と、
前記移動体の運転者の状態又は操作を検出する検出手段と、
前記周辺撮影画像中の所定範囲を前記ユーザの端末装置に表示させる表示制御手段
として前記コンピュータを機能させ、
前記表示制御手段は、前記運転者の状態又は操作に基づき、前記端末装置に表示させる前記所定範囲を決定する
プログラムであることを特徴とする。
The invention described in claim 9 is as follows:
A program executed by a computer of an information processing device used in a system that mediates communication between a driver of a moving body and a user outside the moving body, comprising:
An acquisition means for acquiring a peripheral image of the moving body by capturing an image of the surroundings of the moving body from the moving body;
A detection means for detecting a state or operation of a driver of the vehicle;
causing the computer to function as a display control means for displaying a predetermined range in the peripheral photographed image on a terminal device of the user;
The display control means is a program that determines the predetermined range to be displayed on the terminal device based on a state or operation of the driver.
本発明の1つの好適な実施形態では、移動体の運転者と前記移動体の外部に存在するユーザとのコミュニケーションを仲介するシステムに用いられる情報処理装置であって、前記移動体から前記移動体の周辺を撮影した周辺撮影画像を取得する取得手段と、前記移動体の運転者の状態又は操作を検出する検出手段と、前記周辺撮影画像中の所定範囲を前記ユーザの端末装置に表示させる表示制御手段と、を備え、前記表示制御手段は、前記運転者の状態又は操作に基づき、前記端末装置に表示させる前記所定範囲を決定する。この態様により、情報処理装置は、移動体の外部に存在するユーザに対し、運転者の状態又は操作に基づき決定した範囲の周辺撮影画像を提示することができる。 In one preferred embodiment of the present invention, an information processing device used in a system that mediates communication between a driver of a moving body and a user outside the moving body includes an acquisition means for acquiring a peripheral image of the moving body from the moving body, a detection means for detecting the state or operation of the driver of the moving body, and a display control means for displaying a predetermined range of the peripheral image on the user's terminal device, and the display control means determines the predetermined range to be displayed on the terminal device based on the state or operation of the driver. With this aspect, the information processing device can present a peripheral image of the range determined based on the state or operation of the driver to a user outside the moving body.
上記情報処理装置の一態様では、前記表示制御手段は、前記運転者の運転負荷の度合いに基づき、前記所定範囲を決定する。好適な例では、前記表示制御手段は、前記運転負荷の度合いが高いほど、前記所定範囲を拡大するとよい。これらの態様によれば、情報処理装置は、運転者の運転負荷に応じた範囲の周辺撮影画像を端末装置のユーザに提示することができる。 In one aspect of the information processing device, the display control means determines the predetermined range based on the degree of driving load of the driver. In a preferred example, the display control means may expand the predetermined range as the degree of driving load increases. According to these aspects, the information processing device can present to the user of the terminal device a surrounding captured image of a range corresponding to the driving load of the driver.
上記情報処理装置の他の一態様では、前記表示制御手段は、前記運転者の操作として前記運転者の所定の発話に基づき、前記所定範囲を拡大する。これにより、情報処理装置は、運転者の要求に応じ、周辺撮影画像の表示範囲を好適に制御することができる。 In another aspect of the information processing device, the display control means expands the predetermined range based on a predetermined utterance by the driver as an operation by the driver. This allows the information processing device to suitably control the display range of the surrounding captured image in response to a request from the driver.
上記情報処理装置の他の一態様では、前記表示制御手段は、前記運転者の視線方向の軌跡を表す線を、前記所定範囲を前記拡大した後の画像に重畳して前記端末装置に表示させる。この場合、情報処理装置は、運転者が視認している箇所及び視認していない箇所を把握可能な態様により画像を端末装置のユーザに提示することができる。 In another aspect of the information processing device, the display control means causes the terminal device to display a line representing the trajectory of the driver's line of sight on the image obtained by enlarging the predetermined range. In this case, the information processing device can present the image to the user of the terminal device in a manner that allows the user to grasp the areas that the driver is viewing and the areas that he or she is not viewing.
上記情報処理装置の他の一態様では、前記所定範囲は、移動体の前方方向を少なくとも含む範囲であり、前記表示制御手段は、前記運転者の状態又は操作に基づき、前記前方方向を基準とした前記所定範囲の幅を変化させる。この態様により、情報処理装置は、移動体の前方方向を少なくとも含みつつ、運転者の状態又は操作に基づき周辺撮影画像の表示範囲を好適に決定することができる。 In another aspect of the information processing device, the predetermined range includes at least the forward direction of the moving object, and the display control means changes the width of the predetermined range based on the forward direction based on the state or operation of the driver. With this aspect, the information processing device can suitably determine the display range of the surrounding captured image based on the state or operation of the driver while including at least the forward direction of the moving object.
上記情報処理装置の他の一態様では、前記周辺撮影画像は、前記移動体に設けられた複数台のカメラにより撮影された画像を合成した合成画像であり、前記表示制御手段は、前記合成画像中の前記所定範囲を、前記端末装置に表示させる。このように、情報処理装置は、複数台のカメラにより移動体の周辺を撮影する態様においても、運転者の状態又は操作に基づき決定した範囲において移動体の周辺を撮影した画像を端末装置のユーザに好適に提示することができる。 In another aspect of the information processing device, the surrounding captured image is a composite image obtained by combining images captured by multiple cameras provided on the moving body, and the display control means causes the terminal device to display the predetermined range in the composite image. In this way, even in an aspect in which the surroundings of the moving body are captured by multiple cameras, the information processing device can suitably present to the user of the terminal device an image of the surroundings of the moving body within a range determined based on the driver's state or operation.
本発明の他の好適な実施形態では、移動体の運転者と前記移動体の外部に存在するユーザとのコミュニケーションを仲介するシステムに用いられる情報処理装置が実行する制御方法であって、前記移動体から前記移動体の周辺を撮影した周辺撮影画像を取得する取得工程と、前記移動体の運転者の状態又は操作を検出する検出工程と、前記周辺撮影画像中の所定範囲を前記ユーザの端末装置に表示させる表示制御工程と、を有し、前記表示制御工程は、前記運転者の状態又は操作に基づき、前記端末装置に表示させる前記所定範囲を決定する。情報処理装置は、この制御方法を実行することで、移動体の外部に存在するユーザに対し、運転者の状態又は操作に基づき決定した範囲の周辺撮影画像を提示することができる。 In another preferred embodiment of the present invention, a control method is executed by an information processing device used in a system that mediates communication between a driver of a moving body and a user outside the moving body, the control method comprising an acquisition step of acquiring a peripheral image of the moving body from the moving body, a detection step of detecting a state or operation of the driver of the moving body, and a display control step of displaying a predetermined range of the peripheral image on the user's terminal device, the display control step determining the predetermined range to be displayed on the terminal device based on the state or operation of the driver. By executing this control method, the information processing device can present a peripheral image of the range determined based on the state or operation of the driver to a user outside the moving body.
本発明の他の好適な実施形態では、移動体の運転者と前記移動体の外部に存在するユーザとのコミュニケーションを仲介するシステムに用いられる情報処理装置のコンピュータが実行するプログラムであって、前記移動体から前記移動体の周辺を撮影した周辺撮影画像を取得する取得手段と、前記移動体の運転者の状態又は操作を検出する検出手段と、前記周辺撮影画像中の所定範囲を前記ユーザの端末装置に表示させる表示制御手段として前記コンピュータを機能させ、前記表示制御手段は、前記運転者の状態又は操作に基づき、前記端末装置に表示させる前記所定範囲を決定する。情報処理装置のコンピュータは、このプログラムを実行することで、移動体の外部に存在するユーザに対し、運転者の状態又は操作に基づき決定した範囲の周辺撮影画像を提示することができる。好適には、上記プログラムは、記憶媒体に記憶される。 In another preferred embodiment of the present invention, a program executed by a computer of an information processing device used in a system that mediates communication between a driver of a moving body and a user outside the moving body causes the computer to function as an acquisition means for acquiring a peripheral image of the moving body taken from the moving body, a detection means for detecting the state or operation of the driver of the moving body, and a display control means for displaying a predetermined range of the peripheral image on a terminal device of the user, and the display control means determines the predetermined range to be displayed on the terminal device based on the state or operation of the driver. By executing this program, the computer of the information processing device can present a peripheral image of the range determined based on the state or operation of the driver to a user outside the moving body. Preferably, the program is stored in a storage medium.
以下、図面を参照して本発明の好適な各実施例について説明する。 Below, preferred embodiments of the present invention will be described with reference to the drawings.
<第1実施例>
(1-1)システム構成
図1は、第1実施例に係る運転通話システムの構成例を示す。運転通話システムは、車両に設けられた車載機1と、車外に存在する者が使用する車外端末2とを有する。運転通話システムでは、車載機1と車外端末2とが互いに通信することで、車両の運転者と車外端末2のユーザとの間の音声通話を媒介し、車外端末2のユーザは、車両から得られる種々の情報を車外端末2により確認しながら車両の運転者と通話を行う。
First Example
(1-1) System configuration
1 shows a configuration example of a driving call system according to a first embodiment. The driving call system has an in-vehicle device 1 installed in a vehicle and an external terminal 2 used by a person outside the vehicle. In the driving call system, the in-vehicle device 1 and the external terminal 2 communicate with each other to mediate a voice call between the driver of the vehicle and the user of the external terminal 2, and the user of the external terminal 2 talks to the driver of the vehicle while checking various information obtained from the vehicle through the external terminal 2.
車載機1は、車両と共に移動し、当該車両の運転者と車外端末2のユーザとの通話を実現するための処理などを行う。以後では、車載機1が搭載された車両を「対象車両」とも呼ぶ。車載機1は、インターネットや専用通信網などの通信網3を介し、車外端末2とデータ通信を行う。車載機1と車外端末2とが授受を行うデータには、対象車両の運転者と車外端末2のユーザとの通話において生成される音声データ、及び、対象車両又は運転者に関する情報を表示するための表示指示データなどが含まれている。本実施例では、車載機1は、対象車両から対象車両の周辺を撮影した画像(「周辺撮影画像」とも呼ぶ。)に基づく表示指示データを車外端末2に送信する。後述するように、車載機1は、運転者の運転負荷(ワークロード)に基づいて、車外端末2に表示させる周辺撮影画像の画角(即ち周辺撮影画像の表示範囲)を決定する。 The vehicle-mounted device 1 moves with the vehicle and performs processing to realize a call between the driver of the vehicle and the user of the external terminal 2. Hereinafter, the vehicle equipped with the vehicle-mounted device 1 is also called the "target vehicle". The vehicle-mounted device 1 performs data communication with the external terminal 2 via a communication network 3 such as the Internet or a dedicated communication network. Data exchanged between the vehicle-mounted device 1 and the external terminal 2 includes voice data generated in a call between the driver of the target vehicle and the user of the external terminal 2, and display instruction data for displaying information about the target vehicle or the driver. In this embodiment, the vehicle-mounted device 1 transmits display instruction data based on an image (also called "peripheral image") captured from the target vehicle to the external terminal 2. As described later, the vehicle-mounted device 1 determines the angle of view of the peripheral image (i.e., the display range of the peripheral image) to be displayed on the external terminal 2 based on the driver's driving load (workload).
車載機1は、対象車両に設置され、設定された目的地への経路案内を行うナビゲーション装置であってもよく、スマートフォンなどの携帯端末であってもよい。また、車載機1は、対象車両に組み込まれてもよい。車載機1は、「情報処理装置」の一例である。また、対象車両は、「移動体」の一例である。 The vehicle-mounted device 1 may be a navigation device that is installed in the target vehicle and provides route guidance to a set destination, or may be a mobile terminal such as a smartphone. The vehicle-mounted device 1 may also be incorporated in the target vehicle. The vehicle-mounted device 1 is an example of an "information processing device." The target vehicle is an example of a "mobile body."
車外端末2は、対象車両の外に存在する者が操作する端末であり、通信網3を介し、車載機1とデータ通信を行う。車外端末2は、例えば、スマートフォンなどの携帯端末である。例えば、車外端末2は、対象車両の運転中に車載機1と通信を確立し、運転者と車外端末2のユーザとが通話を行うための音声データの授受を車載機1と行う。また、車外端末2は、通話中において表示指示データを車載機1から受信し、表示指示データに基づき、周辺撮影画像等を表示する。車外端末2は、「端末装置」の一例である。 The external terminal 2 is a terminal operated by a person outside the target vehicle, and performs data communication with the in-vehicle device 1 via the communication network 3. The external terminal 2 is, for example, a mobile terminal such as a smartphone. For example, the external terminal 2 establishes communication with the in-vehicle device 1 while the target vehicle is being driven, and exchanges voice data with the in-vehicle device 1 for a call between the driver and the user of the external terminal 2. The external terminal 2 also receives display instruction data from the in-vehicle device 1 during the call, and displays surrounding captured images, etc. based on the display instruction data. The external terminal 2 is an example of a "terminal device."
なお、車載機1と車外端末2との通信は、図示しないサーバ装置により中継されることで実現されてもよい。また、車載機1と車外端末2とが直接通信を確立する場合であっても、車載機1と車外端末2とが通信を確立するために必要な情報(例えば通信アドレス情報等)の授受を、車載機1又は/及び車外端末2がサーバ装置と行ってもよい。これらの場合、サーバ装置は、車載機1と車外端末2とがデータ通信を行うために必要な処理(車載機1及び車外端末2の認証処理を含む)を行う。 The communication between the in-vehicle unit 1 and the external terminal 2 may be realized by being relayed by a server device (not shown). Even if the in-vehicle unit 1 and the external terminal 2 establish direct communication, the in-vehicle unit 1 and/or the external terminal 2 may exchange information (e.g., communication address information, etc.) necessary for the in-vehicle unit 1 and the external terminal 2 to establish communication with the server device. In these cases, the server device performs the processes necessary for the in-vehicle unit 1 and the external terminal 2 to perform data communication (including authentication processes for the in-vehicle unit 1 and the external terminal 2).
(1-2)装置構成
図2は、車載機1の概略構成の一例を示す。車載機1は、主に、通信部11と、記憶部12と、入力部13と、制御部14と、センサ群15と、表示部16と、音出力部17と、を有する。車載機1内の各要素は、バスライン10を介して相互に接続されている。
(1-2) Device configuration
2 shows an example of a schematic configuration of the vehicle-mounted device 1. The vehicle-mounted device 1 mainly includes a communication unit 11, a storage unit 12, an input unit 13, a control unit 14, a sensor group 15, a display unit 16, and a sound output unit 17. The elements in the vehicle-mounted device 1 are connected to each other via a bus line 10.
通信部11は、制御部14の制御に基づき、他の端末とのデータ通信を行う。通信部11は、例えば、地図DB(DataBase)4を更新するための地図データを図示しない地図管理サーバから受信してもよい。 The communication unit 11 performs data communication with other terminals under the control of the control unit 14. For example, the communication unit 11 may receive map data for updating the map DB (Database) 4 from a map management server (not shown).
記憶部12は、RAM(Random Access Memory)、ROM(Read Only Memory)、不揮発性メモリ(ハードディスクドライブ、フラッシュメモリなどを含む)などの各種のメモリにより構成される。記憶部12は、車載機1が所定の処理を実行するためのプログラムが記憶される。上述のプログラムは、通話を行うためのアプリケーションプログラム、車外端末2に地図表示や対象車両において撮影された画像の表示を実行させるためのアプリケーションプログラムなどを含んでもよい。また、記憶部12は、制御部14の作業メモリとして使用される。なお、車載機1が実行するプログラムは、記憶部12以外の記憶媒体に記憶されてもよい。 The storage unit 12 is composed of various types of memory such as RAM (Random Access Memory), ROM (Read Only Memory), and non-volatile memory (including hard disk drive, flash memory, etc.). The storage unit 12 stores programs for the in-vehicle device 1 to execute predetermined processes. The above-mentioned programs may include application programs for making calls, and application programs for causing the external terminal 2 to display maps and images captured in the target vehicle. The storage unit 12 is also used as a working memory for the control unit 14. The programs executed by the in-vehicle device 1 may be stored in a storage medium other than the storage unit 12.
また、記憶部12は、地図DB(DataBase)4を記憶する。地図DB4には、経路案内に必要な種々のデータが記録されている。地図DB4は、対象車両の現在位置などの所定の位置を基準とした地図表示に必要なデータである。地図DB4は、例えば、道路網をノードとリンクの組合せにより表した道路データ、及び、目的地、立寄地、又はランドマークの候補となる施設を示す施設データなどを含むデータベースである。地図DB4は、制御部14の制御下において、通信部11が地図管理サーバから受信する情報に基づき更新されてもよい。 The memory unit 12 also stores a map DB (Data Base) 4. Various data necessary for route guidance is recorded in the map DB 4. The map DB 4 is data necessary for map display based on a specified position such as the current position of the target vehicle. The map DB 4 is a database that includes, for example, road data that represents a road network by a combination of nodes and links, and facility data that indicates facilities that are candidates for a destination, a stop-off point, or a landmark. The map DB 4 may be updated based on information received by the communication unit 11 from a map management server under the control of the control unit 14.
入力部13は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ、音声入力装置等である。表示部16は、制御部14の制御に基づき表示を行うディスプレイ等である。音出力部17は、制御部14の制御に基づき音を出力するスピーカ等である。 The input unit 13 is a button, a touch panel, a remote controller, a voice input device, etc. that the user operates. The display unit 16 is a display or the like that displays information based on the control of the control unit 14. The sound output unit 17 is a speaker or the like that outputs sound based on the control of the control unit 14.
センサ群15は、対象車両の状態又は車外の環境に関するセンシングを行う種々のセンサを含んでいる。センサ群15は、車外撮影カメラ51と、運転者カメラ52と、車両挙動検出器53と、生体センサ54と、を有する。 The sensor group 15 includes various sensors that sense the state of the target vehicle or the environment outside the vehicle. The sensor group 15 includes an exterior camera 51, a driver camera 52, a vehicle behavior detector 53, and a biosensor 54.
車外撮影カメラ51は、対象車両の前方などの対象車両の外を撮影する1又は複数のカメラであり、所定時間間隔により撮影した周辺撮影画像を生成する。以後では、車外撮影カメラ51が出力する画像(複数台の車外撮影カメラ51が出力する画像を合成したものを含む)を「周辺撮影画像」と呼び、周辺撮影画像から車外端末2に表示させる所定範囲(表示範囲)を切り出した画像を「表示用周辺撮影画像」とも呼ぶ。 The exterior camera 51 is one or more cameras that capture images of the outside of the target vehicle, such as the area in front of the target vehicle, and generates surrounding images captured at a specified time interval. Hereinafter, the images output by the exterior camera 51 (including a composite of images output by multiple exterior cameras 51) will be referred to as "surrounding images," and an image obtained by cutting out a specified range (display range) to be displayed on the exterior terminal 2 from the surrounding images will also be referred to as "surrounding images for display."
運転者カメラ52は、運転者の顔を撮影範囲に含むように設けられたカメラであり、所定時間間隔により撮影した画像(「運転者画像」とも呼ぶ。)を生成する。 The driver camera 52 is a camera that is installed so that the driver's face is included in the shooting range, and generates images (also called "driver images") captured at a predetermined time interval.
車両挙動検出器53は、現在位置、車速、加速度、操舵角等の対象車両の挙動を示す検出信号を生成する。車両挙動検出器53は、例えば、GNSS(Global Navigation Satellite System)受信機、ジャイロセンサ、IMU(Inertial Measurement Unit)、車速センサ、加速度センサ、操舵角センサなどを含む。 The vehicle behavior detector 53 generates detection signals indicating the behavior of the target vehicle, such as the current position, vehicle speed, acceleration, steering angle, etc. The vehicle behavior detector 53 includes, for example, a Global Navigation Satellite System (GNSS) receiver, a gyro sensor, an Inertial Measurement Unit (IMU), a vehicle speed sensor, an acceleration sensor, a steering angle sensor, etc.
生体センサ54は、運転者の心拍、発汗量等の生体現象を示す生体信号を生成する1又は複数のセンサである。 The biosensor 54 is one or more sensors that generate biosignals that indicate the driver's biophenomena, such as heart rate and sweat rate.
なお、センサ群15は、車外撮影カメラ51、運転者カメラ52、車両挙動検出器53、及び生体センサ54の他、種々の外界センサ(カメラ、ライダ、レーダ、超音波センサ、赤外線センサ、ソナーなどを含む)及び内界センサを含んでもよい。 The sensor group 15 may include various external sensors (including cameras, lidars, radars, ultrasonic sensors, infrared sensors, sonar, etc.) and internal sensors in addition to the exterior camera 51, the driver camera 52, the vehicle behavior detector 53, and the biosensor 54.
制御部14は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などを含み、車載機1の全体を制御する。制御部14は、「取得手段」、「検出手段」、「表示制御手段」、及びプログラムを実行するコンピュータ等として機能する。 The control unit 14 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the entire in-vehicle device 1. The control unit 14 functions as an "acquisition means," a "detection means," a "display control means," and a computer that executes programs, etc.
なお、制御部14が実行する処理は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、制御部14が実行する処理は、例えばFPGA(Field-Programmable Gate Array)又はマイコン等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、制御部14が本実施例において実行するプログラムを実現してもよい。 The processing executed by the control unit 14 is not limited to being realized by software using a program, but may be realized by any combination of hardware, firmware, and software. The processing executed by the control unit 14 may also be realized using a user-programmable integrated circuit, such as an FPGA (Field-Programmable Gate Array) or a microcomputer. In this case, the program executed by the control unit 14 in this embodiment may be realized using this integrated circuit.
図2に示す車載機1の構成は一例であり、図2に示す構成に対して種々の変更がなされてもよい。例えば、地図DB4を記憶部12が記憶する代わりに、制御部14が通信部11を介し、図示しない地図管理サーバから地図情報を受信してもよい。他の例では、入力部13、表示部16、及び音出力部17の少なくともいずれかは、車載機1の外部装置として対象車両内に設けられ、生成した信号を車載機1に供給してもよい。また、センサ群15の少なくとも一部のセンサは、対象車両に備え付けられたセンサであってもよい。この場合、車載機1は、対象車両に備え付けられたセンサが出力する情報を、対象車両からCAN(Controller Area Network)などの通信プロトコルに基づき取得してもよい。 The configuration of the vehicle-mounted device 1 shown in FIG. 2 is an example, and various modifications may be made to the configuration shown in FIG. 2. For example, instead of the map DB 4 being stored in the memory unit 12, the control unit 14 may receive map information from a map management server (not shown) via the communication unit 11. In another example, at least one of the input unit 13, the display unit 16, and the sound output unit 17 may be provided in the target vehicle as an external device of the vehicle-mounted device 1, and may supply the generated signal to the vehicle-mounted device 1. In addition, at least some of the sensors in the sensor group 15 may be sensors provided in the target vehicle. In this case, the vehicle-mounted device 1 may obtain information output by the sensors provided in the target vehicle from the target vehicle based on a communication protocol such as CAN (Controller Area Network).
図3は、車外端末2の概略構成の一例を示す。車外端末2は、主に、通信部21と、記憶部22と、入力部23と、制御部24と、センサ群25と、表示部26と、音出力部27と、を有する。車外端末2内の各要素は、バスライン20を介して相互に接続されている。 Figure 3 shows an example of the schematic configuration of the external terminal 2. The external terminal 2 mainly has a communication unit 21, a memory unit 22, an input unit 23, a control unit 24, a sensor group 25, a display unit 26, and a sound output unit 27. The elements in the external terminal 2 are connected to each other via a bus line 20.
通信部21は、制御部24の制御に基づき、他の端末とのデータ通信を行う。記憶部22は、RAM、ROM、不揮発性メモリなどの各種のメモリにより構成される。記憶部22は、車外端末2が所定の処理を実行するためのプログラムが記憶される。上述のプログラムは、車載機1と通信を確立した状態において、運転者との通話、車載機1の対象車両の運転に関する表示(地図表示及び各種撮影画像の表示を含む)、及び運転者のワークロードに関する表示を行うためのアプリケーションプログラムなどを含んでもよい。また、記憶部22は、制御部24の作業メモリとして使用される。なお、車外端末2が実行するプログラムは、記憶部22以外の記憶媒体に記憶されてもよい。 The communication unit 21 performs data communication with other terminals under the control of the control unit 24. The storage unit 22 is composed of various types of memory such as RAM, ROM, and non-volatile memory. The storage unit 22 stores programs for the external terminal 2 to execute predetermined processes. The above-mentioned programs may include application programs for calling the driver, displaying information related to the driving of the target vehicle of the in-vehicle device 1 (including displaying maps and various captured images), and displaying information related to the driver's workload when communication with the in-vehicle device 1 is established. The storage unit 22 is also used as a working memory for the control unit 24. The programs executed by the external terminal 2 may be stored in a storage medium other than the storage unit 22.
入力部23は、ユーザが操作するためのボタン、タッチパネル、リモートコントローラ、音声入力装置等である。表示部26は、制御部24の制御に基づき表示を行うディスプレイ等である。音出力部27は、制御部24の制御に基づき音を出力するスピーカ等である。センサ群25は、車外端末2の状態をセンシングする内界センサ、及び、車外端末2の外界の状態をセンシングする外界センサを含む。 The input unit 23 is a button, a touch panel, a remote controller, a voice input device, etc. that the user operates. The display unit 26 is a display or the like that displays information based on the control of the control unit 24. The sound output unit 27 is a speaker or the like that outputs sound based on the control of the control unit 24. The sensor group 25 includes an internal sensor that senses the state of the external terminal 2, and an external sensor that senses the state of the external world of the external terminal 2.
制御部24は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などを含み、車外端末2の全体を制御する。なお、図3に示す車外端末2の構成は一例であり、図3に示す構成に対して種々の変更がなされてもよい。 The control unit 24 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the entire external terminal 2. Note that the configuration of the external terminal 2 shown in FIG. 3 is an example, and various modifications may be made to the configuration shown in FIG. 3.
(1-3)周辺撮影画像の表示
次に、車載機1が車外端末2に表示させる周辺撮影画像の表示について説明する。概略的には、車載機1は、運転者と車外端末2のユーザとの通話中において、運転者のワークロードが所定度合いより大きい場合、ワークロードが所定度合い以下となる場合よりも広い画角となるように周辺撮影画像の表示範囲を決定する。これにより、車載機1は、運転者のワークロードが高い場合に車外端末2のユーザに広い画角に対応する周辺撮影画像を視認させ、車外端末2のユーザによる運転者の安全確認の補助を促進する。運転者のワークロードは、「運転者の状態」の一例である。
(1-3) Display of surrounding images
Next, the display of the peripheral captured image displayed by the in-vehicle device 1 on the external terminal 2 will be described. In summary, when the driver's workload is greater than a predetermined level during a call between the driver and the user of the external terminal 2, the in-vehicle device 1 determines the display range of the peripheral captured image so that the angle of view is wider than when the workload is equal to or less than the predetermined level. In this way, when the driver's workload is high, the in-vehicle device 1 allows the user of the external terminal 2 to view the peripheral captured image corresponding to the wider angle of view, thereby promoting the user of the external terminal 2 to assist in confirming the driver's safety. The driver's workload is an example of the "driver's state."
(1-3-1)ワークロード値の算出
まず、ワークロードの度合いを示す値(スコア)であるワークロード値の算出方法について説明する。以後では、説明の便宜上、ワークロード値は、ワークロード値が高いほど、運転者のワークロードの度合いが高いことを示すものとする。
(1-3-1) Calculation of Workload Value First, a method for calculating the workload value, which is a value (score) indicating the degree of the workload, will be described. Hereinafter, for the sake of convenience, the workload value indicates that the higher the workload value, the higher the degree of the driver's workload.
車載機1は、ワークロードに関連がある要素(「ワークロード関連要素」とも呼ぶ。)ごとに現在の状態を評価したスコア(「要素別スコア」とも呼ぶ。)に基づき、ワークロード値を算出する。ワークロード関連要素は、対象車両、運転者、又は走行環境に関する状態を表す要素であり、ワークロード関連要素の例は、対象車両が走行中の道路(走行道路)の環境に関する要素(「道路環境要素」とも呼ぶ。)、ワークロードに影響がある運転動作(運転操作)に関する要素(「運転動作要素」とも呼ぶ。)、運転者の体調に関する要素(「運転者体調要素」とも呼ぶ。)などを含む。ワークロード関連要素は、言い換えると、ワークロード上昇原因の候補となる要素である。なお、ワークロード関連要素は、道路環境要素、運転動作要素、又は運転者体調要素の少なくともいずれかがさらに細分化された要素であってもよい。 The vehicle-mounted device 1 calculates a workload value based on a score (also called an "element-specific score") that evaluates the current state for each element related to the workload (also called "workload-related element"). The workload-related element is an element that represents the state related to the target vehicle, the driver, or the driving environment. Examples of the workload-related element include elements related to the environment of the road (driving road) on which the target vehicle is traveling (also called "road environment element"), elements related to driving behavior (driving operation) that affects the workload (also called "driving behavior element"), and elements related to the driver's physical condition (also called "driver physical condition element"). In other words, the workload-related element is an element that is a candidate for the cause of an increase in the workload. Note that the workload-related element may be an element obtained by further subdividing at least one of the road environment element, the driving behavior element, and the driver's physical condition element.
従って、例えば、車載機1は、通話のための通信を車外端末2と確立している間、ワークロード関連要素毎に対象車両、運転者、又は走行環境に関する現在の状態を評価したスコア(「要素別スコア」とも呼ぶ。)を算出する。そして、車載機1は、算出した要素別スコアの合計値、平均値又はその他の代表値を、ワークロード値として定める。なお、要素別スコアを算出する対象となるワークロード関連要素は、道路環境要素、運転動作要素、運転者体調要素の全てであってもよく、これらのいずれか1つであってもよく、任意の2つであってもよい。また、要素別スコアは、好適には、各ワークロード関連要素のワークロードへの影響度合いに応じて重み付けされてもよい。この場合、例えば、ワークロードへの影響度が高い要素の要素別スコアに乗じる重み係数ほど大きい値となり、これらの重み係数を示す情報が予め記憶部12等に記憶されている。 Therefore, for example, while communication for a call is established with the external terminal 2, the vehicle-mounted device 1 calculates a score (also called an "element-specific score") that evaluates the current state of the target vehicle, the driver, or the driving environment for each workload-related element. The vehicle-mounted device 1 then determines the total value, average value, or other representative value of the calculated element-specific scores as the workload value. Note that the workload-related elements for which the element-specific scores are calculated may be all of the road environment elements, driving behavior elements, and driver physical condition elements, or any one of these, or any two of them. In addition, the element-specific scores may be preferably weighted according to the degree of influence of each workload-related element on the workload. In this case, for example, the weighting coefficient multiplied by the element-specific score of an element with a high degree of influence on the workload is a larger value, and information indicating these weighting coefficients is stored in advance in the storage unit 12, etc.
ここで、車載機1は、道路環境要素の要素別スコアを算出する場合、例えば、走行道路の混雑度、幅員、制限速度、視認性の少なくとも1つを勘案して要素別スコアを算出する。この場合、例えば、車載機1は、地図DB4の道路情報又は通信部11により取得される道路交通情報等を参照し、走行道路の混雑度、幅員、制限速度、視認性等の各度合いを特定し、特定した各度合いを所定の式又はテーブルを参照して要素別スコアに換算する。所定の式又はテーブルは予め記憶部12等に記憶されている。なお、道路環境要素は、複数のワークロード関連要素として細分化されてもよい。この場合、例えば、車載機1は、走行道路の混雑度、幅員、制限速度、視認性の各々をワークロード関連要素とみなし、これらの要素別スコアを夫々算出してもよい。 Here, when the vehicle-mounted device 1 calculates the element-specific score of the road environment element, for example, the vehicle-mounted device 1 calculates the element-specific score by taking into account at least one of the congestion degree, width, speed limit, and visibility of the road to be traveled. In this case, for example, the vehicle-mounted device 1 refers to the road information in the map DB 4 or the road traffic information acquired by the communication unit 11, and identifies the degree of congestion degree, width, speed limit, visibility, etc. of the road to be traveled, and converts each identified degree into an element-specific score by referring to a predetermined formula or table. The predetermined formula or table is stored in the storage unit 12 or the like in advance. Note that the road environment element may be subdivided into multiple workload-related elements. In this case, for example, the vehicle-mounted device 1 may regard each of the congestion degree, width, speed limit, and visibility of the road to be traveled as a workload-related element, and calculate the element-specific score for each of these.
また、車載機1は、運転動作要素の要素別スコアを算出する場合、例えば、現在の運転動作が、右折、左折、合流、一時停止等のいずれの運転動作に該当するかを判定し、判定した運転動作に応じた要素別スコアを算出する。この場合、例えば、車載機1は、該当する運転動作と運転動作要素の要素別スコアとを対応付けたテーブル等を参照し、運転動作要素の要素別スコアを決定する。ここで、車載機1は、現在の運転動作を、経路案内処理により得られる情報(例えば対象車両の現在位置と設定された目的地までの経路)により判定してもよく、対象車両から得られるウィンカーの状態又はステアリングの状態を表す信号に基づき判定してもよい。また、車載機1は、オートクルーズ走行の有無(又はその他の自動運転機能の有無)に基づき、運転動作要素の要素別スコアを決定してもよい。なお、運転動作要素は、複数のワークロード関連要素として細分化されてもよい。例えば、右折の有無、左折の有無、合流の有無、一時停止の有無、オートクルーズ走行の有無が夫々ワークロード関連要素として設定され、車載機1は、これらの各ワークロード関連要素の要素別スコアを、所定のテーブル等を参照し、対応する運転動作の有無に応じて決定する。 In addition, when the vehicle-mounted device 1 calculates the element-specific score of the driving operation element, for example, the vehicle-mounted device 1 determines whether the current driving operation corresponds to a driving operation such as a right turn, a left turn, a merge, or a temporary stop, and calculates the element-specific score according to the determined driving operation. In this case, for example, the vehicle-mounted device 1 determines the element-specific score of the driving operation element by referring to a table or the like that associates the corresponding driving operation with the element-specific score of the driving operation element. Here, the vehicle-mounted device 1 may determine the current driving operation based on information obtained by the route guidance process (for example, the current position of the target vehicle and the route to the set destination), or may determine the current driving operation based on a signal indicating the state of the turn signal or the steering state obtained from the target vehicle. In addition, the vehicle-mounted device 1 may determine the element-specific score of the driving operation element based on the presence or absence of auto-cruise driving (or the presence or absence of other automatic driving functions). The driving operation element may be subdivided into multiple workload-related elements. For example, whether or not to turn right, whether or not to turn left, whether or not to merge, whether or not to stop, and whether or not to drive on auto-cruise are each set as workload-related elements, and the vehicle-mounted device 1 determines the element-specific score for each of these workload-related elements by referring to a predetermined table or the like, depending on the presence or absence of the corresponding driving action.
また、車載機1は、運転者体調要素の要素別スコアを算出する場合、運転者の連続運転時間、眠気度(覚醒度)、その他運転に影響を与える生体指標の少なくとも1つを勘案して要素別スコアを算出する。この場合、車載機1は、例えば、眠気度又はその他運転に影響を与える生体指標を、生体センサ54が出力する信号に基づき特定する。そして、車載機1は、所定の式又はテーブルを参照し、特定した連続運転時間と1又は複数の生体指標とを、運転者体調要素の要素別スコアに換算する。なお、運転者体調要素は、複数のワークロード関連要素として細分化されてもよい。この場合、例えば、車載機1は、眠気度、連続運転時間の各々をワークロード関連要素とみなし、これらの要素別スコアを夫々算出してもよい。 Furthermore, when calculating the element-specific score of the driver's physical condition element, the vehicle-mounted device 1 calculates the element-specific score by taking into account at least one of the driver's continuous driving time, drowsiness level (alertness level), and other bioindicators that affect driving. In this case, the vehicle-mounted device 1, for example, identifies the drowsiness level or other bioindicators that affect driving based on the signal output by the biosensor 54. The vehicle-mounted device 1 then refers to a predetermined formula or table and converts the identified continuous driving time and one or more bioindicators into an element-specific score of the driver's physical condition element. Note that the driver's physical condition element may be subdivided into multiple workload-related elements. In this case, for example, the vehicle-mounted device 1 may regard each of the drowsiness level and the continuous driving time as a workload-related element and calculate the element-specific score for each of these.
以上のようにすることで、車載機1は、ワークロードに影響がある種々の要素を勘案してワークロード値を決定することができる。 By doing the above, the vehicle-mounted device 1 can determine the workload value by taking into account various factors that affect the workload.
(1-3-2)周辺撮影画像の表示範囲の決定
次に、車載機1が車外端末2に表示させる周辺撮影画像の表示範囲の決定方法について説明する。車載機1は、ワークロード値が所定の閾値(「ワークロード閾値」とも呼ぶ。)以下の場合、撮影される全体の画角に対する一部の画角(「通常画角」とも呼ぶ。)に対応する周辺撮影画像を車外端末2に表示させる。一方、車載機1は、ワークロード値がワークロード閾値より大きい場合、通常画角よりも広い画角(「広画角」とも呼ぶ。)に対応する周辺撮影画像を車外端末2に表示させる。ワークロード閾値は、例えば記憶部12に予め記憶されている。
(1-3-2) Determining the display range of peripheral captured images Next, a method for determining the display range of peripheral captured images to be displayed on the external terminal 2 by the in-vehicle device 1 will be described. When the workload value is equal to or less than a predetermined threshold (also referred to as the "workload threshold"), the in-vehicle device 1 causes the external terminal 2 to display peripheral captured images corresponding to a portion of the angle of view (also referred to as the "normal angle of view") relative to the overall angle of view captured. On the other hand, when the workload value is greater than the workload threshold, the in-vehicle device 1 causes the external terminal 2 to display peripheral captured images corresponding to an angle of view (also referred to as the "wide angle of view") wider than the normal angle of view. The workload threshold is stored in advance in, for example, the storage unit 12.
以下では、1台の車外撮影カメラ51が設けられている場合と複数台の車外撮影カメラ51が設けられている場合との表示用周辺撮影画像の決定方法について夫々具体的に説明する。以後では、通常画角に対応する周辺撮影画像を表示する表示モードを「通常画角モード」と呼び、広画角に対応する周辺撮影画像を表示する表示モードを「広画角モード」とも呼ぶ。なお、通常画角モード及び広画角モードのいずれにおいても、周辺撮影画像の表示範囲は、対象車両の前方方向を少なくとも含む範囲であり、車載機1は、通常画角モードか広画角モードかの違いに応じて、対象車両の前方方向を基準とした周辺撮影画像の表示範囲の幅を変化させる。 Below, a specific description will be given of a method for determining the display peripheral image when one exterior camera 51 is provided and when multiple exterior cameras 51 are provided. Hereinafter, the display mode that displays the peripheral image corresponding to the normal angle of view will be referred to as the "normal angle of view mode," and the display mode that displays the peripheral image corresponding to the wide angle of view will be referred to as the "wide angle of view mode." In both the normal angle of view mode and the wide angle of view mode, the display range of the peripheral image includes at least the forward direction of the target vehicle, and the vehicle-mounted device 1 changes the width of the display range of the peripheral image based on the forward direction of the target vehicle depending on whether the normal angle of view mode or the wide angle of view mode is selected.
図4(A)は、対象車両に設けられた車外撮影カメラ51と車外撮影カメラ51の撮影範囲「R」とを明示した対象車両の俯瞰図である。図4(B)は、通常画角モードと広画角モードの夫々において周辺撮影画像の表示範囲を明示した対象車両の俯瞰図である。撮影範囲Rは、車外撮影カメラ51が出力する原画像(即ち画角調整がなされる前の画像)において表される範囲である。 Figure 4 (A) is an overhead view of the target vehicle, clearly showing the exterior camera 51 installed on the target vehicle and the imaging range "R" of the exterior camera 51. Figure 4 (B) is an overhead view of the target vehicle, clearly showing the display range of the peripheral image in both the normal angle of view mode and the wide angle of view mode. The imaging range R is the range represented in the original image (i.e., the image before the angle of view is adjusted) output by the exterior camera 51.
図4(A)及び図4(B)に示す例では、通常画角モードにおいて、車載機1は、撮影範囲Rのうち、中心部分の画角に対応する中心範囲「R1」を、周辺撮影画像の表示範囲として決定する。この場合、例えば、車載機1は、撮影範囲Rに対応する原画像から中心範囲R1に対応する画像を切り出し、切り出した画像を、表示用周辺撮影画像として指定した表示指示データを車外端末2に送信する。言い換えると、車載機1は、車外撮影カメラ51が出力する原画像のうち、前方を基準とする部分画像を、表示用周辺撮影画像として定める。なお、車載機1は、表示指示データに、原画像である周辺撮影画像から切り出した表示用周辺撮影画像を含める代わりに、周辺撮影画像と、その表示範囲(即ち切り出す範囲)とを指定した情報を表示指示データに含めてもよい。 In the example shown in FIG. 4(A) and FIG. 4(B), in the normal angle of view mode, the vehicle-mounted device 1 determines the central range "R1" of the shooting range R, which corresponds to the angle of view of the center part, as the display range of the peripheral captured image. In this case, for example, the vehicle-mounted device 1 cuts out an image corresponding to the central range R1 from the original image corresponding to the shooting range R, and transmits display instruction data to the external terminal 2, specifying the cut-out image as the peripheral captured image for display. In other words, the vehicle-mounted device 1 determines a partial image based on the front of the original image output by the external camera 51 as the peripheral captured image for display. Note that the vehicle-mounted device 1 may include information specifying the peripheral captured image and its display range (i.e., the range to be cut out) in the display instruction data, instead of including the peripheral captured image for display cut out from the peripheral captured image, which is the original image, in the display instruction data.
一方、広画角モードでは、車載機1は、撮影範囲Rに対応する原画像である周辺撮影画像を、表示用周辺撮影画像として決定する。この場合、表示用周辺撮影画像は、中心範囲R1に、中心範囲R1の左に存在する左範囲「R2」及び右に存在する右範囲「R3」を加えた範囲(即ち撮影範囲Rの全範囲)に対応する画像となる。 On the other hand, in the wide-angle mode, the vehicle-mounted device 1 determines the peripheral image, which is the original image corresponding to the shooting range R, as the peripheral image for display. In this case, the peripheral image for display is an image corresponding to the range obtained by adding the left range "R2" to the left of the central range R1 and the right range "R3" to the right of the central range R1 (i.e., the entire range of the shooting range R).
図5(A)は、対象車両に設けられた3台の車外撮影カメラ51(51F、51L、51R)と各車外撮影カメラ51の撮影範囲R(RF、RL、RR)とを明示した対象車両の俯瞰図である。図5(B)は、通常画角モードと広画角モードの夫々において周辺撮影画像として表示される範囲を明示した対象車両の俯瞰図である。 Figure 5 (A) is an overhead view of the target vehicle, clearly showing the three exterior cameras 51 (51F, 51L, 51R) installed on the target vehicle and the shooting range R (RF, RL, RR) of each exterior camera 51. Figure 5 (B) is an overhead view of the target vehicle, clearly showing the range displayed as the surrounding shot image in both the normal angle of view mode and the wide angle of view mode.
図5(A)及び図5(B)に示す例では、通常画角モードにおいて、車載機1は、対象車両の前方を撮影する車外撮影カメラ51Fの撮影範囲「RF」に対応する画像を、表示用周辺撮影画像として決定する。この場合、車載機1は、車外撮影カメラ51Fが出力する原画像を、表示用周辺撮影画像として決定する。 In the example shown in FIG. 5(A) and FIG. 5(B), in the normal angle of view mode, the vehicle-mounted device 1 determines the image corresponding to the shooting range "RF" of the exterior camera 51F, which captures the area ahead of the target vehicle, as the surrounding captured image for display. In this case, the vehicle-mounted device 1 determines the original image output by the exterior camera 51F as the surrounding captured image for display.
一方、広画角モードでは、車載機1は、車外撮影カメラ51Fの撮影範囲RF、車外撮影カメラ51Lの撮影範囲「RL」、及び車外撮影カメラ51Rの撮影範囲「RR」に対応する画像を、表示する周辺撮影画像として決定する。この場合、車載機1は、車外撮影カメラ51Fが出力する画像、車外撮影カメラ51Lが出力する画像、及び車外撮影カメラ51Rが出力する画像を任意の画像合成技術を用いて合成する(つなぎ合わせる)ことにより、1枚のパノラマ画像を生成する。なお、対象車両に対する各車外撮影カメラ51の設置位置、向き、及びその他のパラメータ(内部パラメータ、外部パラメータを含む)を示す情報が記憶部12に記憶されている場合には、車載機1は、これらの情報を利用してパノラマ画像の生成を行ってもよい。上記のパノラマ画像は、周辺撮影画像及び合成画像の一例である。 On the other hand, in the wide angle mode, the vehicle-mounted device 1 determines the images corresponding to the shooting range RF of the outside-vehicle camera 51F, the shooting range "RL" of the outside-vehicle camera 51L, and the shooting range "RR" of the outside-vehicle camera 51R as the surrounding captured images to be displayed. In this case, the vehicle-mounted device 1 generates one panoramic image by synthesizing (splicing together) the images output by the outside-vehicle camera 51F, the images output by the outside-vehicle camera 51L, and the images output by the outside-vehicle camera 51R using any image synthesis technology. Note that, if information indicating the installation position, orientation, and other parameters (including internal parameters and external parameters) of each outside-vehicle camera 51 relative to the target vehicle is stored in the storage unit 12, the vehicle-mounted device 1 may generate the panoramic image using this information. The above panoramic image is an example of a surrounding captured image and a synthesized image.
なお、広画角モードにおける表示用周辺撮影画像は、上記のパノラマ画像の全範囲である必要はなく、通常画角モードにおける表示用周辺撮影画像よりも広い画角に対応する一部の範囲であってもよい。同様に、通常画角モードにおける表示用周辺撮影画像は、車外撮影カメラ51Fが出力する原画像に限らず、上記のパノラマ画像から対象車両の前方方向に対応する部分を切り出した部分画像であってもよい。また、車外撮影カメラ51が設けられる台数及び設置位置は、図4(A)及び図4(B)に示されるものに限定されず、3台以上であってもよく、対象車両の任意の位置に設けられてもよい。 The display peripheral image in the wide angle of view mode does not need to be the entire range of the panoramic image, but may be a partial range corresponding to a wider angle of view than the display peripheral image in the normal angle of view mode. Similarly, the display peripheral image in the normal angle of view mode is not limited to the original image output by the exterior camera 51F, but may be a partial image obtained by cutting out a portion of the panoramic image corresponding to the forward direction of the target vehicle. Furthermore, the number and installation positions of the exterior cameras 51 are not limited to those shown in Figures 4(A) and 4(B), and may be three or more, and may be installed at any position on the target vehicle.
(1-4)表示例
図6は、通常画角モードの実行中における車外端末2の第1表示例を示す。車外端末2は、車載機1と通信を確立しており、車載機1から受信する表示指示データに基づき、図6に示す表示画面を表示部26に表示している。
(1-4) Display example
6 shows a first display example of the external terminal 2 during execution of the normal angle of view mode. The external terminal 2 has established communication with the in-vehicle device 1, and displays the display screen shown in FIG. 6 on the display unit 26 based on display instruction data received from the in-vehicle device 1.
ここで、図6に示す表示画面は、周辺撮影画像表示欄60と、補足情報表示欄61と、地図表示欄62とを有する。 Here, the display screen shown in FIG. 6 has a surrounding captured image display area 60, a supplementary information display area 61, and a map display area 62.
車外端末2は、周辺撮影画像表示欄60上において、表示指示データに基づく最新の表示用周辺撮影画像を表示する。この例では、車載機1は、ワークロード値がワークロード閾値以下であると判定し、通常画角モードを実行する。従って、車載機1は、通常画角を有する最新の表示用周辺撮影画像を含む表示指示データを車外端末2に送信する。なお、車載機1は、車外撮影カメラ51が出力する周辺撮影画像と、表示範囲とを指定した表示指示データを車外端末2に送信してもよい。 The external terminal 2 displays the latest surrounding captured image for display based on the display instruction data on the surrounding captured image display area 60. In this example, the vehicle-mounted device 1 determines that the workload value is equal to or less than the workload threshold, and executes the normal angle of view mode. Therefore, the vehicle-mounted device 1 transmits display instruction data including the latest surrounding captured image for display having the normal angle of view to the external terminal 2. The vehicle-mounted device 1 may transmit to the external terminal 2 the surrounding captured image output by the external camera 51 and display instruction data specifying the display range.
また、車外端末2は、車載機1が送信する表示指示データに基づき、補足情報表示欄61上において、ワークロード表示ウィンドウ71と、インジケータ72と、画角モード表示ウィンドウ73と、を表示する。 In addition, the external terminal 2 displays a workload display window 71, an indicator 72, and a field of view mode display window 73 in the supplemental information display area 61 based on the display instruction data transmitted by the vehicle-mounted device 1.
ワークロード表示ウィンドウ71には、車載機1が算出したワークロード値のレベルが表示されている。ここでは、車載機1が算出したワークロード値がレベル1~レベル5のうちのレベル2であることから、ワークロード表示ウィンドウ71には、レベル2に相当する内容が示されている。また、インジケータ72は、ワークロードの度合いを表しており、車載機1が算出したワークロード値が大きいほど、右方向に延びたゲージを表す。なお、ゲージは、ワークロード値に応じて色が変化してもよい。例えば、ワークロード値が高いほど、目立つ色によりゲージが表示されてもよい。また、画角モード表示ウィンドウ73は、現在の表示用周辺撮影画像の表示モード(ここでは通常画角モード)を示している。 The workload display window 71 displays the level of the workload value calculated by the vehicle-mounted device 1. Here, since the workload value calculated by the vehicle-mounted device 1 is level 2 out of levels 1 to 5, the workload display window 71 displays content corresponding to level 2. The indicator 72 indicates the degree of workload, and the greater the workload value calculated by the vehicle-mounted device 1, the more extended the gauge is displayed to the right. The color of the gauge may change depending on the workload value. For example, the higher the workload value, the more noticeable the gauge may be displayed in a color. The angle of view mode display window 73 indicates the current display mode of the surrounding captured image for display (here, normal angle of view mode).
また、車外端末2は、地図表示欄62上において、対象車両の現在位置付近の地図を表示する。車載機1は、例えば、車両挙動検出器53に基づき推定した対象車両の状態と地図DB4と目的地までの経路案内に関する情報とに基づき上述の地図を車外端末2が表示するための表示指示データを生成し、当該表示指示データを車外端末2に送信する。なお、ここでは、地図表示欄62には、対象車両の現在位置を示す現在位置マーク77と、車載機1が対象車両の運転者を案内する案内経路を示す経路線78とが地図に重畳されている。 The external terminal 2 also displays a map of the vicinity of the current position of the target vehicle on the map display area 62. The in-vehicle device 1 generates display instruction data for the external terminal 2 to display the above-mentioned map based on, for example, the state of the target vehicle estimated based on the vehicle behavior detector 53, the map DB 4, and information related to route guidance to the destination, and transmits the display instruction data to the external terminal 2. Note that here, in the map display area 62, a current position mark 77 indicating the current position of the target vehicle and a route line 78 indicating the guided route along which the in-vehicle device 1 will guide the driver of the target vehicle are superimposed on the map.
このように、第1表示例では、車載機1は、ワークロード値がワークロード閾値以下となる場合に、通常画角モードを実行し、対象車両の現在位置周辺の地図やワークロード値に関する情報等を表示用周辺撮影画像と共に車外端末2のユーザに提示する。これにより、車外端末2のユーザは、対象車両及び運転者の現在の状態を好適に確認することができる。 In this way, in the first display example, when the workload value is equal to or less than the workload threshold, the in-vehicle device 1 executes the normal angle of view mode and presents a map of the area around the current location of the target vehicle, information about the workload value, and the like, together with a captured image of the surrounding area for display, to the user of the external terminal 2. This allows the user of the external terminal 2 to conveniently check the current state of the target vehicle and the driver.
図7は、広画角モードの実行中における車外端末2の第2表示例を示す。車外端末2は、車載機1と通信を確立しており、車載機1から受信する表示指示データに基づき、図7に示す表示画面を表示部26に表示している。車外端末2は、表示画面上に、周辺撮影画像表示欄60Aと、補足情報表示欄61とを設けている。 Figure 7 shows a second display example of the external terminal 2 when the wide angle mode is being executed. The external terminal 2 has established communication with the in-vehicle device 1, and displays the display screen shown in Figure 7 on the display unit 26 based on the display instruction data received from the in-vehicle device 1. The external terminal 2 has a surrounding captured image display area 60A and a supplemental information display area 61 on the display screen.
車外端末2は、周辺撮影画像表示欄60A上において、車載機1から受信する表示指示データに基づき、最新の表示用周辺撮影画像を表示する。この例では、車載機1は、ワークロード値がワークロード閾値より大きいと判定し、広画角モードを実行する。従って、車載機1は、広画角を有する表示用周辺撮影画像を含む表示指示データを車外端末2に送信する。なお、車載機1は、車外撮影カメラ51が出力する周辺撮影画像と、表示範囲とを指定した表示指示データを車外端末2に送信してもよい。 The external terminal 2 displays the latest surrounding captured image for display on the surrounding captured image display area 60A based on the display instruction data received from the vehicle-mounted device 1. In this example, the vehicle-mounted device 1 determines that the workload value is greater than the workload threshold and executes the wide angle mode. Therefore, the vehicle-mounted device 1 transmits display instruction data including the surrounding captured image for display having a wide angle of view to the external terminal 2. The vehicle-mounted device 1 may transmit to the external terminal 2 the surrounding captured image output by the external camera 51 and display instruction data specifying the display range.
この場合、通常画角モードにおける表示用周辺撮影画像よりも広画角モードにおける表示用周辺撮影画像の方が画像サイズが大きい(即ち表示する範囲が広い)。よって、ここでは、車外端末2は、通常画角モードの実行中である図6の第1表示例における周辺撮影画像表示欄60と地図表示欄62とを合わせたフィールドを周辺撮影画像表示欄60Aとして設け、広画角の表示用周辺撮影画像を周辺撮影画像表示欄60Aに表示している。 In this case, the image size of the peripheral captured image for display in the wide angle of view mode is larger (i.e., the range displayed is wider) than the peripheral captured image for display in the normal angle of view mode. Therefore, here, the external terminal 2 provides a field combining the peripheral captured image display field 60 and the map display field 62 in the first display example of FIG. 6 when the normal angle of view mode is being executed as the peripheral captured image display field 60A, and displays the peripheral captured image for display with the wide angle of view in the peripheral captured image display field 60A.
また、車外端末2は、車載機1から受信する表示指示データに基づき、補足情報表示欄61上において、ワークロード値又はワークロード値のレベル(ここではレベル4)を示すワークロード表示ウィンドウ71及びインジケータ72を表示する。さらに、画角モード表示ウィンドウ73は、現在の表示用周辺撮影画像の表示モード(ここでは広画角モード)を示している。 The external terminal 2 also displays a workload display window 71 and an indicator 72 indicating the workload value or the level of the workload value (here, level 4) on the supplemental information display field 61 based on the display instruction data received from the vehicle-mounted device 1. Furthermore, the angle of view mode display window 73 indicates the current display mode of the peripheral captured image for display (here, wide angle of view mode).
このように、第2表示例では、車載機1は、ワークロード値がワークロード閾値より大きい場合に、広画角モードを実行し、画角が拡大された周辺撮影画像を車外端末2のユーザに提示する。これにより、車外端末2のユーザは、対象車両の前方方向を含む広い視野により対象車両の周辺を確認することができ、運転者の安全確認を好適に補助することができる。また、運転者は、同乗者が見守ってくれているような安心感を得ることができ、あたかも車外端末2のユーザが実際に同乗しているような一体感を得ることができる。 In this way, in the second display example, when the workload value is greater than the workload threshold, the in-vehicle device 1 executes the wide angle of view mode and presents the user of the external terminal 2 with a surrounding captured image with an expanded angle of view. This allows the user of the external terminal 2 to check the surroundings of the target vehicle with a wide field of view that includes the direction ahead of the target vehicle, and can ideally assist the driver in checking for safety. In addition, the driver can feel a sense of security as if a passenger is watching over him or her, and can feel a sense of unity as if the user of the external terminal 2 is actually riding with him or her.
なお、第1表示例及び第2表示例における表示レイアウトは一例であり、種々の変更が適用されてもよい。例えば、車外端末2は、車外端末2のユーザの車外端末2への操作に基づき、地図に代えて、運転者撮影画像を表示してもよい。他の例では、車外端末2は、広画角モード(及び通常画角モード)の実行中において、補足情報表示欄61を表示しなくともよい。さらに別の例では、車外端末2は、地図表示欄62を通常画角モードの実行中よりも縮小して広画角モードの実行中に表示してもよい。 The display layouts in the first and second display examples are merely examples, and various modifications may be applied. For example, the exterior terminal 2 may display an image captured by the driver instead of a map, based on an operation on the exterior terminal 2 by the user of the exterior terminal 2. In another example, the exterior terminal 2 may not display the supplemental information display field 61 while the wide angle mode (and the normal angle mode) is being executed. In yet another example, the exterior terminal 2 may display the map display field 62 while the wide angle mode is being executed, in a smaller size than during the normal angle mode.
(1-5)処理フロー
図8は、車載機1が実行する処理の手順を示すフローチャートの一例である。車載機1は、図8に示すフローチャートの処理を、車外端末2との通信が確立され、通話が開始された場合に実行する。
(1-5) Processing flow
Fig. 8 is an example of a flowchart showing a procedure of a process executed by the vehicle-mounted device 1. The vehicle-mounted device 1 executes the process of the flowchart shown in Fig. 8 when communication with the external terminal 2 is established and a call is started.
まず、車載機1は、対象車両の運転者のワークロードに関連する各ワークロード関連要素のスコア(即ち要素別スコア)を算出する(ステップS101)。この場合、車載機1は、地図DB4及びセンサ群15が出力するデータ等に基づき、道路環境要素、運転動作要素、運転者体調要素、又はこれらを細分化した要素ごとの要素別スコアを算出する。 First, the vehicle-mounted device 1 calculates the score of each workload-related element related to the workload of the driver of the target vehicle (i.e., element-specific score) (step S101). In this case, the vehicle-mounted device 1 calculates element-specific scores for road environment elements, driving behavior elements, driver physical condition elements, or elements that are further subdivided from these, based on the map DB 4 and data output by the sensor group 15.
次に、車載機1は、各ワークロード関連要素のスコア(要素別スコア)に基づき、ワークロード値を算出する(ステップS102)。この場合、車載機1は、要素別スコアを合算又は平均(重み係数を用いる場合を含む)したワークロード値を算出してもよく、ワークロード値を算出する式に各要素別スコアを代入することで、ワークロード値を算出してもよい。 Next, the vehicle-mounted device 1 calculates a workload value based on the scores of each workload-related element (element-specific scores) (step S102). In this case, the vehicle-mounted device 1 may calculate a workload value by adding up or averaging (including using a weighting factor) the element-specific scores, or may calculate the workload value by substituting each element-specific score into a formula for calculating the workload value.
次に、車載機1は、ワークロード値がワークロード閾値より大きい値であるか否か判定する(ステップS103)。そして、ワークロード値がワークロード閾値より大きい値である場合(ステップS103;Yes)、車載機1は、広画角モードを実行すべきと判断し、広画角の表示用周辺撮影画像の表示を車外端末2に指示する表示指示データを車外端末2に供給する(ステップS104)。 Next, the vehicle-mounted device 1 determines whether the workload value is greater than the workload threshold (step S103). If the workload value is greater than the workload threshold (step S103; Yes), the vehicle-mounted device 1 determines that the wide-angle mode should be executed, and supplies display instruction data to the external terminal 2 that instructs the external terminal 2 to display a wide-angle peripheral image for display (step S104).
一方、ワークロード値がワークロード閾値以下である場合(ステップS103;No)、車載機1は、通常画角モードを実行すべきと判断し、通常画角の表示用周辺撮影画像の表示を車外端末2に指示する表示指示データを車外端末2に供給する(ステップS105)。これにより、車外端末2は、表示指示データに基づいて、通常画角の表示用周辺撮影画像を表示する。なお、ステップS104又はステップS105において、表示指示データに、ワークロードに関する情報、現在位置周辺の地図を表示するための地図表示情報、又は運転者撮影画像の少なくともいずれかが含まれている場合には、車外端末2は、これらの情報の少なくともいずれかに基づく表示を行ってもよい。 On the other hand, if the workload value is equal to or less than the workload threshold (step S103; No), the in-vehicle device 1 determines that the normal angle of view mode should be executed, and supplies the external terminal 2 with display instruction data instructing the external terminal 2 to display the surrounding captured image for display at the normal angle of view (step S105). As a result, the external terminal 2 displays the surrounding captured image for display at the normal angle of view based on the display instruction data. Note that in step S104 or step S105, if the display instruction data includes at least one of information related to the workload, map display information for displaying a map around the current position, or an image captured by the driver, the external terminal 2 may perform display based on at least one of these pieces of information.
そして、車載機1は、通話が終了したか否か判定する(ステップS106)。そして、車載機1は、通話が終了したと判定した場合(ステップS106;Yes)、フローチャートの処理を終了する。一方、車載機1は、通話が終了していないと判定した場合(ステップS106;No)、ステップS101へ処理を戻す。 Then, the vehicle-mounted device 1 determines whether the call has ended (step S106). If the vehicle-mounted device 1 determines that the call has ended (step S106; Yes), it ends the processing of the flowchart. On the other hand, if the vehicle-mounted device 1 determines that the call has not ended (step S106; No), it returns the processing to step S101.
(1-6)変形例
次に、上述した実施例に好適な変形例について説明する。以下の変形例は組み合わせて上述の実施例に適用してもよい。
(1-6) Modified Example
Next, preferred modifications of the above-mentioned embodiment will be described. The following modifications may be combined and applied to the above-mentioned embodiment.
(変形例1-1)
車載機1は、周辺撮影画像を車外端末2に表示させる場合、認識した運転者の視線の軌跡を表す線(視線トラッキング線)を周辺撮影画像に重畳してもよい。
(Variation 1-1)
When the in-vehicle device 1 displays the peripheral captured image on the external terminal 2, the in-vehicle device 1 may superimpose a line (gaze tracking line) representing the recognized trajectory of the driver's gaze on the peripheral captured image.
図9は、広画角モードにおける変形例1-1に係る車外端末2の第3表示例を示す。車外端末2は、車載機1と通信を確立しており、車載機1から受信する表示指示データに基づき、図9に示す表示画面を表示部26に表示している。ここでは、一例として、車外端末2は、車載機1から受信する表示指示データに基づき、第2表示例と同様、通常より広い画角となる周辺撮影画像を表示した周辺撮影画像表示欄60Aと、補足情報表示欄61とを表示画面に設けている。 Figure 9 shows a third display example of the external terminal 2 relating to variant example 1-1 in the wide angle of view mode. The external terminal 2 has established communication with the vehicle-mounted device 1, and displays the display screen shown in Figure 9 on the display unit 26 based on the display instruction data received from the vehicle-mounted device 1. Here, as an example, the external terminal 2 provides a peripheral captured image display area 60A that displays peripheral captured images with a wider angle of view than normal, and a supplementary information display area 61 on the display screen based on the display instruction data received from the vehicle-mounted device 1, similar to the second display example.
ここで、周辺撮影画像表示欄60A上では、直近の所定期間内における対象車両の運転者の視線方向の軌跡を示す視線トラッキング線66が、周辺撮影画像内における視線方向に対応付けて、最新の周辺撮影画像上に重畳表示されている。この場合、車載機1は、任意の視線検出技術に基づき、運転者撮影画像から同時刻に撮影された周辺撮影画像上の視線方向を検出し、検出した視線方向を示す視線方向データを生成する。そして、車載機1は、車外端末2に送信する表示指示データに含める周辺撮影画像に、視線方向データが示す直近の所定期間内の運転者の視線方向を示す視線トラッキング線66を重畳する。上記の所定期間の長さは、例えば予め記憶部12に記憶されている。そして、表示指示データを受信した車外端末2は、視線トラッキング線66が重畳された周辺撮影画像を、周辺撮影画像表示欄60に表示する。 Here, in the peripheral image display area 60A, an eye tracking line 66 indicating the trajectory of the eye gaze direction of the driver of the target vehicle within the most recent specified period is superimposed on the latest peripheral image in correspondence with the eye gaze direction in the peripheral image. In this case, the vehicle-mounted device 1 detects the eye gaze direction on the peripheral image captured at the same time as the driver's image based on any eye gaze detection technology, and generates eye gaze direction data indicating the detected eye gaze direction. Then, the vehicle-mounted device 1 superimposes the eye gaze tracking line 66 indicating the eye gaze direction of the driver within the most recent specified period indicated by the eye gaze direction data on the peripheral image included in the display instruction data to be transmitted to the external terminal 2. The length of the above-mentioned specified period is stored in advance in the storage unit 12, for example. Then, the external terminal 2 that has received the display instruction data displays the peripheral image with the eye gaze tracking line 66 superimposed on it in the peripheral image display area 60.
なお、車載機1は、例えば、周辺撮影画像上の各位置と当該位置を運転者が見ているときの顔画像モデルとを対応付けた顔視線対応データを予め記憶しておき、当該顔視線対応データに基づき、視線方向データを生成してもよい。この場合、車載機1は、運転者撮影画像から抽出した運転者の顔画像と最も一致度が高い顔画像モデルを特定し、特定した顔画像モデルに対応する周辺撮影画像上の位置を示す視線方向データを生成する。 The vehicle-mounted device 1 may, for example, store in advance face-gaze correspondence data that associates each position on the peripheral photographed image with a face image model when the driver is looking at that position, and generate gaze direction data based on the face-gaze correspondence data. In this case, the vehicle-mounted device 1 identifies the face image model that most closely matches the driver's face image extracted from the driver's photographed image, and generates gaze direction data that indicates the position on the peripheral photographed image that corresponds to the identified face image model.
このように、本変形例によれば、運転者の注意が薄い方向(図8の例では右方向)を車外端末2のユーザが好適に把握することができるため、車外端末2のユーザは、運転者との通話により、運転者の注意が薄い方向の安全確認を補助することができる。また、運転者は同乗者が見守ってくれているような安心感を得ることができ、あたかも車外端末2のユーザが実際に同乗しているような一体感を得ることができる。 In this way, according to this modified example, the user of the external terminal 2 can easily grasp the direction in which the driver is not paying much attention (the right direction in the example of FIG. 8), and the user of the external terminal 2 can assist the driver in checking for safety in the direction in which the driver is not paying much attention by talking to the driver. In addition, the driver can feel a sense of security as if a passenger is watching over him or her, and can feel a sense of unity as if the user of the external terminal 2 is actually riding with the driver.
好適な例では、車載機1は、ワークロード値に応じて、視線トラッキング線の表示態様(表示色、表示有無等)を変化させてもよい。例えば、車載機1は、ワークロード値が所定の閾値以上となった場合に視線トラッキング線を周辺撮影画像に重畳表示し、ワークロード値が上記閾値未満となった場合に視線トラッキング線を非表示にする。上述の所定の閾値は、ワークロード閾値と同一であってもよく、異なっていてもよい。これにより、車載機1は、車外端末2のユーザによる安全確認の補助が必要である蓋然性が高い場合に限定して視線トラッキング線を表示することができる。一方、車外端末2のユーザによる安全確認の補助が不要な通常時においては、車外端末2のユーザは周辺撮影画像により風景を楽しむことができる。他の例では、車載機1は、ワークロード値に応じた色により視線トラッキング線を表示してもよい。この場合、車載機1は、例えば、ワークロード値が高いほど目立つ色により視線トラッキング線を表示する。 In a preferred example, the vehicle-mounted device 1 may change the display mode (display color, display on/off, etc.) of the gaze tracking line according to the workload value. For example, the vehicle-mounted device 1 superimposes the gaze tracking line on the peripheral captured image when the workload value is equal to or greater than a predetermined threshold, and hides the gaze tracking line when the workload value is less than the threshold. The above-mentioned predetermined threshold may be the same as the workload threshold, or may be different. In this way, the vehicle-mounted device 1 can display the gaze tracking line only when there is a high probability that the user of the external terminal 2 needs assistance in safety confirmation. On the other hand, during normal times when the user of the external terminal 2 does not need assistance in safety confirmation, the user of the external terminal 2 can enjoy the scenery from the peripheral captured image. In another example, the vehicle-mounted device 1 may display the gaze tracking line in a color according to the workload value. In this case, the vehicle-mounted device 1 displays the gaze tracking line in a color that is more noticeable the higher the workload value, for example.
また、視線トラッキング線を表示する場合、車載機1は、周辺撮影画像において運転者が視線を向けるべき対象物(「注視対象物」とも呼ぶ。)を強調表示して車外端末2に表示させてもよい。注視対象物は、例えば、信号機、道路標識、障害物、歩行者などを含む。この場合、車載機1は、任意の物体認識技術(インスタンスセグメンテーションなどの深層学習モデルを利用したものを含む)を用い、予め定めた注視対象物として定めた種類に該当する物体を周辺撮影画像から抽出する。そして、車載機1は、例えば、抽出した周辺撮影画像上の対象物のエリアを縁取りなどにより強調し、かつ、視線トラッキング線を重畳するように、周辺撮影画像を加工し、加工した周辺撮影画像を表示指示データに含めて車外端末2に送信する。表示指示データを受信した車外端末2は、視線トラッキング線が重畳され、かつ、注視対象物が強調された周辺撮影画像を表示する。これにより、車外端末2のユーザは、周辺撮影画像により、運転者が注視していない注視対象物の存在を認識し、当該注視対象物に注意を向けるように運転者にアドバイスすることができる。 In addition, when displaying the gaze tracking line, the vehicle-mounted device 1 may highlight an object (also called a "gaze target") to which the driver should direct his/her gaze in the surrounding captured image and display it on the external terminal 2. The gaze target includes, for example, a traffic light, a road sign, an obstacle, a pedestrian, etc. In this case, the vehicle-mounted device 1 uses any object recognition technology (including those using deep learning models such as instance segmentation) to extract objects corresponding to a type determined in advance as a gaze target from the surrounding captured image. Then, the vehicle-mounted device 1 processes the surrounding captured image, for example, to highlight the area of the target on the extracted surrounding captured image by edging, and to superimpose the gaze tracking line, and transmits the processed surrounding captured image to the external terminal 2 together with the display instruction data. The external terminal 2 that has received the display instruction data displays the surrounding captured image with the gaze tracking line superimposed and the gaze target highlighted. This allows the user of the external terminal 2 to recognize the presence of an object that the driver is not looking at from the surrounding captured image, and to advise the driver to pay attention to the object.
(変形例1-2)
車載機1は、ワークロード値に基づき、通常画角モードと広画角モードの切替を行う代わりに、運転者の所定の操作を検知した場合に、通常画角モードと広画角モードの切替を行ってもよい。
(Variation 1-2)
The vehicle-mounted device 1 may switch between the normal angle-of-view mode and the wide angle-of-view mode when a predetermined operation by the driver is detected, instead of switching between the normal angle-of-view mode and the wide angle-of-view mode based on the workload value.
例えば、車載機1は、入力部13として音声入力装置を備え、音声入力装置により運転者の所定のキーワードを含む発話を検出した場合に、通常画角モードから広画角モードへの切替を実行する。例えば、車載機1は、「安全確認を手伝って」又はこれに類似する発話を検出した場合、通常画角モードから広画角モードへの切替を実行する。なお、車載機1は、安全確認の終了の合図となる所定のキーワード(「もういいよ」、「ありがとう」等)を含む発話を検出した場合に、広画角モードから通常画角モードへ再び切り替えるとよい。 For example, the vehicle-mounted device 1 has a voice input device as the input unit 13, and when the voice input device detects an utterance containing a predetermined keyword from the driver, the vehicle-mounted device 1 switches from the normal angle of view mode to the wide angle of view mode. For example, when the vehicle-mounted device 1 detects an utterance such as "Please help me check safety" or a similar utterance, the vehicle-mounted device 1 switches from the normal angle of view mode to the wide angle of view mode. Note that when the vehicle-mounted device 1 detects an utterance containing a predetermined keyword (such as "That's enough," "Thank you") that signals the end of the safety check, the vehicle-mounted device 1 may switch from the wide angle of view mode back to the normal angle of view mode.
なお、発話に限らず、種々のインターフェース(例えばボタン等)となる入力部13への所定の操作を検出した場合に、車載機1は、通常画角モードと広画角モードとの切替を行ってもよい。 In addition, when a specific operation is detected on the input unit 13, which is a type of interface (e.g., a button, etc.), not limited to speech, the vehicle-mounted device 1 may switch between the normal angle of view mode and the wide angle of view mode.
図10は、本変形例に係るフローチャートの一例である。車載機1は、図10に示すフローチャートの処理を、車外端末2との通信が確立され、通話が開始された場合に実行する。 Figure 10 is an example of a flowchart related to this modified example. The vehicle-mounted device 1 executes the process of the flowchart shown in Figure 10 when communication with the external terminal 2 is established and a call is started.
まず、車載機1は、運転補助を要求する運転者の所定の操作を検出したか否か判定する(ステップS111)。車載機1は、入力部13が生成する入力信号に基づき、上述の所定の操作の有無を判定する。 First, the vehicle-mounted device 1 determines whether or not a specific operation by the driver requesting driving assistance has been detected (step S111). The vehicle-mounted device 1 determines whether or not the specific operation has been performed based on an input signal generated by the input unit 13.
そして、車載機1は、運転補助を要求する運転者の所定の操作を検出した場合(ステップS111;Yes)、広画角モードを実行すべきと判断し、通常より広画角の表示用周辺撮影画像の表示を車外端末2に指示する表示指示データを車外端末2に供給する(ステップS112)。なお、この場合、車載機1は、運転補助の要求を中止する所定の操作を検出するまで、ステップS112を継続して実行してもよい。 When the vehicle-mounted device 1 detects a predetermined operation by the driver requesting driving assistance (step S111; Yes), it determines that the wide-angle mode should be executed, and supplies the vehicle-mounted device 2 with display instruction data that instructs the vehicle-mounted device 2 to display a surrounding image for display with a wider angle of view than usual (step S112). In this case, the vehicle-mounted device 1 may continue to execute step S112 until it detects a predetermined operation to cancel the request for driving assistance.
一方、車載機1は、運転補助を要求する運転者の所定の操作を検出しない場合(ステップS111;No)、通常画角モードを実行すべきと判断し、通常画角の表示用周辺撮影画像の表示を車外端末2に指示する表示指示データを車外端末2に供給する(ステップS113)。 On the other hand, if the in-vehicle device 1 does not detect a specific operation by the driver requesting driving assistance (step S111; No), it determines that the normal angle of view mode should be executed, and supplies display instruction data to the external terminal 2 instructing the external terminal 2 to display the surrounding captured image for display at the normal angle of view (step S113).
そして、車載機1は、通話が終了したか否か判定する(ステップS114)。そして、車載機1は、通話が終了したと判定した場合(ステップS114;Yes)、フローチャートの処理を終了する。一方、車載機1は、通話が終了していないと判定した場合(ステップS114;No)、ステップS111へ処理を戻す。 Then, the vehicle-mounted device 1 determines whether the call has ended (step S114). If the vehicle-mounted device 1 determines that the call has ended (step S114; Yes), it ends the processing of the flowchart. On the other hand, if the vehicle-mounted device 1 determines that the call has not ended (step S114; No), it returns the processing to step S111.
このように、本変形例では、車載機1は、運転者の要求に応じて、広画角モードを実行し、画角が拡大された周辺撮影画像を車外端末2のユーザに提示する。これにより、車外端末2のユーザは、広い視野により運転者の安全確認を好適に補助することができる。また、運転者は、同乗者が見守ってくれているような安心感を得ることができ、あたかも車外端末2のユーザが実際に同乗しているような一体感を得ることができる。 In this manner, in this modified example, the in-vehicle device 1 executes the wide-angle mode in response to a request from the driver, and presents the user of the external terminal 2 with a captured image of the surroundings with an expanded angle of view. This allows the user of the external terminal 2 to favorably assist the driver in checking for safety with a wide field of view. The driver can also feel a sense of security as if a passenger is watching over them, and can experience a sense of unity as if the user of the external terminal 2 is actually riding with them.
(変形例1-3)
車載機1は、ワークロード値がワークロード閾値より大きいか否かに応じて表示用周辺撮影画像の画角を変える代わりに、ワークロード値に応じて連続的又は段階的に(3段階以上により)表示用周辺撮影画像の画角を変えてもよい。
(Modification 1-3)
Instead of changing the angle of view of the peripheral captured image for display depending on whether the workload value is greater than the workload threshold, the vehicle-mounted device 1 may change the angle of view of the peripheral captured image for display continuously or stepwise (in three or more steps) depending on the workload value.
この場合においても、車載機1は、ワークロード値が高いほど、広い画角を有する表示用周辺撮影画像を車外端末2に表示させる。言い換えると、車載機1は、ワークロード値が高いほど、対象車両を基準とした左右方向(即ち画像の横方向)において周辺撮影画像の表示範囲を拡大する。なお、ワークロード値に応じた画角を示す情報は、例えば、記憶部12等に予め記憶されていてもよい。この態様によっても、車載機1は、ワークロード値に応じて、周辺撮影画像の表示範囲を的確に決定することができる。 Even in this case, the vehicle-mounted device 1 causes the external terminal 2 to display the display peripheral captured image having a wider angle of view as the workload value increases. In other words, the vehicle-mounted device 1 expands the display range of the peripheral captured image in the left-right direction (i.e., the horizontal direction of the image) relative to the target vehicle as the workload value increases. Note that information indicating the angle of view according to the workload value may be stored in advance in, for example, the storage unit 12. Even in this manner, the vehicle-mounted device 1 can accurately determine the display range of the peripheral captured image according to the workload value.
(変形例1-4)
車載機1が実行する処理の少なくとも一部の処理を、車載機1及び車外端末2とデータ通信を行うサーバ装置が実行してもよい。
(Modification 1-4)
At least a part of the processing executed by the vehicle-mounted device 1 may be executed by a server device that performs data communication with the vehicle-mounted device 1 and the external terminal 2 .
図11は、変形例1-3に係る運転通話システムの構成例を示す。運転通話システムは、車載機1Aと、車外端末2と、サーバ装置5とを有する。車載機1Aとサーバ装置5、及び、車外端末2とサーバ装置5は、夫々、通信網3を介してデータ通信を行う。 Figure 11 shows an example of the configuration of a driving call system according to variant 1-3. The driving call system has an in-vehicle device 1A, an external terminal 2, and a server device 5. The in-vehicle device 1A and the server device 5, and the external terminal 2 and the server device 5 each perform data communication via the communication network 3.
車載機1Aは、上述の第1実施例において説明した車載機1と同様の構成(図2参照)を有する。なお、地図DB4に基づく処理をサーバ装置5が行う場合には、車載機1Aは、地図DB4を有しなくともよい。そして、車載機1Aは、センサ群15が出力する情報、及び、入力部13により入力された入力情報などを含むアップロード信号をサーバ装置5に送信する。 The vehicle-mounted device 1A has the same configuration as the vehicle-mounted device 1 described in the first embodiment above (see FIG. 2). Note that, if the server device 5 performs processing based on the map DB 4, the vehicle-mounted device 1A does not need to have the map DB 4. The vehicle-mounted device 1A then transmits to the server device 5 an upload signal including information output by the sensor group 15 and input information input by the input unit 13.
サーバ装置5は、車載機1Aと車外端末2との音声通話に必要なデータの中継を行う。また、サーバ装置5は、音声通話中において、車載機1Aから受信するアップロード信号等に基づき、表示指示データを生成し、生成した表示指示データを車外端末2へ送信する。具体的には、サーバ装置5は、音声通話中において、車載機1Aから受信するアップロード信号等に基づき、図8又は図10に示されるフローチャートの処理を実行する。 The server device 5 relays data necessary for a voice call between the in-vehicle device 1A and the external terminal 2. During a voice call, the server device 5 generates display instruction data based on an upload signal or the like received from the in-vehicle device 1A, and transmits the generated display instruction data to the external terminal 2. Specifically, during a voice call, the server device 5 executes the process of the flowchart shown in FIG. 8 or FIG. 10 based on an upload signal or the like received from the in-vehicle device 1A.
図12は、サーバ装置5の概略構成の一例を示す。サーバ装置5は、主に、通信部41と、記憶部42と、制御部44とを有する。サーバ装置5内の各要素は、バスライン40を介して相互に接続されている。 Figure 12 shows an example of the schematic configuration of the server device 5. The server device 5 mainly has a communication unit 41, a storage unit 42, and a control unit 44. The elements in the server device 5 are connected to each other via a bus line 40.
通信部41は、制御部44の制御に基づき、車載機1A及び車外端末2などの外部装置とのデータ通信を行う。記憶部42は、RAM、ROM、不揮発性メモリ(ハードディスクドライブ、フラッシュメモリなどを含む)などの各種のメモリにより構成される。記憶部42は、サーバ装置5が所定の処理を実行するためのプログラムが記憶される。また、記憶部42は、地図DB4を含んでいる。制御部44は、CPU、GPUなどを含み、サーバ装置5の全体を制御する。また、制御部44は、記憶部42に記憶されたプログラムを実行することで、車外端末2に表示用周辺撮影画像を表示させるために必要な処理を実行する。 The communication unit 41 performs data communication with external devices such as the in-vehicle unit 1A and the external terminal 2 under the control of the control unit 44. The storage unit 42 is composed of various types of memory such as RAM, ROM, and non-volatile memory (including a hard disk drive, flash memory, etc.). The storage unit 42 stores programs for the server device 5 to execute predetermined processes. The storage unit 42 also includes a map DB 4. The control unit 44 includes a CPU, a GPU, etc., and controls the entire server device 5. The control unit 44 also executes the programs stored in the storage unit 42 to perform processes required to display the surrounding captured images for display on the external terminal 2.
このように、車外端末2に表示用周辺撮影画像を表示させるために必要な処理をサーバ装置5が実行する場合であっても、運転通話システムは、運転者のワークロードの状態を車外端末2のユーザに好適に認識させ、ユーザは、運転者に話しかけるのに都合がよいタイミングなどを見計らうことが可能となる。本変形例において、サーバ装置5は、「情報処理装置」の一例である。 In this way, even when the server device 5 executes the processing required to display the display peripheral captured image on the external terminal 2, the driving call system allows the user of the external terminal 2 to appropriately recognize the state of the driver's workload, and enables the user to choose a convenient time to talk to the driver. In this modified example, the server device 5 is an example of an "information processing device."
以上説明したように、車載機1又はサーバ装置5は、移動体である対象車両の運転者と対象車両の外部に存在する車外端末2のユーザとのコミュニケーションを仲介するシステムに用いられる情報処理装置であって、取得手段と、検出手段と、表示制御手段とを有する。取得手段は、対象車両から対象車両の周辺を撮影した周辺撮影画像を取得する。検出手段は、対象車両の運転者の状態又は操作を検出する。表示制御手段は、周辺撮影画像中の所定範囲を車外端末2に表示させる。この場合、表示制御手段は、運転者の状態又は操作に基づき、車外端末2に表示させる周辺撮影画像中の所定範囲を決定する。これにより、車載機1は、状況に応じた周辺撮影画像の表示範囲を決定し、必要に応じて安全確認の補助などを車外端末2のユーザに実行させることができる。 As described above, the in-vehicle device 1 or the server device 5 is an information processing device used in a system that mediates communication between the driver of a target vehicle, which is a moving body, and the user of the external terminal 2 located outside the target vehicle, and has an acquisition means, a detection means, and a display control means. The acquisition means acquires a surrounding image captured from the target vehicle. The detection means detects the state or operation of the driver of the target vehicle. The display control means causes the external terminal 2 to display a predetermined range of the surrounding image. In this case, the display control means determines the predetermined range of the surrounding image to be displayed on the external terminal 2 based on the state or operation of the driver. In this way, the in-vehicle device 1 determines the display range of the surrounding image according to the situation, and can cause the user of the external terminal 2 to perform assistance with safety confirmation, etc. as necessary.
<第2実施例>
第2実施例における車載機1は、運転者の視線方向に基づいて、表示用周辺撮影画像を決定する点において、第1実施例における車載機1と異なる。以後では、第1実施例と同一の構成要素については、適宜同一符号を付し、その説明を省略する。なお、以後の説明において、第2実施例に係る運転通話システムは、図1に示される構成を有するものとし、第2実施例に係る車載機1及び車外端末2は、夫々、図2及び図3に示される構成を有するものとする。
Second Example
The vehicle-mounted device 1 in the second embodiment differs from the vehicle-mounted device 1 in the first embodiment in that the display surrounding image is determined based on the driver's line of sight. Hereinafter, the same components as those in the first embodiment are appropriately designated by the same reference numerals, and the description thereof will be omitted. In the following description, the driving call system according to the second embodiment is assumed to have the configuration shown in FIG. 1, and the vehicle-mounted device 1 and the external terminal 2 according to the second embodiment are assumed to have the configurations shown in FIG. 2 and FIG. 3, respectively.
(2-1)周辺撮影画像の表示
第2実施例では、車載機1は、ワークロード値がワークロード閾値より高い場合において、運転者の視認頻度が低い方向(「低視認頻度方向」とも呼ぶ。)を特定し、特定した方向に対応する周辺撮影画像の範囲を、周辺撮影画像の表示範囲として決定する。低視認頻度方向は、対象車両を基準とした水平面上における方向(即ち方角)であり、「第1方向」の一例である。
(2-1) Display of surrounding images
In the second embodiment, when the workload value is higher than the workload threshold, the vehicle-mounted device 1 identifies a direction in which the driver has a low viewing frequency (also referred to as a "low viewing frequency direction"), and determines the range of the surrounding captured images corresponding to the identified direction as the display range of the surrounding captured images. The low viewing frequency direction is a direction (i.e., a bearing) on a horizontal plane based on the target vehicle, and is an example of the "first direction."
この場合、車載機1は、「(変形例1-1)」のセクションにて説明した運転者の視線方向の検出方法に基づき、直近の所定期間内における運転者の視線方向を特定する。この場合、例えば、車載機1は、運転者が視線を向ける候補となる候補方向(例えば、対象車両を基準とした前方方向、左方向、右方向の3方向)を予め定めておき、直近の所定期間内において所定時間間隔ごとに検出された視線方向のサンプルがどの候補方向に該当するか集計を行う。なお、各候補方向に関する情報(例えば対象車両を基準とした方角の範囲等)は、例えば、記憶部12に予め記憶されている。そして、車載機1は、全ての候補方向のうち、該当する視線方向のサンプルが最も少ない候補方向を、低視認頻度方向として特定する。なお、車載機1は、複数の低視認頻度方向を決定し、画面分割により対応する複数の表示用周辺撮影画像を車外端末2に表示させてもよい。例えば、車載機1は、前方方向を最も高い頻度により運転者が視認していると判定した場合、右方向及び左方向を夫々低視認頻度方向として特定し、各方向に対応する周辺撮影画像を2画面分割により車外端末2に表示させる。 In this case, the vehicle-mounted device 1 determines the driver's gaze direction within the most recent specified period based on the method for detecting the driver's gaze direction described in the section "(Variation 1-1)". In this case, for example, the vehicle-mounted device 1 predetermines candidate directions (e.g., three directions, forward, left, and right, based on the target vehicle) that are candidates for the driver's gaze direction, and counts which candidate direction corresponds to the gaze direction samples detected at predetermined time intervals within the most recent specified period. Note that information on each candidate direction (e.g., the range of directions based on the target vehicle, etc.) is prestored in the storage unit 12, for example. Then, the vehicle-mounted device 1 determines the candidate direction with the fewest samples of the corresponding gaze direction as the low viewing frequency direction among all the candidate directions. Note that the vehicle-mounted device 1 may determine multiple low viewing frequency directions and display multiple corresponding surrounding captured images on the external terminal 2 by screen division. For example, if the vehicle-mounted device 1 determines that the driver is most frequently viewing the forward direction, it identifies the right and left directions as directions with a low viewing frequency, and displays the captured images of the surroundings corresponding to each direction on the external terminal 2 by splitting the screen into two.
次に、特定した低視認頻度方向に基づき表示用周辺撮影画像を決定する方法について説明する。以下では、1台の車外撮影カメラ51が設けられた場合と複数台の車外撮影カメラ51が設けられた場合とでの表示用周辺撮影画像の決定方法について夫々具体的に説明する。 Next, a method for determining the surrounding captured image to be displayed based on the identified low viewing frequency direction will be described. Below, a specific method for determining the surrounding captured image to be displayed when one exterior camera 51 is installed and when multiple exterior cameras 51 are installed will be described.
図13(A)は、低視認頻度方向が右方向である場合の対象車両に設けられた車外撮影カメラ51と車外撮影カメラ51の撮影範囲Rにおける表示の有無の範囲とを明示した対象車両の俯瞰図である。図13(B)は、低視認頻度方向が左方向である場合の対象車両に設けられた車外撮影カメラ51と車外撮影カメラ51の撮影範囲Rにおける表示の有無の範囲とを明示した対象車両の俯瞰図である。 Figure 13 (A) is an overhead view of a target vehicle that clearly shows the exterior camera 51 installed on the target vehicle and the range of presence or absence of display in the shooting range R of the exterior camera 51 when the low visibility frequency direction is the right direction. Figure 13 (B) is an overhead view of a target vehicle that clearly shows the exterior camera 51 installed on the target vehicle and the range of presence or absence of display in the shooting range R of the exterior camera 51 when the low visibility frequency direction is the left direction.
図13(A)に示す例では、車載機1は、低視認頻度方向が右方向(詳しくは対象車両の右前方)であると特定し、車外撮影カメラ51が生成する周辺撮影画像の撮影範囲Rのうち右方向に対応する範囲「R11」を、周辺撮影画像の表示範囲として定める。この場合、例えば、車載機1は、撮影範囲Rに対応する周辺撮影画像から範囲R11に対応する画像を切り出し、切り出した画像を、表示用周辺撮影画像として指定した表示指示データを車外端末2に送信する。なお、車載機1は、表示指示データに、周辺撮影画像から切り出した表示用周辺撮影画像を含める代わりに、周辺撮影画像と、その表示範囲(即ち切り出す範囲)とを指定した情報を表示指示データに含めてもよい。 13(A), the vehicle-mounted device 1 identifies the low visual frequency direction as the right direction (specifically, the right front of the target vehicle) and determines the range "R11" corresponding to the right direction within the shooting range R of the peripheral captured image generated by the exterior camera 51 as the display range of the peripheral captured image. In this case, for example, the vehicle-mounted device 1 cuts out an image corresponding to range R11 from the peripheral captured image corresponding to the shooting range R, and transmits display instruction data specifying the cut-out image as the peripheral captured image for display to the exterior terminal 2. Note that instead of including the peripheral captured image for display cut out from the peripheral captured image in the display instruction data, the vehicle-mounted device 1 may include information specifying the peripheral captured image and its display range (i.e., the range to be cut out) in the display instruction data.
また、図13(B)に示す例では、車載機1は、低視認頻度方向が左方向(詳しくは対象車両の左前方)であると特定し、車外撮影カメラ51が生成する周辺撮影画像の撮影範囲Rのうち左方向に対応する範囲「R12」を、周辺撮影画像の表示範囲として定める。なお、車載機1は、ワークロード値がワークロード閾値以下である場合には、例えば、周辺撮影画像の撮影範囲Rのうち前方方向を含む範囲(範囲R11、R12と重複しない範囲であってもよく、一部が重複する範囲であってもよい)を、周辺撮影画像の表示範囲として定める。 13B, the vehicle-mounted device 1 determines that the low visibility direction is the left direction (specifically, the left front of the target vehicle) and determines the range "R12" corresponding to the left direction within the shooting range R of the peripheral captured image generated by the exterior camera 51 as the display range of the peripheral captured image. Note that when the workload value is equal to or less than the workload threshold, the vehicle-mounted device 1 determines, for example, a range including the forward direction within the shooting range R of the peripheral captured image (which may not overlap with the ranges R11 and R12, or may partially overlap with them) as the display range of the peripheral captured image.
このように、車載機1は、車外撮影カメラ51が一台である場合に、車外撮影カメラ51が出力する周辺撮影画像から、低視認頻度方向に対応する部分画像を、表示用周辺撮影画像として好適に決定することができる。 In this way, when there is one exterior camera 51, the vehicle-mounted device 1 can suitably determine a partial image corresponding to a low-frequency viewing direction from the surrounding captured image output by the exterior camera 51 as the surrounding captured image to be displayed.
図14(A)は、対象車両に設けられた3台の車外撮影カメラ51F、51L、51Rと、各車外撮影カメラ51の撮影範囲RF、RL、RRと、低視認頻度方向が右方向である場合の各範囲の表示の有無とを明示した対象車両の俯瞰図である。図14(B)は、車外撮影カメラ51F、51L、51Rと、各車外撮影カメラ51の撮影範囲RF、RL、RRと、低視認頻度方向が左方向である場合の各範囲の表示の有無とを明示した対象車両の俯瞰図である。 Figure 14 (A) is an overhead view of a target vehicle that clearly shows three exterior cameras 51F, 51L, and 51R installed on the target vehicle, the shooting ranges RF, RL, and RR of each exterior camera 51, and whether or not each range is displayed when the low visibility direction is to the right. Figure 14 (B) is an overhead view of a target vehicle that clearly shows three exterior cameras 51F, 51L, and 51R, the shooting ranges RF, RL, and RR of each exterior camera 51, and whether or not each range is displayed when the low visibility direction is to the left.
図14(A)に示す例では、車載機1は、低視認頻度方向が右方向であると特定し、右側を撮影する車外撮影カメラ51Rが生成する周辺撮影画像を、表示用周辺撮影画像として定める。一方、図14(B)に示す例では、車載機1は、低視認頻度方向が左方向であると特定し、左側を撮影する車外撮影カメラ51Lが生成する周辺撮影画像を、表示用周辺撮影画像として定める。また、車載機1は、ワークロード値がワークロード閾値以下である場合には、前方を撮影する車外撮影カメラ51Fが生成する周辺撮影画像を、表示用周辺撮影画像として定める。 In the example shown in FIG. 14(A), the vehicle-mounted device 1 identifies the low visibility direction as the right direction, and determines the peripheral image generated by the exterior camera 51R that captures the right side as the display peripheral image. On the other hand, in the example shown in FIG. 14(B), the vehicle-mounted device 1 identifies the low visibility direction as the left direction, and determines the peripheral image generated by the exterior camera 51L that captures the left side as the display peripheral image. In addition, when the workload value is equal to or less than the workload threshold, the vehicle-mounted device 1 determines the peripheral image generated by the exterior camera 51F that captures the front as the display peripheral image.
なお、車載機1は、車外撮影カメラ51Fが出力する画像、車外撮影カメラ51Lが出力する画像、及び車外撮影カメラ51Rが出力する画像を任意の画像合成技術を用いて合成した1枚のパノラマ画像を生成し、パノラマ画像から表示範囲を決定してもよい。上記のパノラマ画像は、周辺撮影画像及び合成画像の一例である。この場合、車載機1は、生成したパノラマ画像において低視認頻度方向に対応する範囲を、表示範囲として定める。また、車載機1は、ワークロード値がワークロード閾値以下である場合においても、パノラマ画像の一部の範囲(例えば対象車両の前方方向に対応する範囲)を、表示範囲として定める。この場合、表示用周辺撮影画像は、パノラマ画像の部分画像に相当する。 The vehicle-mounted device 1 may generate a single panoramic image by synthesizing the images output by the exterior camera 51F, the exterior camera 51L, and the exterior camera 51R using any image synthesis technology, and determine the display range from the panoramic image. The above panoramic image is an example of a peripheral image and a synthetic image. In this case, the vehicle-mounted device 1 determines the range corresponding to the low viewing frequency direction in the generated panoramic image as the display range. Furthermore, even if the workload value is equal to or less than the workload threshold, the vehicle-mounted device 1 determines a partial range of the panoramic image (for example, a range corresponding to the forward direction of the target vehicle) as the display range. In this case, the display peripheral image corresponds to a partial image of the panoramic image.
このように、車載機1は、車外撮影カメラ51が複数台である場合においても、各車外撮影カメラ51が出力する周辺撮影画像から、低視認頻度方向に対応する画像を、表示用周辺撮影画像として好適に決定することができる。 In this way, even when there are multiple exterior camera 51, the vehicle-mounted device 1 can suitably determine, from the surrounding captured images output by each exterior camera 51, an image corresponding to a direction with a low viewing frequency as the surrounding captured image to be displayed.
(2-2)表示例
図15は、第2実施例における車外端末2の第1表示例を示す。車外端末2は、車載機1と通信を確立しており、車載機1から受信する表示指示データに基づき、図15に示す表示画面を表示部26に表示している。
(2-2) Display examples
Fig. 15 shows a first display example of the external terminal 2 in the second embodiment. The external terminal 2 has established communication with the vehicle-mounted device 1, and displays the display screen shown in Fig. 15 on the display unit 26 based on display instruction data received from the vehicle-mounted device 1.
ここで、図15に示す表示画面は、周辺撮影画像表示欄60と、補足情報表示欄61と、地図表示欄62とを有する。 Here, the display screen shown in FIG. 15 has a surrounding captured image display area 60, a supplementary information display area 61, and a map display area 62.
車外端末2は、周辺撮影画像表示欄60上において、表示指示データに基づく最新の表示用周辺撮影画像を表示する。この例では、車載機1は、ワークロード値がワークロード閾値以下であると判定し、低視認頻度方向の特定を行わず、車外撮影カメラ51が出力する周辺撮影画像のうち対象車両の前方方向に少なくとも対応する範囲を、表示用周辺撮影画像として定める。なお、ここでは、対象車両には、図14(A)及び図14(B)に示されるように、車外撮影カメラ51F、車外撮影カメラ51R、車外撮影カメラ51Lが設けられ、車載機1は、車外撮影カメラ51Fが出力する周辺撮影画像を、表示用周辺撮影画像として決定している。そして、車載機1は、最新の表示用周辺撮影画像を含む表示指示データを車外端末2に送信する。 The external terminal 2 displays the latest display peripheral image based on the display instruction data on the peripheral image display field 60. In this example, the vehicle-mounted device 1 determines that the workload value is equal to or less than the workload threshold, does not identify the low viewing frequency direction, and determines the range of the peripheral image output by the external camera 51 that corresponds at least to the forward direction of the target vehicle as the display peripheral image. Note that, here, as shown in FIG. 14(A) and FIG. 14(B), the target vehicle is provided with the external camera 51F, the external camera 51R, and the external camera 51L, and the vehicle-mounted device 1 determines the peripheral image output by the external camera 51F as the display peripheral image. The vehicle-mounted device 1 then transmits display instruction data including the latest display peripheral image to the external terminal 2.
また、車外端末2は、車載機1が送信する表示指示データに基づき、補足情報表示欄61上において、運転者のワークロードに関する情報を表示するワークロード表示ウィンドウ71及びインジケータ72と、使用カメラ表示ウィンドウ74と、を表示する。 In addition, based on the display instruction data transmitted by the vehicle-mounted device 1, the external terminal 2 displays a workload display window 71 and an indicator 72 that display information about the driver's workload, and a camera usage display window 74 in the supplemental information display area 61.
使用カメラ表示ウィンドウ74は、周辺撮影画像表示欄60において表示されている表示用周辺撮影画像を出力しているカメラを識別する情報を表示する。ここでは、対象車両の前方を撮影する車外撮影カメラ51Fが出力する周辺撮影画像が表示用周辺撮影画像として使用されていることから、使用カメラ表示ウィンドウ74には、車外撮影カメラ51Fが用いられていることを示す「前方カメラ表示」と表示されている。 The camera in use display window 74 displays information identifying the camera that is outputting the display peripheral image displayed in the peripheral image display field 60. Here, the peripheral image output by the exterior camera 51F, which captures the area in front of the target vehicle, is used as the display peripheral image, so the camera in use display window 74 displays "Front camera display," indicating that the exterior camera 51F is being used.
また、車外端末2は、地図表示欄62上において、対象車両の現在位置付近の地図を表示する場合に、現在位置マーク77及び経路線78と共に、表示用周辺撮影画像に対応する地図上のエリア(即ち、低視認頻度方向)を示す表示角度範囲79を明示している。この場合、例えば、車載機1は、表示用周辺撮影画像を撮影した車外撮影カメラ51Fの撮影画角を特定し、特定した情報に基づき、車両挙動検出器53により特定される対象車両の現在位置及び進行方向を基準とする地図上での表示角度範囲79を決定する。なお、記憶部12には、各車外撮影カメラ51の撮影画角を示す情報が記憶されていてもよい。このように、車載機1は、表示用周辺撮影画像と共に、低視認頻度方向に対応する表示角度範囲79を示した地図を表示する。これにより、後述する表示例のように周辺撮影画像表示欄60に表示させる表示用周辺撮影画像の撮影方向が切り替わった場合においても、その切り替わった後の表示範囲を車外端末2のユーザが好適に認識することができる。 When the external terminal 2 displays a map near the current position of the target vehicle on the map display field 62, the external terminal 2 clearly indicates a display angle range 79 indicating an area on the map corresponding to the display peripheral image (i.e., a direction with low visibility frequency) together with the current position mark 77 and the route line 78. In this case, for example, the vehicle-mounted device 1 specifies the shooting angle of the external camera 51F that captured the display peripheral image, and determines the display angle range 79 on the map based on the current position and traveling direction of the target vehicle specified by the vehicle behavior detector 53 based on the specified information. Note that the storage unit 12 may store information indicating the shooting angle of each external camera 51. In this way, the vehicle-mounted device 1 displays a map indicating the display angle range 79 corresponding to the direction with low visibility frequency together with the display peripheral image. As a result, even if the shooting direction of the display peripheral image to be displayed in the peripheral image display field 60 is changed as in the display example described later, the user of the external terminal 2 can appropriately recognize the display range after the change.
図16は、第2実施例における車外端末2の第2表示例を示す。車外端末2は、車載機1と通信を確立しており、車載機1から受信する表示指示データに基づき、図16に示す表示画面を表示部26に表示している。 Figure 16 shows a second display example of the external terminal 2 in the second embodiment. The external terminal 2 has established communication with the vehicle-mounted device 1, and displays the display screen shown in Figure 16 on the display unit 26 based on the display instruction data received from the vehicle-mounted device 1.
車外端末2は、周辺撮影画像表示欄60上において、表示指示データに基づく最新の表示用周辺撮影画像を表示する。この例では、車載機1は、ワークロード値がワークロード閾値より大きい値であると判定し、右方向を低視認頻度方向として特定する。従って、車載機1は、車外撮影カメラ51(51F、51R、51L)が出力する周辺撮影画像のうち対象車両の右方向に対応する範囲を、表示用周辺撮影画像として定める。ここでは、車載機1は、対象車両の右方向を撮影する車外撮影カメラ51Rが出力する周辺撮影画像を、表示用周辺撮影画像として決定している。そして、車載機1は、最新の表示用周辺撮影画像を含む表示指示データを車外端末2に送信する。 The external terminal 2 displays the latest surrounding captured image for display based on the display instruction data on the surrounding captured image display field 60. In this example, the vehicle-mounted device 1 determines that the workload value is greater than the workload threshold value, and identifies the right direction as the direction of low viewing frequency. Therefore, the vehicle-mounted device 1 determines the range of the surrounding captured images output by the external camera 51 (51F, 51R, 51L) that corresponds to the right direction of the target vehicle as the surrounding captured image for display. Here, the vehicle-mounted device 1 determines the surrounding captured image output by the external camera 51R that captures the right direction of the target vehicle as the surrounding captured image for display. Then, the vehicle-mounted device 1 transmits display instruction data including the latest surrounding captured image for display to the external terminal 2.
また、車外端末2は、車載機1が送信する表示指示データに基づき、補足情報表示欄61上において、運転者のワークロードに関する情報を表示するワークロード表示ウィンドウ71及びインジケータ72と、使用カメラ表示ウィンドウ74と、を表示する。ここでは、対象車両の右方向を撮影する車外撮影カメラ51Rが出力する周辺撮影画像が表示用周辺撮影画像として使用されていることから、使用カメラ表示ウィンドウ74には、車外撮影カメラ51Rが用いられていることを示す「右カメラ表示」と表示されている。 In addition, based on the display instruction data transmitted by the vehicle-mounted device 1, the external terminal 2 displays, on the supplemental information display field 61, a workload display window 71 and an indicator 72 that display information related to the driver's workload, and a camera in use display window 74. Here, since the peripheral captured image output by the external camera 51R that captures the right direction of the target vehicle is used as the peripheral captured image for display, the camera in use display window 74 displays "Right camera display," indicating that the external camera 51R is being used.
また、車外端末2は、地図表示欄62上において、対象車両の現在位置付近の地図を表示する場合に、現在位置マーク77及び経路線78と共に、表示用周辺撮影画像に対応する地図上のエリアを示す表示角度範囲79を明示している。この場合、例えば、車載機1は、表示用周辺撮影画像を撮影した車外撮影カメラ51Rの撮影画角を特定し、特定した情報に基づき、車両挙動検出器53により特定される対象車両の現在位置及び進行方向を基準とする地図上での表示角度範囲79を決定する。なお、記憶部12には、各車外撮影カメラ51の撮影画角を示す情報が記憶されていてもよい。このように、車載機1は、表示用周辺撮影画像と共に、対象車両の現在位置と、低視認頻度方向とを示した地図を表示する。 When the external terminal 2 displays a map near the current position of the target vehicle on the map display field 62, it indicates a display angle range 79 indicating the area on the map corresponding to the display peripheral image together with the current position mark 77 and the route line 78. In this case, for example, the vehicle-mounted device 1 identifies the shooting angle of view of the external camera 51R that captured the display peripheral image, and based on the identified information, determines the display angle range 79 on the map based on the current position and traveling direction of the target vehicle identified by the vehicle behavior detector 53. Note that the memory unit 12 may store information indicating the shooting angle of view of each external camera 51. In this way, the vehicle-mounted device 1 displays a map indicating the current position of the target vehicle and the low visibility direction together with the display peripheral image.
以上のように、第2表示例では、車載機1は、運転者の負荷が高い場合に、低視認頻度方向に対応する周辺撮影画像を車外端末2に表示させる。これにより、車外端末2のユーザは運転者の安全確認を補助することができ、運転者は同乗者が見守ってくれているような安心感を得ることができ、あたかも車外端末2のユーザが実際に同乗しているような一体感を得ることができる。また、車載機1は、表示用周辺撮影画像に対応する地図上のエリアを表示角度範囲79として明示することで、現在表示されている表示用周辺撮影画像の撮影方向等を、車外端末2のユーザに好適に認識させることができる。 As described above, in the second display example, when the driver's load is high, the in-vehicle device 1 causes the external terminal 2 to display peripheral images corresponding to a direction with a low viewing frequency. This allows the user of the external terminal 2 to assist the driver in checking for safety, and the driver can feel a sense of security as if a passenger is watching over him or her, and can experience a sense of unity as if the user of the external terminal 2 is actually riding with the driver. In addition, the in-vehicle device 1 clearly displays the area on the map that corresponds to the peripheral images for display as the display angle range 79, allowing the user of the external terminal 2 to easily recognize the shooting direction of the currently displayed peripheral images for display, etc.
(2-3)処理フロー
図17は、第2実施例において車載機1が実行する処理の手順を示すフローチャートの一例である。車載機1は、図17に示すフローチャートの処理を、車外端末2との通信が確立され、通話が開始された場合に実行する。
(2-3) Processing flow
Fig. 17 is an example of a flowchart showing the procedure of a process executed by the vehicle-mounted device 1 in Example 2. The vehicle-mounted device 1 executes the process of the flowchart shown in Fig. 17 when communication with the external terminal 2 is established and a call is started.
まず、車載機1は、対象車両の運転者のワークロードに関連する各ワークロード関連要素のスコア(即ち要素別スコア)を算出する(ステップS201)。この場合、車載機1は、地図DB4及びセンサ群15が出力するデータ等に基づき、道路環境要素、運転動作要素、運転者体調要素、又はこれらを細分化した要素ごとの要素別スコアを算出する。 First, the vehicle-mounted device 1 calculates the score of each workload-related element related to the workload of the driver of the target vehicle (i.e., element-specific score) (step S201). In this case, the vehicle-mounted device 1 calculates element-specific scores for road environment elements, driving behavior elements, driver physical condition elements, or elements that are further subdivided from these, based on the map DB 4 and data output by the sensor group 15.
次に、車載機1は、各ワークロード関連要素のスコア(要素別スコア)に基づき、ワークロード値を算出する(ステップS202)。この場合、車載機1は、要素別スコアを合算又は平均(重み係数を用いる場合を含む)したワークロード値を算出してもよく、ワークロード値を算出する式に各要素別スコアを代入することで、ワークロード値を算出してもよい。 Next, the vehicle-mounted device 1 calculates a workload value based on the scores of each workload-related element (element-specific scores) (step S202). In this case, the vehicle-mounted device 1 may calculate a workload value by adding up or averaging (including using a weighting factor) the element-specific scores, or may calculate the workload value by substituting each element-specific score into a formula for calculating the workload value.
次に、車載機1は、ワークロード値がワークロード閾値より大きい値であるか否か判定する(ステップS203)。そして、ワークロード値がワークロード閾値より大きい値である場合(ステップS203;Yes)、車載機1は、所定期間内における運転者の視線方向の頻度を集計し、低視認頻度方向を決定する(ステップS204)。そして、車載機1は、低視認頻度方向に対応する表示用周辺撮影画像の表示を車外端末2に指示する表示指示データを車外端末2に供給する(ステップS204)。これにより、車外端末2は、表示指示データに基づいて、低視認頻度方向に対応する表示用周辺撮影画像を表示する。なお、表示指示データに、ワークロードに関する情報、現在位置周辺の地図を表示するための地図表示情報、又は運転者撮影画像の少なくともいずれかが含まれている場合には、車外端末2は、これらの情報の少なくともいずれかに基づく表示を行ってもよい。 Next, the vehicle-mounted device 1 determines whether the workload value is greater than the workload threshold (step S203). If the workload value is greater than the workload threshold (step S203; Yes), the vehicle-mounted device 1 counts the frequency of the driver's line of sight direction within a predetermined period and determines the low viewing frequency direction (step S204). The vehicle-mounted device 1 then supplies the external terminal 2 with display instruction data that instructs the external terminal 2 to display the display surrounding image corresponding to the low viewing frequency direction (step S204). As a result, the external terminal 2 displays the display surrounding image corresponding to the low viewing frequency direction based on the display instruction data. Note that if the display instruction data includes at least one of information related to the workload, map display information for displaying a map around the current position, or a driver-captured image, the external terminal 2 may perform display based on at least one of these pieces of information.
一方、ワークロード値がワークロード閾値以下である場合(ステップS203;No)、車載機1は、既定の方向(例えば対象車両の前方方向)に対応する表示用周辺撮影画像の表示を車外端末2に指示する表示指示データを車外端末2に供給する(ステップS205)。これにより、車外端末2は、表示指示データに基づいて、既定の方向の表示用周辺撮影画像を表示する。なお、表示指示データに、ワークロードに関する情報、現在位置周辺の地図を表示するための地図表示情報、又は運転者撮影画像の少なくともいずれかが含まれている場合には、車外端末2は、これらの情報の少なくともいずれかに基づく表示を行ってもよい。 On the other hand, if the workload value is equal to or less than the workload threshold (step S203; No), the in-vehicle device 1 supplies the external terminal 2 with display instruction data instructing the external terminal 2 to display a display peripheral image corresponding to a predetermined direction (e.g., the forward direction of the target vehicle) (step S205). As a result, the external terminal 2 displays a display peripheral image in the predetermined direction based on the display instruction data. Note that if the display instruction data includes at least one of information related to the workload, map display information for displaying a map around the current position, and an image captured by the driver, the external terminal 2 may perform a display based on at least one of these pieces of information.
そして、車載機1は、通話が終了したか否か判定する(ステップS206)。そして、車載機1は、通話が終了したと判定した場合(ステップS206;Yes)、フローチャートの処理を終了する。一方、車載機1は、通話が終了していないと判定した場合(ステップS206;No)、ステップS201へ処理を戻す。 Then, the vehicle-mounted device 1 determines whether the call has ended (step S206). If the vehicle-mounted device 1 determines that the call has ended (step S206; Yes), it ends the processing of the flowchart. On the other hand, if the vehicle-mounted device 1 determines that the call has not ended (step S206; No), it returns the processing to step S201.
(2-4)変形例
次に、上述した実施例に好適な変形例について説明する。以下の変形例は組み合わせて上述の実施例に適用してもよい。
(2-4) Modifications
Next, preferred modifications of the above-mentioned embodiment will be described. The following modifications may be combined and applied to the above-mentioned embodiment.
(変形例2-1)
車載機1は、ワークロード値に基づき、低視認頻度方向に対応する周辺撮影画像の表示の要否を決定したが、ワークロード値によらずに低視認頻度方向に対応する周辺撮影画像の表示の要否を決定してもよい。例えば、車載機1は、ユーザの操作に基づき、低視認頻度方向に対応する周辺撮影画像の表示の要否を決定してもよく、低視認頻度方向に対応する周辺撮影画像の表示を常時実行してもよい。
(Variation 2-1)
Although the vehicle-mounted device 1 determines whether or not to display the peripheral captured image corresponding to the low viewing frequency direction based on the workload value, the vehicle-mounted device 1 may determine whether or not to display the peripheral captured image corresponding to the low viewing frequency direction regardless of the workload value. For example, the vehicle-mounted device 1 may determine whether or not to display the peripheral captured image corresponding to the low viewing frequency direction based on a user's operation, or may always display the peripheral captured image corresponding to the low viewing frequency direction.
(変形例2-2)
車載機1は、低視認頻度方向に対応する周辺撮影画像を表示する代わりに、運転補助を求める方向を指定した運転者の所定の操作を検知した場合に、指定された方向に対応する周辺撮影画像を表示してもよい。指定された方向は、対象車両を基準とする方向であり、「第1方向」の一例である。
(Variation 2-2)
Instead of displaying the surrounding captured image corresponding to the low-visibility direction, when a predetermined operation of the driver specifying a direction in which driving assistance is required is detected, the vehicle-mounted device 1 may display the surrounding captured image corresponding to the specified direction. The specified direction is a direction based on the target vehicle and is an example of the "first direction."
例えば、車載機1は、入力部13として音声入力装置を備え、音声入力装置により運転者の所定のキーワードを含み、かつ、方向を指定した発話を検出した場合に、指定された方向に応じた周辺撮影画像の表示を実行する。例えば、車載機1は、「右方向の安全確認を手伝って」又はこれに類似する発話を検出した場合には、右方向に応じた周辺撮影画像の表示を実行する。 For example, the vehicle-mounted device 1 has a voice input device as the input unit 13, and when the vehicle-mounted device detects an utterance that includes a specific keyword from the driver and specifies a direction, the vehicle-mounted device 1 displays a captured image of the surroundings according to the specified direction. For example, when the vehicle-mounted device 1 detects an utterance such as "Please help me check for safety to the right" or a similar utterance, the vehicle-mounted device 1 displays a captured image of the surroundings according to the right direction.
なお、運転補助を求める方向を指定した運転者の所定の操作は、発話に限らず、種々のインターフェース(例えばボタン等)となる入力部13への入力操作であってもよい。 The predetermined operation by the driver to specify the direction in which driving assistance is required is not limited to speech, but may be an input operation to the input unit 13, which serves as various interfaces (e.g., buttons, etc.).
図18は、本変形例に係るフローチャートの一例である。車載機1は、図18に示すフローチャートの処理を、車外端末2との通信が確立され、通話が開始された場合に実行する。 Figure 18 is an example of a flowchart related to this modified example. The vehicle-mounted device 1 executes the process of the flowchart shown in Figure 18 when communication with the external terminal 2 is established and a call is started.
まず、車載機1は、運転補助を求める方向を指定した運転者の所定の操作を検出したか否か判定する(ステップS211)。車載機1は、入力部13が生成する入力信号に基づき、上述の所定の操作の有無を判定する。 First, the vehicle-mounted device 1 determines whether or not a predetermined operation by the driver specifying a direction in which driving assistance is required has been detected (step S211). The vehicle-mounted device 1 determines whether or not the predetermined operation has been performed based on an input signal generated by the input unit 13.
そして、車載機1は、運転補助を求める方向を指定した運転者の所定の操作を検出した場合(ステップS211;Yes)、指定された方向に対応する表示用周辺撮影画像の表示を車外端末2に指示する表示指示データを車外端末2に供給する(ステップS212)。なお、この場合、車載機1は、運転補助の要求を中止する所定の操作を検出するまで、又は、予め設定された所定時間が経過するまでステップS212を継続して実行してもよい。 When the vehicle-mounted device 1 detects a predetermined operation by the driver specifying a direction in which driving assistance is required (step S211; Yes), the vehicle-mounted device 1 supplies the vehicle-mounted terminal 2 with display instruction data that instructs the vehicle-mounted terminal 2 to display a display-use surrounding captured image corresponding to the specified direction (step S212). In this case, the vehicle-mounted device 1 may continue to execute step S212 until it detects a predetermined operation to cancel the request for driving assistance or until a preset time has elapsed.
一方、車載機1は、運転補助を求める方向を指定した運転者の所定の操作を検出しなかった場合(ステップS211;No)、既定の方向に対応する表示用周辺撮影画像の表示を車外端末2に指示する表示指示データを車外端末2に供給する(ステップS213)。 On the other hand, if the in-vehicle device 1 does not detect a predetermined operation by the driver specifying a direction in which driving assistance is required (step S211; No), it supplies display instruction data to the external terminal 2 instructing the external terminal 2 to display a surrounding captured image for display corresponding to the default direction (step S213).
そして、車載機1は、通話が終了したか否か判定する(ステップS214)。そして、車載機1は、通話が終了したと判定した場合(ステップS214;Yes)、フローチャートの処理を終了する。一方、車載機1は、通話が終了していないと判定した場合(ステップS214;No)、ステップS211へ処理を戻す。 Then, the vehicle-mounted device 1 determines whether the call has ended (step S214). If the vehicle-mounted device 1 determines that the call has ended (step S214; Yes), it ends the processing of the flowchart. On the other hand, if the vehicle-mounted device 1 determines that the call has not ended (step S214; No), it returns the processing to step S211.
このように、本変形例では、車載機1は、運転者が指定した方向に対応する周辺撮影画像を車外端末2のユーザに提示する。これにより、車外端末2のユーザは、運転者の要望に応じて運転者の安全確認を好適に補助することができる。また、運転者は、同乗者が見守ってくれているような安心感を得ることができ、あたかも車外端末2のユーザが実際に同乗しているような一体感を得ることができる。 In this manner, in this modified example, the in-vehicle device 1 presents the user of the external terminal 2 with surrounding captured images corresponding to the direction specified by the driver. This allows the user of the external terminal 2 to appropriately assist the driver in checking for safety according to the driver's request. The driver can also feel a sense of security as if a passenger is watching over them, and can experience a sense of unity as if the user of the external terminal 2 is actually riding with them.
(変形例2-3)
車載機1が実行する処理の少なくとも一部の処理を、車載機1及び車外端末2とデータ通信を行うサーバ装置が実行してもよい。
(Variation 2-3)
At least a part of the processing executed by the vehicle-mounted device 1 may be executed by a server device that performs data communication with the vehicle-mounted device 1 and the external terminal 2 .
この場合、本変形例に係る運転通話システムは、例えば図11に示される構成を有する。そして、車載機1は、センサ群15が出力する情報、及び、入力部13により入力された入力情報などを含むアップロード信号をサーバ装置5に送信する。サーバ装置5は、車載機1と車外端末2との音声通話に必要なデータの中継を行う。また、サーバ装置5は、音声通話中において、車載機1から受信するアップロード信号等に基づき、表示指示データを生成し、生成した表示指示データを車外端末2へ送信する。具体的には、サーバ装置5は、音声通話中において、車載機1Aから受信するアップロード信号等に基づき、図17又は図18に示されるフローチャートの処理を実行する。 In this case, the driving call system according to this modified example has a configuration shown in FIG. 11, for example. The in-vehicle device 1 transmits an upload signal including information output by the sensor group 15 and input information input by the input unit 13 to the server device 5. The server device 5 relays data required for a voice call between the in-vehicle device 1 and the external terminal 2. During a voice call, the server device 5 generates display instruction data based on the upload signal received from the in-vehicle device 1, and transmits the generated display instruction data to the external terminal 2. Specifically, during a voice call, the server device 5 executes the process of the flowchart shown in FIG. 17 or 18 based on the upload signal received from the in-vehicle device 1A.
このように、車外端末2に表示用周辺撮影画像を表示させるために必要な処理をサーバ装置が実行する場合であっても、運転通話システムは、運転者のワークロードの状態を車外端末2のユーザに好適に認識させ、ユーザは、運転者に話しかけるのに都合がよいタイミングなどを見計らうことが可能となる。本変形例において、サーバ装置5は、「情報処理装置」の一例である。 In this way, even if the server device executes the processing required to display the display peripheral captured image on the external terminal 2, the driving call system allows the user of the external terminal 2 to appropriately recognize the driver's workload state, and enables the user to choose a convenient time to talk to the driver. In this modified example, the server device 5 is an example of an "information processing device."
以上説明したように、車載機1又はサーバ装置5は、移動体である対象車両の運転者と対象車両の外部に存在する車外端末2のユーザとのコミュニケーションを仲介するシステムに用いられる情報処理装置であって、取得手段と、検出手段と、表示制御手段とを有する。取得手段は、対象車両から対象車両の周辺を撮影した周辺撮影画像を取得する。検出手段は、対象車両の運転者の状態又は操作を検出する。この場合、表示制御手段は、運転者の状態又は操作に応じて、周辺撮影画像に基づく画像を車外端末2に表示させる。この場合、表示制御手段は、運転者の状態又は操作に基づき対象車両を基準とする第1方向を特定し、周辺撮影画像のうちから第1方向が撮影された範囲を、車外端末2に表示させる画像として決定する。これにより、車載機1は、安全確認の補助などを車外端末2のユーザに好適に実行させることができる。 As described above, the in-vehicle device 1 or the server device 5 is an information processing device used in a system that mediates communication between the driver of a target vehicle, which is a moving body, and the user of the external terminal 2 located outside the target vehicle, and has an acquisition means, a detection means, and a display control means. The acquisition means acquires a surrounding image captured from the target vehicle. The detection means detects the state or operation of the driver of the target vehicle. In this case, the display control means displays an image based on the surrounding captured image on the external terminal 2 according to the state or operation of the driver. In this case, the display control means specifies a first direction based on the target vehicle based on the state or operation of the driver, and determines the range of the surrounding captured image in which the first direction is captured as the image to be displayed on the external terminal 2. This allows the in-vehicle device 1 to preferably perform assistance for safety confirmation, etc. for the user of the external terminal 2.
なお、上述した各実施例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(Non-transitory Computer Readable Medium)を用いて格納され、コンピュータである制御部等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(Tangible Storage Medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。 In each of the above-mentioned embodiments, the program can be stored using various types of non-transitory computer readable media and supplied to a control unit, which is a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer readable media include magnetic storage media (e.g., flexible disks, magnetic tapes, hard disk drives), magneto-optical storage media (e.g., magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R/Ws, and semiconductor memories (e.g., mask ROMs, PROMs (Programmable ROMs), EPROMs (Erasable PROMs), flash ROMs, and RAMs (Random Access Memory).
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。 Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above-mentioned embodiments. Various modifications that a person skilled in the art can understand can be made to the configuration and details of the present invention within the scope of the present invention. In other words, the present invention naturally includes various modifications and amendments that a person skilled in the art could make in accordance with the entire disclosure, including the scope of the claims, and the technical ideas. In addition, the disclosures of the above cited patent documents and the like are incorporated into this document by reference.
1、1A 車載機
2 車外端末
3 通信網
4 地図DB
5 サーバ装置
11、21、41 通信部
12、22、42 記憶部
13 入力部
14、24、44 制御部
15、25 センサ群
16、26 表示部
17、27 音出力部
1, 1A Vehicle-mounted device 2 External terminal 3 Communication network 4 Map DB
5 Server device 11, 21, 41 Communication unit 12, 22, 42 Storage unit 13 Input unit 14, 24, 44 Control unit 15, 25 Sensor group 16, 26 Display unit 17, 27 Sound output unit
Claims (10)
前記移動体から前記移動体の周辺を撮影した周辺撮影画像を取得する取得手段と、
前記移動体の運転者の状態又は操作を検出する検出手段と、
前記周辺撮影画像中の所定範囲を前記ユーザの端末装置に表示させる表示制御手段と、を備え、
前記表示制御手段は、前記運転者の状態又は操作に基づき、前記端末装置に表示させる前記所定範囲を決定する
情報処理装置。 An information processing device used in a system that mediates communication between a driver of a moving body and a user outside the moving body, comprising:
An acquisition means for acquiring a peripheral image of the moving body by capturing an image of the surroundings of the moving body from the moving body;
A detection means for detecting a state or operation of a driver of the vehicle;
a display control means for displaying a predetermined range in the peripheral photographed image on a terminal device of the user;
The display control means is an information processing device that determines the predetermined range to be displayed on the terminal device based on a state or operation of the driver.
前記表示制御手段は、前記運転者の状態又は操作に基づき、前記前方方向を基準とした前記所定範囲の幅を変化させる、請求項1~4のいずれか一項に記載の情報処理装置。 the predetermined range is a range including at least a forward direction of the moving body,
5. The information processing device according to claim 1, wherein the display control means changes a width of the predetermined range based on the forward direction, based on a state or operation of the driver.
前記表示制御手段は、前記合成画像中の前記所定範囲を、前記端末装置に表示させる、請求項1~4のいずれか一項に記載の情報処理装置。 the surrounding captured image is a composite image obtained by combining images captured by a plurality of cameras provided on the moving object,
5. The information processing device according to claim 1, wherein the display control means causes the terminal device to display the predetermined range in the composite image.
前記移動体から前記移動体の周辺を撮影した周辺撮影画像を取得する取得工程と、
前記移動体の運転者の状態又は操作を検出する検出工程と、
前記周辺撮影画像中の所定範囲を前記ユーザの端末装置に表示させる表示制御工程と、を有し、
前記表示制御工程は、前記運転者の状態又は操作に基づき、前記端末装置に表示させる前記所定範囲を決定する
制御方法。 A control method executed by an information processing device used in a system that mediates communication between a driver of a moving body and a user present outside the moving body, comprising:
an acquisition step of acquiring a peripheral image of the moving body from the moving body;
A detection step of detecting a state or operation of a driver of the moving body;
A display control step of displaying a predetermined range in the peripheral photographed image on a terminal device of the user,
The display control step is a control method for determining the predetermined range to be displayed on the terminal device based on a state or operation of the driver.
前記移動体から前記移動体の周辺を撮影した周辺撮影画像を取得する取得手段と、
前記移動体の運転者の状態又は操作を検出する検出手段と、
前記周辺撮影画像中の所定範囲を前記ユーザの端末装置に表示させる表示制御手段
として前記コンピュータを機能させ、
前記表示制御手段は、前記運転者の状態又は操作に基づき、前記端末装置に表示させる前記所定範囲を決定する
プログラム。 A program executed by a computer of an information processing device used in a system that mediates communication between a driver of a moving body and a user outside the moving body, comprising:
An acquisition means for acquiring a peripheral image of the moving body by capturing an image of the surroundings of the moving body from the moving body;
A detection means for detecting a state or operation of a driver of the vehicle;
causing the computer to function as a display control means for displaying a predetermined range in the peripheral photographed image on a terminal device of the user;
The display control means is a program that determines the predetermined range to be displayed on the terminal device based on the state or operation of the driver.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022163666A JP2024057142A (en) | 2022-10-12 | 2022-10-12 | Information processing device, control method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022163666A JP2024057142A (en) | 2022-10-12 | 2022-10-12 | Information processing device, control method, program, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024057142A true JP2024057142A (en) | 2024-04-24 |
Family
ID=90778952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022163666A Pending JP2024057142A (en) | 2022-10-12 | 2022-10-12 | Information processing device, control method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024057142A (en) |
-
2022
- 2022-10-12 JP JP2022163666A patent/JP2024057142A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7029910B2 (en) | Information processing equipment, information processing methods and programs | |
JP4293917B2 (en) | Navigation device and intersection guide method | |
US20190344803A1 (en) | Travel assistance device and computer program | |
JP4380550B2 (en) | In-vehicle imaging device | |
US11511627B2 (en) | Display device and computer program | |
JP2019509534A (en) | System and method for estimating future paths | |
CN111273765B (en) | Vehicle display control device, vehicle display control method, and storage medium | |
JP6708785B2 (en) | Travel route providing system, control method thereof, and program | |
JP2008280026A (en) | Driving assistance device | |
JP2014120111A (en) | Travel support system, travel support method, and computer program | |
WO2018163472A1 (en) | Mode switching control device, mode switching control system, mode switching control method and program | |
JP2022176234A (en) | Information display control device, information display control method, and information display control program | |
JP2014120114A (en) | Travel support system, travel support method, and computer program | |
JP2019010919A (en) | Travel support device and computer program | |
JP6136238B2 (en) | Driving support system, driving support method, and computer program | |
JP2006084461A (en) | Image acquisition system | |
JP2014120113A (en) | Travel support system, travel support method, and computer program | |
JP2024057142A (en) | Information processing device, control method, program, and storage medium | |
JP2024057143A (en) | Information processing device, control method, program, and storage medium | |
JP2004064409A (en) | Information recording device, information recording method, and information recording program | |
JP7525060B2 (en) | Route guidance device, route guidance method, and route guidance program | |
JP2008305283A (en) | Drive support apparatus and drive support method | |
JP2020106986A (en) | Information processing device, information processing method, and mobile | |
JP7521920B2 (en) | Driving assistance device and data collection system | |
JP6136237B2 (en) | Driving support system, driving support method, and computer program |