JP6729958B1 - Display control system, display control method and program - Google Patents
Display control system, display control method and program Download PDFInfo
- Publication number
- JP6729958B1 JP6729958B1 JP2019221232A JP2019221232A JP6729958B1 JP 6729958 B1 JP6729958 B1 JP 6729958B1 JP 2019221232 A JP2019221232 A JP 2019221232A JP 2019221232 A JP2019221232 A JP 2019221232A JP 6729958 B1 JP6729958 B1 JP 6729958B1
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- display unit
- outside
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012544 monitoring process Methods 0.000 claims abstract description 102
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000010586 diagram Methods 0.000 abstract description 7
- 238000001514 detection method Methods 0.000 description 43
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000012423 maintenance Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60L—PROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
- B60L3/00—Electric devices on electrically-propelled vehicles for safety purposes; Monitoring operating variables, e.g. speed, deceleration or energy consumption
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L23/00—Control, warning or like safety means along the route or between vehicles or trains
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
- Y02T90/10—Technologies relating to charging of electric vehicles
- Y02T90/16—Information or communication technologies improving the operation of electric vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Sustainable Energy (AREA)
- Power Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Sustainable Development (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Train Traffic Observation, Control, And Security (AREA)
- Electric Propulsion And Braking For Vehicles (AREA)
- Image Analysis (AREA)
- Digital Computer Display Output (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】車両の周囲の状況を撮影するカメラで認識できない監視対象物の位置を乗務員に的確に把握させることができる表示制御システム、表示制御方法及びプログラムを提供する。【解決手段】車外画像内位置特定部42は、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する。表示部内位置特定部56は、車外画像内位置と、車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における監視対象物の位置である表示部内位置を特定する。表示制御部58は、特定される表示部内位置に目印画像を表示させる。【選択図】図8PROBLEM TO BE SOLVED: To provide a display control system, a display control method, and a program capable of allowing a crew member to accurately grasp the position of a monitoring target that cannot be recognized by a camera that captures a situation around a vehicle. SOLUTION: An outside-vehicle image position specifying unit 42 specifies an outside-vehicle image position, which is a position in the outside-vehicle image of a monitoring target appearing in an outside-vehicle image captured by an outside-vehicle photographing device provided outside the vehicle. .. The display internal position specifying unit 56 determines the display internal position, which is the position of the monitoring target in the display unit, based on the position outside the vehicle image and the position and orientation of the display unit arranged in front of the crew of the vehicle. Identify. The display control unit 58 displays the mark image at the specified position in the display unit. [Selection diagram] Figure 8
Description
本発明は、表示制御システム、表示制御方法及びプログラムに関する。 The present invention relates to a display control system, a display control method and a program.
特許文献1には、車両の周囲の状況を撮影するカメラから得られたカメラ映像情報により歩行者の存在を認識した場合に、歩行者に重畳させて虚像によりヘッドアップディスプレイ(HUD)にマークをアラート表示する技術が記載されている。 In Patent Document 1, when the presence of a pedestrian is recognized based on camera image information obtained from a camera that captures a situation around a vehicle, a mark is displayed on a head-up display (HUD) by a virtual image by superimposing it on the pedestrian. Describes the technology for displaying alerts.
また、特許文献1には、映像情報では認識できない前方の横断歩道等の路面標識を、地図情報や走行ログ等からそれらが存在するとして把握された位置に虚像として表示することが記載されている。 Further, Patent Document 1 describes that a road surface sign such as a front pedestrian crossing that cannot be recognized by video information is displayed as a virtual image at a position where it is grasped from the map information, a travel log, and the like as they exist. ..
発明者は、プラットホームからの転落者等の監視対象物が出現した際に、車両の乗務員の眼前に配置されるHUD等の表示部内における当該監視対象物の出現位置にマーク等の目印画像を表示させて、乗務員に監視対象物の位置を的確に把握させることを検討している。 The inventor displays a mark image such as a mark at the appearance position of the monitored object in the display unit such as the HUD arranged in front of the crew of the vehicle when the monitored object such as a fallen person from the platform appears. Therefore, we are considering making the crew accurately grasp the position of the monitored object.
ここで、特許文献1に記載の技術を用いても、車両の周囲の状況を撮影するカメラによって認識できない監視対象物についてはその出現位置に目印画像を表示させることができない。また、このような監視対象物は突発的に出現するので、特許文献1に記載されているような地図情報や走行ログ等からその位置を予め把握することができない。 Here, even if the technique described in Patent Document 1 is used, it is not possible to display a landmark image at the appearance position of a monitoring target object that cannot be recognized by a camera that captures the situation around the vehicle. Further, since such a monitoring target suddenly appears, its position cannot be grasped in advance from the map information, the travel log, etc. described in Patent Document 1.
本発明は上記課題に鑑みてなされたものであって、その目的の1つは、車両の周囲の状況を撮影するカメラで認識できない監視対象物の位置を乗務員に的確に把握させることができる表示制御システム、表示制御方法及びプログラムを提供することにある。 The present invention has been made in view of the above problems, and one of the objects thereof is a display that allows a crew member to accurately grasp the position of a monitoring target that cannot be recognized by a camera that captures a situation around a vehicle. It is to provide a control system, a display control method, and a program.
本発明に係る表示制御システムは、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する車外画像内位置特定手段と、前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する表示部内位置特定手段と、特定される前記表示部内位置に目印画像を表示させる表示制御手段と、を含む。 The display control system according to the present invention is an in-vehicle image position for identifying an in-vehicle image position, which is a position in the outside image of a monitored object, which is shown in an outside image captured by an outside image capturing device provided outside the vehicle. Based on the specifying means, the position outside the vehicle image, and the position and orientation of the display unit arranged in front of the crew of the vehicle, the position inside the display unit that is the position of the monitored object in the display unit is specified. And a display control unit for displaying a mark image at the specified position in the display unit.
本発明の一態様では、前記車両の線状の走行経路を示す走行経路データと、前記車外画像内位置と、に基づいて、前記走行経路データが示す走行経路上における前記監視対象物の位置である走行経路上位置を特定する走行経路上位置特定手段、をさらに含み、前記表示部内位置特定手段は、前記走行経路上位置に基づいて、前記表示部内位置を特定する。 In one aspect of the present invention, based on the travel route data indicating the linear travel route of the vehicle and the position inside the vehicle image, the position of the monitored object on the travel route indicated by the travel route data is determined. It further includes a travel route position specifying unit that specifies a certain travel route position, and the display unit internal position specifying unit specifies the display unit internal position based on the travel route position.
また、本発明の一態様では、前記車両に設けられた車載撮影装置により前記監視対象物が撮影されたか否かを判定する判定手段と、前記車載撮影装置により撮影される車載画像に写る前記監視対象物の当該車載画像内における位置である車載画像内位置を特定する車載画像内位置特定手段と、をさらに含み、前記車載撮影装置により前記監視対象物が撮影されたことが判定された場合は、前記表示部内位置特定手段は、前記車載画像内位置に基づいて、前記表示部内位置を特定する。 Further, according to an aspect of the present invention, a determination unit that determines whether or not the monitoring target object has been captured by an in-vehicle image capturing device provided in the vehicle, and the monitoring that appears in an in-vehicle image captured by the in-vehicle image capturing device. When it is determined that the monitoring target has been captured by the vehicle-mounted image capturing device, the vehicle-mounted image capturing device further includes a vehicle-mounted image internal position identifying unit that identifies an in-vehicle image internal position that is a position in the vehicle-mounted image of the object. The display section internal position specifying means specifies the display section internal position based on the vehicle-mounted image internal position.
この態様では、前記車載撮影装置により前記監視対象物が撮影されたことが判定されない状況から判定された状況に変化した際に、前記表示部内位置特定手段は、前記表示部内位置を、前記車外画像内位置に基づくものから、前記車載画像内位置に基づくものに変化させてもよい。 In this aspect, when the in-vehicle imaging device changes from a situation in which it is not determined that the monitoring target has been photographed to a situation in which it is determined, the display unit internal position specifying unit determines the display unit internal position by the vehicle exterior image. It may be changed from the one based on the internal position to the one based on the in-vehicle image internal position.
また、本発明の一態様では、前記表示制御手段は、前記監視対象物の位置が前記表示部の表示範囲外である場合に、前記監視対象物の位置に応じた前記表示部の縁部に目印画像を表示させる。 Further, in one aspect of the present invention, the display control means, when the position of the monitored object is outside the display range of the display unit, on the edge of the display unit according to the position of the monitored object. Display the landmark image.
また、本発明の一態様では、前記表示部は、前記車両に設けられたヘッドアップディスプレイである。 Moreover, in one aspect of the present invention, the display unit is a head-up display provided in the vehicle.
あるいは、前記表示部は、前記乗務員が装着するヘッドマウントディスプレイである。 Alternatively, the display unit is a head mounted display worn by the crew member.
また、本発明に係る表示制御方法は、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定するステップと、前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定するステップと、特定される前記表示部内位置に目印画像を表示させるステップと、を含む。 Further, the display control method according to the present invention includes a step of identifying an in-vehicle image position which is a position of the monitoring target in the out-vehicle image captured in an out-vehicle image captured by an out-vehicle image capturing device provided outside the vehicle. A position inside the display unit that is the position of the monitored object in the display unit based on the position inside the image outside the vehicle and the position and orientation of the display unit arranged in front of the crew member of the vehicle; And displaying a landmark image at the specified position in the display unit.
また、本発明に係るプログラムは、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する手順、前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する手順、特定される前記表示部内位置に目印画像を表示させる手順、をコンピュータに実行させる。 Further, the program according to the present invention is a procedure for identifying an in-vehicle image position, which is a position of the monitoring target in the outside image captured in an outside image taken by an outside image pickup device provided outside the vehicle, the outside of the vehicle. Based on the position in the image and the position and orientation of the display unit arranged in front of the crew member of the vehicle, the procedure for specifying the position in the display unit, which is the position of the monitored object in the display unit, is specified. A computer is made to perform the procedure of displaying a landmark image at the position in the display unit.
以下、本発明の一実施形態について図面に基づき詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施形態に係る表示制御システム1の構成の一例を示す図である。図1に示すように、本実施形態に係る表示制御システム1には、路線上を運行する車両10、複数の監視システム12、及び、車両10の運行を管理する運行管理システム14が含まれる。
FIG. 1 is a diagram showing an example of a configuration of a display control system 1 according to an embodiment of the present invention. As shown in FIG. 1, the display control system 1 according to the present embodiment includes a
複数の監視システム12のそれぞれは、例えば、車両10が運行する路線上の互いに異なる場所に設けられている。ここで例えば、路線上の各駅に、当該駅のプラットホームを監視する監視システム12が設けられていてもよい。また例えば、1つの駅に設けられた複数のプラットホームのそれぞれに、監視システム12が設けられていてもよい。また、1つのプラットホームに複数の監視システム12が設けられていてもよい。
Each of the plurality of
車両10、監視システム12、運行管理システム14は、インターネット等のコンピュータネットワーク16に接続されている。そのため、車両10、監視システム12、運行管理システム14は、コンピュータネットワーク16を介して互いに通信可能となっている。
The
図1に示すように、車両10には、プロセッサ10a、記憶部10b、通信部10c、車載撮影装置10d、ヘッドアップディスプレイ(HUD)10e、が含まれている。
As shown in FIG. 1, the
プロセッサ10aは、例えば記憶部10bに記憶されるプログラムに従って動作するCPU等のプログラム制御デバイスである。
The
記憶部10bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部10bには、プロセッサ10aによって実行されるプログラムなどが記憶される。
The
通信部10cは、例えばネットワークボードなどの通信インタフェースである。 The communication unit 10c is a communication interface such as a network board.
車載撮影装置10dは、例えば、車両10の前方を撮影するデジタルカメラなどの撮影装置である。なお、車載撮影装置10dが、三次元画像やデプス画像の撮影が可能なカメラ(例えばステレオカメラ)であってもよい。以下、車載撮影装置10dによって撮影される画像を、車載画像と呼ぶこととする。本実施形態に係る車載撮影装置10dは、所定のフレームレートで車両10の前方を撮影する。
The vehicle-mounted imaging device 10d is an imaging device such as a digital camera that images the front of the
HUD10eは、運転士等の乗務員の眼前に画像を表示させる表示装置である。本実施形態に係るHUD10eの実装方式は特に問わない。例えば、本実施形態に係るHUD10eが、車両10の前面に設けられたフロントガラスに画像を投影するタイプのものであってもよい。また、本実施形態に係るHUD10eが、乗務員の眼前に配置されたコンバイナに画像を投影するタイプのものであってもよい。本実施形態では、HUD10eによって画像が表示されることで、乗務員は、HUD10eによって表示される画像と車両10の前方の実空間の様子の両方を一目で視認できるようになっている。HUD10eは、車両10の前面に設けられたフロントガラスの前方の空間に浮かんだ虚像を乗務員に見せるものであってもよい。
The HUD 10e is a display device that displays an image in front of the eyes of a crew member such as a driver. The mounting method of the HUD 10e according to this embodiment is not particularly limited. For example, the HUD 10e according to this embodiment may be of a type that projects an image on a windshield provided on the front surface of the
図1に示すように、監視システム12には、プロセッサ12a、記憶部12b、通信部12c、車外撮影装置12d、ディスプレイ12e、が含まれている。
As shown in FIG. 1, the
プロセッサ12aは、例えば記憶部12bに記憶されるプログラムに従って動作するCPU等のプログラム制御デバイスである。
The
記憶部12bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部12bには、プロセッサ12aによって実行されるプログラムなどが記憶される。
The
通信部12cは、例えばネットワークボードなどの通信インタフェースである。
The
車外撮影装置12dは、例えば、駅のプラットホーム等の画像を撮影するデジタルカメラなどの撮影装置である。本実施形態に係る車外撮影装置12dは、所定のフレームレートで定点を撮影する。なお、車外撮影装置12dが、三次元画像やデプス画像の撮影が可能なカメラ(例えばステレオカメラ)であってもよい。以下、車外撮影装置12dによって撮影される画像を、車外画像と呼ぶこととする。
The vehicle
ディスプレイ12eは、例えば、車外撮影装置12dによって撮影される車外画像が表示される液晶ディスプレイや有機ELディスプレイなどの表示装置である。
The
図2には、車外画像20が示されている。本実施形態では、図2に示すように、車外画像20内に、安全領域22a、接近領域22b、転落領域22c、及び、保線退避領域22dの4つの領域が設定される。
An
車外画像20に設定される上述の4つの領域は、例えば、図3に示すように、車両限界枠モデル24を用いて予め設定されてもよい。当該設定においては例えば、まず、車外画像20内における線路の位置が識別される。そして、識別された線路に沿って、複数の車両限界枠モデル24が配置される。それぞれの車両限界枠モデル24のサイズは、例えば、当該車両限界枠モデル24が配置される線路の幅に比例している。
The above-mentioned four areas set in the
そして、複数の車両限界枠モデル24のホームとは反対側の斜め下端に相当する位置を結ぶ線、当該線の上端からホームとは反対側(図4の例では左)に伸びる線、及び、車外画像20のホームとは反対側の辺(図4の例では左辺)によって囲まれる領域が、保線退避領域22dに設定されてもよい。
Then, a line connecting the positions corresponding to the diagonal lower ends on the side opposite to the home of the plurality of vehicle
そして、複数の車両限界枠モデル24のホームとは反対側の斜め下端に相当する位置を結ぶ線、当該線の上端からホーム側(図4の例では右)に伸びる線、複数の車両限界枠モデル24のホーム側の側構えの下端に相当する位置を結ぶ線、車外画像20の下辺、及び、車外画像20のホームとは反対側の辺(図4の例では左辺)によって囲まれる領域が、転落領域22cに設定されてもよい。
A line connecting the positions corresponding to the diagonal lower ends of the plurality of vehicle
そして、複数の車両限界枠モデル24のホーム側の側構えの下端に相当する位置を結ぶ線、当該線の上端からホーム側(図4の例では右)に伸びる線、点字ブロック又は白線のホームとは反対側の端(図4の例では左端)、及び、車外画像20の下辺によって囲まれる領域が、接近領域22bに設定されてもよい。
Then, a line connecting the positions corresponding to the lower ends of the side positions on the home side of the plurality of vehicle
そして、複数の車両限界枠モデル24のホーム側の側構えの下端に相当する位置を結ぶ線の上端からホーム側(図4の例では右)に伸びる線、車外画像20のホーム側の辺(図4の例では右辺)、車外画像20の下辺、及び、点字ブロック又は白線のホームとは反対側の端(図4の例では左端)によって囲まれる領域が、安全領域22aに設定されてもよい。
Then, a line extending from the upper end of the line connecting the positions corresponding to the lower ends of the side positions on the home side of the plurality of vehicle
以上のようにして、車外画像20に、安全領域22a、接近領域22b、転落領域22c、及び、保線退避領域22dが設定される。なお、安全領域22a、接近領域22b、転落領域22c、及び、保線退避領域22dの設定は、上述の設定には限定されるものではなく、予め定められた別の方法によって、これらの4つの領域が車外画像20に設定されてもよい。また、転落領域22cが、車両限界枠モデル24が示す車両限界枠に対して余裕をもって設定されてもよい。
As described above, the
上述のように、車外撮影装置12dは定点を撮影するため、車外撮影装置12dによって所定のフレームレートで撮影される一連の車外画像20における上述の領域は共通となる。
As described above, since the vehicle
以下、接近領域22b、転落領域22c、及び、保線退避領域22dを含む領域を、監視対象領域と呼ぶこととする。そして、本実施形態に係る監視システム12は、公知の画像認識技術などを用いることで、撮影された車外画像20内の監視対象領域に写る所定の監視対象物を検出する。
Hereinafter, the area including the approaching
図4には、図2及び図3に示す車外画像20とは異なる車外画像である車外画像26が示されている。図4に示す車外画像26には、所定の監視対象物の一例である、プラットホームから転落した転落者28が写っている。
FIG. 4 shows an outside-
図4に示す車外画像26には、安全領域22a、接近領域22b、及び、転落領域22cが設定されている。図4に示す車外画像26のように、車外画像26に保線退避領域22dが設定されていなくてもよい。そして、図4に示す車外画像26の監視対象領域の一部である転落領域22c内に転落者28が写っている。また、図4には、転落者28の中心の位置P1が示されている。
A
このように監視対象領域に所定の監視対象物が写っていることが検出された際には、ディスプレイ12eには、例えば、検出された監視対象物に対応する目印画像30が図4に示す車外画像26に重畳された、図5に例示する画像32が表示される。
In this way, when it is detected that a predetermined monitoring target object appears in the monitoring target area, for example, a
目印画像30は、例えば、車外画像26内における転落者28の位置を示す画像である。図5の例では、目印画像30は、位置P1を中心とした枠状の画像である。
The
また、目印画像30は、検出された監視対象物が存在する領域の種類に対応する態様(例えば色)の画像であってもよい。例えば、検出された監視対象物が保線退避領域22dに存在する場合は、目印画像30は、紫色の枠の画像であってもよい。検出された監視対象物が転落領域22cに存在する場合は、目印画像30は、赤色の枠の画像であってもよい。検出された監視対象物が接近領域22bに存在する場合は、目印画像30は、黄色の枠の画像であってもよい。図4の例では転落者28が転落領域22cに存在するので、図5に示す目印画像30が、例えば、赤色の枠の画像であってもよい。
Further, the
図6は、監視対象領域に所定の監視対象物が写っている状況が所定の時間継続した際に、車両10の乗務員が前方を見た様子の一例を示す図である。本実施形態では、監視対象領域に所定の監視対象物が写っている状況が所定の時間継続した際には、図6に示すように、車両10のHUD10e内における監視対象物の位置P2に目印画像34が表示される。
FIG. 6 is a diagram illustrating an example of a state in which a crew member of the
位置P2は、図4に示す位置P1に対応付けられる監視対象物の位置である。そして、図6の例では、目印画像34は、位置P2を中心とした枠状の画像である。ここで目印画像34の縦横比は、目印画像30の縦横比と同じであってもよい。また、車両10と監視対象物との間の距離が長いほど、目印画像34の大きさが小さくなるようにしてもよい。また、目印画像30と同様に、目印画像34は、検出された監視対象物が存在する領域の種類に対応する態様(例えば色)の画像であってもよい。図6の例では、目印画像34は、例えば、赤色の枠の画像であってもよい。
The position P2 is the position of the monitoring target that is associated with the position P1 shown in FIG. Then, in the example of FIG. 6, the mark image 34 is a frame-shaped image centered on the position P2. Here, the aspect ratio of the mark image 34 may be the same as the aspect ratio of the
このように、本実施形態では、車載撮影装置10dによって撮影される車載画像に転落者28等の所定の監視対象物が写っていなくても、検出された監視対象物の位置に目印画像34が表示される。そのため、本実施形態によれば、車載撮影装置10dで認識できない監視対象物の位置を乗務員に的確に把握させることが可能となる。なお本実施形態において、監視対象領域に所定の監視対象物が写ると直ちに、HUD10e内における監視対象物の位置P2に目印画像34が表示されるようにしてもよい。
As described above, in the present embodiment, even if the predetermined monitoring target such as the fallen
また、本実施形態に係る車両10は、公知の画像認識技術などを用いることで、車載撮影装置10dによって撮影された車載画像に写る所定の監視対象物を検出する。
Further, the
図7は、図6に示す状況から車両10が進行した際における、車両10の乗務員が前方を見た様子の一例を示す図である。ここで、図7に示す状況において車載撮影装置10dによって撮影される車載画像に、監視対象物である転落者28が写っていることとする。
FIG. 7 is a diagram showing an example of a state in which a crew member of the
この状況では、図4に示す位置P1に対応付けられる位置ではなく、車載画像に基づいて検出された監視対象物の位置P3に目印画像34が表示される。図7の例では、目印画像34は、位置P3を中心とした枠状の画像である。 In this situation, the mark image 34 is displayed not at the position associated with the position P1 shown in FIG. 4 but at the position P3 of the monitored object detected based on the in-vehicle image. In the example of FIG. 7, the mark image 34 is a frame-shaped image centered on the position P3.
車載撮影装置10dもHUD10eも車両10に対して固定されているため、車載撮影装置10dの位置及び向きを基準としたHUD10eの位置及び向きは、常に一定である。そして本実施形態では、車載撮影装置10dの位置及び向きとHUD10eの位置及び向きとが予め対応付けられている。そのため、車載画像内における監視対象物の位置に基づいて、HUD10e内における監視対象物の位置P3は一意に特定可能である。
Since both the vehicle-mounted image capturing device 10d and the HUD 10e are fixed to the
以上のようにすることで、車載撮影装置10dによって撮影される車載画像に所定の監視対象物が写っていることが検出可能な際には、監視対象物の位置を乗務員により的確に把握させることが可能となる。 By doing as described above, when it is possible to detect that a predetermined monitoring target object appears in the vehicle-mounted image captured by the vehicle-mounted image capturing device 10d, the crew member can accurately grasp the position of the monitoring target object. Is possible.
以下、本実施形態に係る車両10及び監視システム12の機能、並びに、本実施形態に係る車両10で実行される処理についてさらに説明する。
Hereinafter, the functions of the
図8は、本実施形態に係る車両10及び監視システム12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る車両10及び監視システム12で、図8に示す機能のすべてが実装される必要はなく、また、図8に示す機能以外の機能が実装されていても構わない。
FIG. 8 is a functional block diagram showing an example of functions implemented in the
図8に示すように、本実施形態に係る監視システム12には、機能的には例えば、検出部40、車外画像内位置特定部42、検出通知部44、が含まれる。検出部40は、プロセッサ12a及び車外撮影装置12dを主として実装される。車外画像内位置特定部42は、プロセッサ12aを主として実装される。検出通知部44は、通信部12cを主として実装される。
As shown in FIG. 8, the
以上の機能は、コンピュータである監視システム12にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して監視システム12に搭載されたコンピュータに供給されてもよい。
The above functions may be implemented by causing the
また、図8に示すように、本実施形態に係る車両10には、機能的には例えば、通知受信部50、検出データ記憶部52、走行経路上位置特定部54、表示部内位置特定部56、表示制御部58、判定部60、車載画像内位置特定部62、が含まれる。通知受信部50は、通信部10cを主として実装される。検出データ記憶部52は、記憶部10bを主として実装される。走行経路上位置特定部54は、プロセッサ10a及び記憶部10bを主として実装される。表示部内位置特定部56は、プロセッサ10a、記憶部10b、及び、通信部10cを主として実装される。表示制御部58は、プロセッサ10a及びHUD10eを主として実装される。判定部60は、プロセッサ10a及び車載撮影装置10dを主として実装される。車載画像内位置特定部62は、プロセッサ10aを主として実装される。
Further, as shown in FIG. 8, in the
以上の機能は、車両10に搭載されたコンピュータにインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ10aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して車両10に搭載されたコンピュータに供給されてもよい。
The above functions may be implemented by executing a program, which is installed in a computer mounted on the
検出部40は、本実施形態では例えば、公知の画像認識技術などを用いることで、車両10の外に設けられた車外撮影装置12dにより撮影される車外画像に写る監視対象物を検出する。検出部40は、例えば、監視対象領域に写る監視対象物を検出してもよい。
In the present embodiment, for example, the
車外画像内位置特定部42は、監視対象物が検出された車外画像内における、当該監視対象物の位置である車外画像内位置を特定する。ここでは、例えば、図4に示す車外画像26に基づいて、当該車外画像26の画像平面内における、監視対象物である転落者28の中心の位置P1の二次元座標値が特定される。
The outside-vehicle image
検出通知部44は、本実施形態では例えば、検出部40によって監視対象物が検出された際に、監視対象物が検出されたことを示す検出通知を車両10に送信する。ここで検出通知部44は、監視対象領域に写る監視対象物が写っている状況が所定の時間継続した際に、検出通知を車両10に送信してもよい。
In the present embodiment, for example, the detection notification unit 44 transmits a detection notification indicating that the monitoring target has been detected to the
また、検出通知部44は、所定の条件を満たす車両10に検出通知を送信してもよい。例えば、検出通知部44は、監視システム12が設けられている駅に向かう、当該駅からの距離が所定の距離以下である車両10に検出通知を送信してもよい。また例えば、検出通知部44は、監視システム12が設けられている駅に向かう、当該駅とその手前の駅の間にある車両10に検出通知を送信してもよい。
The detection notification unit 44 may also send the detection notification to the
検出通知には、例えば、検出通知を送信する監視システム12あるいは当該監視システム12が設けられている駅の識別情報や、検出された監視対象物の位置を示す監視対象物位置データなどを含む検出データが関連付けられている。監視対象物位置データは、例えば、上述の位置P1の二次元座標値を示すデータであってもよい。
The detection notification includes, for example, the identification information of the
通知受信部50は、本実施形態では例えば、監視対象物を検出した監視システム12から、上述の検出通知を受信する。そして通知受信部50は、受信した検出通知に関連付けられている検出データを検出データ記憶部52に記憶させる。
In the present embodiment, for example, the
検出データ記憶部52は、本実施形態では例えば、検出データを記憶する。
The detection
走行経路上位置特定部54は、本実施形態では例えば、車両10の線状の走行経路上における監視対象物の位置(以下、走行経路上位置と呼ぶ。)を特定する。
In the present embodiment, for example, the travel route
本実施形態では例えば、走行経路上位置特定部54には、予め、車両10の線状の走行経路を示す走行経路データが記憶されている。走行経路データには、例えば、車両10の線状の走行経路に沿った複数の位置の、実空間における三次元座標値が示されている。ここで当該三次元座標値は、例えば、緯度、経度、及び、標高によって表現されていてもよい。
In the present embodiment, for example, the travel route
また、本実施形態では例えば、走行経路上位置特定部54に、予め、複数の監視システム12のそれぞれについての車外画像・走行経路対応関係データが記憶されている。車外画像・走行経路対応関係データは、例えば、監視システム12で撮影される車外画像内における位置と走行経路データが示す走行経路上の位置との所与の対応関係を示すデータである。
Further, in the present embodiment, for example, the outside-vehicle image/traveling route correspondence relationship data for each of the plurality of
そして本実施形態では、検出データに含まれる監視対象物位置データが示す車外画像内位置、走行経路データ、及び、車外画像・走行経路対応関係データに基づいて、当該車外画像内位置に対応付けられる走行経路上の位置(上述の走行経路上位置)が特定される。 Then, in the present embodiment, it is associated with the in-vehicle image position based on the in-vehicle image position, the traveling route data, and the outside-vehicle image/driving route correspondence relationship data indicated by the monitored object position data included in the detection data. The position on the travel route (the above-mentioned position on the travel route) is specified.
表示部内位置特定部56は、本実施形態では例えば、車外画像内位置と、車両10の乗務員の眼前に配置される表示部(例えばHUD10e)の位置及び向きと、に基づいて、当該表示部内における監視対象物の位置(以下、表示部内位置と呼ぶ。)を特定する。
In the present embodiment, the
以下、表示部内位置特定部56による表示部内位置の特定について、図9を参照しながら説明する。
The specification of the position in the display unit by the position-in-
図9は、実空間に対応付けられる仮想空間の一例を示す図である。実空間内における位置は、図9に示す仮想空間内における位置と1対1で対応付けられる。当該仮想空間を示すデータは、例えば、表示部内位置特定部56に記憶される。
FIG. 9 is a diagram showing an example of a virtual space associated with a real space. The position in the real space is in one-to-one correspondence with the position in the virtual space shown in FIG. The data indicating the virtual space is stored in, for example, the display internal
本実施形態では例えば、運行管理システム14によって、車両10の走行経路R上における位置及び進行方向がリアルタイムで管理されている。そして、走行経路R上における車両10の現在の位置及び進行方向を示す運行データが、例えば所定の時間間隔で運行管理システム14から車両10に送信される。
In this embodiment, for example, the
そして、本実施形態では例えば、表示部内位置特定部56に、予め、運行データが示す車両10の位置及び向きとHUD10eの位置及び向きとの所与の対応関係を示す車両・HUD対応関係データが記憶されている。そして、表示部内位置特定部56は、車両・HUD対応関係データと、車両10の現在の位置及び進行方向を示す運行データと、に基づいて、現在におけるHUD10eの位置及び向きを特定する。
Then, in the present embodiment, for example, the vehicle-HUD correspondence relationship data indicating a given correspondence relationship between the position and orientation of the
また、本実施形態では例えば、表示部内位置特定部56に、予め、運行データが示す車両10の位置及び向きと乗務員の視点の位置及び視線方向との所与の対応関係を示す車両・視点対応関係データが記憶されている。そして、表示部内位置特定部56は、車両・視点対応関係データと、車両10の現在の位置及び進行方向を示す運行データと、に基づいて、現在における乗務員の視点の位置及び視線方向を特定する。
In addition, in the present embodiment, for example, the display-internal
図9には、実空間におけるHUD10eに対応付けられる板状の仮想HUDオブジェクト70が示されている。図9に示す仮想HUDオブジェクト70は、実空間におけるHUD10eの位置に対応付けられる仮想空間における位置に、実空間におけるHUD10eの向きに対応付けられる仮想空間における向きで配置される。 FIG. 9 shows a plate-shaped virtual HUD object 70 associated with the HUD 10e in the real space. The virtual HUD object 70 shown in FIG. 9 is arranged at the position in the virtual space associated with the position of the HUD 10e in the real space, in the orientation in the virtual space associated with the orientation of the HUD 10e in the real space.
また、図9には、上述のようにして特定される実空間における乗務員の視点の現在の位置に対応付けられる仮想空間内における位置P4が示されている。また、図9には、上述のようにして特定される実空間における乗務員の現在の視線方向に対応付けられる仮想空間における視線方向Dが示されている。 Further, FIG. 9 shows a position P4 in the virtual space that is associated with the current position of the viewpoint of the crew member in the real space specified as described above. Further, FIG. 9 shows the line-of-sight direction D in the virtual space that is associated with the current line-of-sight direction of the crew member in the real space identified as described above.
また、図9には、車外画像内位置(例えば、図4に示す位置P1)に基づいて特定される実空間における走行経路上位置に対応付けられる仮想空間内の位置P5が示されている。 Further, FIG. 9 shows a position P5 in the virtual space that is associated with the position on the travel route in the real space that is specified based on the position in the image outside the vehicle (for example, the position P1 shown in FIG. 4).
そして、表示部内位置特定部56は、位置P4と位置P5とを結ぶ線と仮想HUDオブジェクト70との交点の位置P6を特定する。ここでは例えば、板状の仮想HUDオブジェクト70が表す平面内における位置P6の二次元座標値が特定される。
Then, the in-display portion
そして、表示部内位置特定部56は、図9に示す位置P6に対応付けられる、HUD10e内における監視対象物の位置である表示部内位置(例えば、図6に示す位置P2)を特定する。本実施形態では、仮想HUDオブジェクト70が表す平面内における位置と表示部内位置とが1対1で予め対応付けられている。そのため、位置P6の二次元座標値に基づいて表示部内位置は特定可能である。以上で説明したように、表示部内位置特定部56は、走行経路上位置に基づいて、表示部内位置を特定してもよい。
Then, the in-display unit
表示制御部58は、本実施形態では例えば、表示部内位置特定部56により特定される表示部内位置に目印画像34を表示させる。ここで表示制御部58は、所定の条件を満足する監視対象物の表示部内位置に目印画像34を表示させてもよい。例えば、車両10の進行方向に存在する、車両10からの距離が所定の距離以下の監視システム12によって検出された監視対象物の表示部内位置に目印画像34が表示されるようにしてもよい。あるいは、車両10の進行方向に存在する、所定数個先までの駅に設けられた監視システム12によって検出された監視対象物の表示部内位置に目印画像34が表示されるようにしてもよい。あるいは、車両10が次に停車又は通過する駅に設けられた監視システム12によって検出された監視対象物の表示部内位置に目印画像34が表示されるようにしてもよい。
In the present embodiment, for example, the
判定部60は、本実施形態では例えば、車両10に設けられた車載撮影装置10dにより監視対象物が撮影されたか否かを判定する。ここでは、例えば、車載画像に監視対象物が写っているか否かが判定される。
In the present embodiment, for example, the
車載画像内位置特定部62は、本実施形態では例えば、車載撮影装置10dにより撮影される車載画像に写る監視対象物の当該車載画像内における位置である車載画像内位置を特定する。
In the present embodiment, for example, the in-vehicle image
車載撮影装置10dにより監視対象物が撮影されたことが判定部60によって判定された場合は、表示部内位置特定部56は、車載画像内位置に基づいて、表示部内位置を特定してもよい。そしてこの場合、表示制御部58は、車載画像内位置に基づいて特定される表示部内位置に目印画像34を表示させてもよい。
When the
本実施形態では、車載画像内位置と表示部内位置とは予め対応付けられている。そのため、表示部内位置特定部56は、車載画像内位置に基づいて、表示部内位置を一意に特定可能である。
In the present embodiment, the in-vehicle image position and the display unit position are associated with each other in advance. Therefore, the in-display unit
また、本実施形態において、車載撮影装置10dにより監視対象物が撮影されたことが判定されない状況から判定された状況に変化することがある。この場合に、表示部内位置特定部56が、表示部内位置を、車外画像内位置に基づくものから、車載画像内位置に基づくものに変化させてもよい。
In addition, in the present embodiment, there may be a change from a situation in which it is not determined that the monitoring target object has been photographed by the vehicle-mounted photographing device 10d to a situation in which it is determined. In this case, the display internal
以下、本実施形態に係る車両10において所定のフレームレートで繰り返し行われる処理の流れの一例を、図10に例示するフロー図を参照しながら説明する。
Hereinafter, an example of the flow of processing that is repeatedly performed at the predetermined frame rate in the
まず、判定部60が、当該フレームにおいて撮影された車載画像を取得する(S101)。
First, the
そして、走行経路上位置特定部54が、検出データ記憶部52に記憶されている検出データのうちから、所定の条件を満足するものを特定する(S102)。ここで例えば、検出データに含まれる識別情報に基づいて、車両10の進行方向に存在する、車両10からの距離が所定の距離以下の監視システム12から送信された検出データが特定されてもよい。あるいは、検出データに含まれる識別情報に基づいて、車両10の進行方向に存在する、所定数個先までの駅に設けられた監視システム12から送信された検出データが特定されてもよい。あるいは、検出データに含まれる識別情報に基づいて、車両10が次に停車又は通過する駅に設けられた監視システム12から送信された検出データが特定されてもよい。
Then, the travel route
そして、走行経路上位置特定部54が、S102に示す処理で特定された検出データに含まれる監視対象物位置データが示す車外画像内位置に対応する走行経路上位置を特定する(S103)。
Then, the travel route on-
そして、表示部内位置特定部56が、最新の運行データに基づいて、HUD10eの現在の位置及び向き、並びに、乗務員の視点の位置及び視線方向を特定する(S104)。
Then, the
そして、表示部内位置特定部56が、S103に示す処理で特定された走行経路上位置と、S104に示す処理で特定されたHUD10eの現在の位置及び向き、並びに、乗務員の視点の位置及び視線方向に基づいて、表示部内位置を特定する(S105)。
Then, the in-display
そして、判定部60が、S101に示す処理で取得された車載画像内のS105に示す処理で特定された表示部内位置に応じた範囲に監視対象物が写っているか否かを判定する(S106)。ここでは例えば、S105に示す処理で特定された表示部内位置に対応する車載画像内における位置からの距離が所定の距離以下である範囲に監視対象物が写っているか否かが判定される。
Then, the
S106に示す処理で写っていないことが判定された場合は(S106:N)、表示制御部58が、S105に示す処理で特定された表示部内位置に目印画像34を表示させて(S107)、S101に示す処理に戻る。
When it is determined that the image is not captured in the process shown in S106 (S106: N), the
S106に示す処理で写っていることが判定された場合は(S106:Y)、車載画像内位置特定部62は、S106に示す処理で写っていることが判定された監視対象物の車載画像内位置を特定する(S108)。
If it is determined that the image is captured in the process shown in S106 (S106: Y), the in-vehicle image
そして、表示部内位置特定部56が、S108に示す処理で特定された車載画像内位置に対応する表示部内位置を特定する(S109)。
Then, the display unit internal
そして、表示制御部58が、S109に示す処理で特定された表示部内位置に目印画像34を表示させて(S110)、S101に示す処理に戻る。
Then, the
図10に示す処理を実行することで、車載撮影装置10dにより監視対象物が撮影されたことが判定されない状況から判定された状況に変化した際に、表示部内位置が、車外画像内位置に基づくものから、車載画像内位置に基づくものに変化することとなる。 By executing the process shown in FIG. 10, the position inside the display unit is based on the position inside the image outside the vehicle when the in-vehicle image capturing device 10d changes from the state in which it is not determined that the monitored object is captured to the determined state. It changes from the one based on the position in the vehicle-mounted image.
なお図10に示す処理において、一度、車載画像に監視対象物が写っていることが判定された以後は、当該監視対象物については、S102〜S107に示す処理が実行されないようにして、車載画像内位置に基づいて表示部内位置が特定されるようにしてもよい。 In the process shown in FIG. 10, once it is determined that the monitoring target object appears in the vehicle-mounted image, the processes shown in S102 to S107 are not executed for the monitoring target object, and the vehicle-mounted image is displayed. The internal position of the display unit may be specified based on the internal position.
また、本実施形態において、表示制御部58は、監視対象物の位置がHUD10eの表示範囲外である場合に、図11に示すように、監視対象物の位置に応じたHUD10eの縁部に目印画像72を表示させてもよい。
Further, in the present embodiment, when the position of the monitored object is outside the display range of the HUD 10e, the
例えば、図9に示す位置P4と位置P5とを結ぶ線と仮想HUDオブジェクト70との交点が存在しないとする。この場合は、位置P4と位置P5とを結ぶ線に最も近い、仮想HUDオブジェクト70の辺上の位置が特定されてもよい。そして、特定された位置に対応付けられるHUD10eの縁部に目印画像72が表示されるようにしてもよい。
For example, it is assumed that there is no intersection between the line connecting the position P4 and the position P5 shown in FIG. 9 and the
また、本実施形態において、図12に示すように、目印画像34とともに、乗務員の視界の妨げのならない場所に警告画像74が表示されるようにしてもよい。あるいは、目印画像34の代わりに警告画像74が表示されるようにしてもよい。
Further, in the present embodiment, as shown in FIG. 12, a
また、本実施形態において、車外撮影装置12dが三次元画像やデプス画像の撮影が可能なカメラである場合に、監視システム12がカメラ座標系における監視対象物の三次元座標値を特定してもよい。そして、当該三次元座標値に基づいて、監視対象物の実空間内における位置や表示部内位置が特定されるようにしてもよい。なおこの場合に、当該三次元座標値を示す監視対象物位置データを含む検出データが関連付けられた検出通知が送信されるようにしてもよい。
Further, in the present embodiment, when the vehicle
また、車載撮影装置10dが三次元画像やデプス画像の撮影が可能なカメラである場合に、車両10がカメラ座標系における監視対象物の三次元座標値を特定してもよい。そして、当該三次元座標値に基づいて、表示部内位置が特定されるようにしてもよい。
Further, when the vehicle-mounted photographing device 10d is a camera capable of photographing a three-dimensional image or a depth image, the
なお、車両10と監視システム12の役割分担は上述のものには限定されない。例えば、監視システム12から車両10に車外画像が送信されるようにしてもよい。そして、車両10が、車外画像に基づいて車外画像内位置を特定してもよい。また、監視システム12が、走行経路上位置などの、監視対象物の実空間内における位置を特定してもよい。
The division of roles of the
また、本実施形態において、白杖を持った人物、補助犬、車いすを利用している人物、酔客等が、車外画像に写っていることが検出された際に、そのことを表す画像が車両10のHUD10eに表示されるようにしてもよい。 In addition, in the present embodiment, when it is detected that a person with a white cane, an auxiliary dog, a person using a wheelchair, a drunken person, etc. are included in the image outside the vehicle, an image representing that is detected by the vehicle. You may make it displayed on 10 HUD10e.
また、本実施形態において、踏切を監視するカメラが撮影する画像に基づいて、踏切内に支障物があるか否かが判定されてもよい。当該判定は、例えば、特殊発光信号機の動作センサの出力や特殊発光信号機の映像の認識結果に基づいて実行されてもよい。そして、踏切内に支障物があるか否かが判定された際に、そのことを表す画像が車両10のHUD10eに表示されるようにしてもよい。ここで例えば上述と同様の方法によって、当該支障物に対応付けられる表示部内位置に目印画像が表示されるようにしてもよい。
Further, in the present embodiment, it may be determined whether or not there is an obstacle inside the railroad crossing based on an image captured by a camera that monitors the railroad crossing. The determination may be performed based on, for example, the output of the operation sensor of the special light emission signal or the recognition result of the image of the special light emission signal. Then, when it is determined whether or not there is an obstacle inside the railroad crossing, an image indicating this may be displayed on the HUD 10e of the
なお、本発明は上述の実施形態に限定されるものではない。 The present invention is not limited to the above embodiment.
例えば、表示部内位置の特定方法は上述の方法には限定されない。例えば、車載画像に対して画像認識を実行し、車載画像に写っていない線路の位置が外挿によって推定されてもよい。そして推定された線路の位置上の表示部内位置が決定されるようにしてもよい。あるいは、過去の車両10の走行において車載撮影装置10dによって撮影された映像を学習した機械学習モデルを用いて、監視対象物の実空間内における位置や、表示部内位置が推定されるようにしてもよい。
For example, the method of identifying the position in the display unit is not limited to the above method. For example, image recognition may be performed on the vehicle-mounted image, and the position of the railroad that is not shown in the vehicle-mounted image may be estimated by extrapolation. Then, the position in the display unit on the estimated position of the track may be determined. Alternatively, the position of the monitoring target in the real space or the position in the display unit may be estimated by using a machine learning model in which an image captured by the vehicle-mounted image capturing device 10d in the past traveling of the
また、例えば、車両10の乗務員の眼前に配置される表示部が、HUD10eではなく、乗務員が装着するヘッドマウントディスプレイ(HMD)であってもよい。そして、目印画像が、HMDに表示されるようにしてもよい。この場合、例えば、HMDに設けられた加速度センサ等の各種センサの出力に基づいてHMDの位置及び向きが特定されてもよい。そして、特定されるHMDの位置及び向きに基づいて、表示部内位置が特定されるようにしてもよい。
Further, for example, the display unit arranged in front of the crew of the
また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。 Further, the specific character strings and numerical values described above and the specific character strings in the drawings are examples, and the present invention is not limited to these character strings and numerical values.
1 表示制御システム、10 車両、10a プロセッサ、10b 記憶部、10c 通信部、10d 車載撮影装置、10e ヘッドアップディスプレイ(HUD)、12 監視システム、12a プロセッサ、12b 記憶部、12c 通信部、12d 車外撮影装置、12e ディスプレイ、14 運行管理システム、16 コンピュータネットワーク、20 車外画像、22a 安全領域、22b 接近領域、22c 転落領域、22d 保線退避領域、24 車両限界枠モデル、26 車外画像、28 転落者、30 目印画像、32 画像、34 目印画像、40 検出部、42 車外画像内位置特定部、44 検出通知部、50 通知受信部、52 検出データ記憶部、54 走行経路上位置特定部、56 表示部内位置特定部、58 表示制御部、60 判定部、62 車載画像内位置特定部、70 仮想HUDオブジェクト、72 目印画像、74 警告画像。 1 display control system, 10 vehicle, 10a processor, 10b storage unit, 10c communication unit, 10d vehicle-mounted image capturing device, 10e head-up display (HUD), 12 monitoring system, 12a processor, 12b storage unit, 12c communication unit, 12d exterior image capturing Device, 12e display, 14 operation management system, 16 computer network, 20 exterior image, 22a safety area, 22b approach area, 22c fall area, 22d track maintenance area, 24 vehicle limit frame model, 26 exterior image, 28 fallen person, 30 Mark image, 32 image, 34 mark image, 40 detection unit, 42 vehicle outside image position specifying unit, 44 detection notification unit, 50 notification receiving unit, 52 detection data storage unit, 54 travel route position specifying unit, 56 display position Specific part, 58 Display control part, 60 Judgment part, 62 In-vehicle image position specific part, 70 Virtual HUD object, 72 Mark image, 74 Warning image.
Claims (8)
前記車両の線状の走行経路を示す走行経路データと、前記車外画像内位置と、に基づいて、前記走行経路データが示す走行経路上における前記監視対象物の位置である走行経路上位置を特定する走行経路上位置特定手段と、
前記走行経路上位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する表示部内位置特定手段と、
特定される前記表示部内位置に目印画像を表示させる表示制御手段と、
を含むことを特徴とする表示制御システム。 An outside-vehicle image position specifying means for specifying an outside-vehicle image position, which is a position in the outside-vehicle image of the monitoring target shown in the outside-vehicle image taken by the outside-vehicle imaging device provided outside the vehicle,
Based on the traveling route data indicating the linear traveling route of the vehicle and the position inside the vehicle image, the position on the traveling route which is the position of the monitoring target on the traveling route indicated by the traveling route data is specified. Position specifying means on the traveling route,
Based on the position on the travel route and the position and orientation of the display unit arranged in front of the crew of the vehicle, the position in the display unit that identifies the position in the display unit that is the position of the monitored object in the display unit. Identification means,
Display control means for displaying a mark image at the specified position in the display section;
A display control system comprising:
前記車載撮影装置により撮影される車載画像に写る前記監視対象物の当該車載画像内における位置である車載画像内位置を特定する車載画像内位置特定手段と、をさらに含み、
前記車載撮影装置により前記監視対象物が撮影されたことが判定された場合は、前記表示部内位置特定手段は、前記車載画像内位置に基づいて、前記表示部内位置を特定する、
ことを特徴とする請求項1に記載の表示制御システム。 Determination means for determining whether or not the monitored object is photographed by the vehicle-mounted photographing device provided in the vehicle,
The vehicle-mounted image capturing device further includes a vehicle-mounted image internal position identifying unit that identifies a vehicle-mounted image internal position that is a position in the vehicle-mounted image of the monitoring target captured in the vehicle-mounted image captured by the vehicle-mounted image capturing device,
When it is determined that the monitoring target has been photographed by the vehicle-mounted image capturing device, the display unit internal position identifying means identifies the display unit internal position based on the vehicle-mounted image internal position,
The display control system according to claim 1 , wherein:
ことを特徴とする請求項2に記載の表示制御システム。 When the situation in which it is not determined that the monitoring target has been photographed by the vehicle-mounted image capturing device is changed to the determined situation, the display unit internal position specifying unit determines the display unit internal position based on the vehicle outside image internal position. Change from the one based on the position in the in-vehicle image,
The display control system according to claim 2 , wherein:
ことを特徴とする請求項1から3のいずれか一項に記載の表示制御システム。 The display control means, when the position of the monitoring target is outside the display range of the display unit, displays a mark image on the edge of the display unit according to the position of the monitoring target,
The display control system according to any one of claims 1 to 3, characterized in that.
ことを特徴とする請求項1から4のいずれか一項に記載の表示制御システム。 The display unit is a head-up display provided in the vehicle,
The display control system according to claim 1, any one of 4, characterized in that.
ことを特徴とする請求項1から4のいずれか一項に記載の表示制御システム。 The display unit is a head mounted display worn by the crew member,
The display control system according to claim 1, any one of 4, characterized in that.
前記車両の線状の走行経路を示す走行経路データと、前記車外画像内位置と、に基づいて、前記走行経路データが示す走行経路上における前記監視対象物の位置である走行経路上位置を特定するステップと、
前記走行経路上位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定するステップと、
特定される前記表示部内位置に目印画像を表示させるステップと、
を含むことを特徴とする表示制御方法。 A step of identifying an in-vehicle image position that is a position in the out-of-vehicle image of the monitoring target shown in an out-of-vehicle image captured by an out-of-vehicle image capturing device provided outside the vehicle,
A position on the travel route that is the position of the monitored object on the travel route indicated by the travel route data is specified based on the travel route data indicating the linear travel route of the vehicle and the position outside the vehicle image. Steps to
Based on the position on the traveling route and the position and orientation of the display unit arranged in front of the crew of the vehicle, a step of specifying a position in the display unit that is the position of the monitored object in the display unit,
A step of displaying a mark image at the specified position in the display section;
A display control method comprising:
前記車両の線状の走行経路を示す走行経路データと、前記車外画像内位置と、に基づいて、前記走行経路データが示す走行経路上における前記監視対象物の位置である走行経路上位置を特定する手順、
前記走行経路上位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する手順、
特定される前記表示部内位置に目印画像を表示させる手順、
をコンピュータに実行させることを特徴とするプログラム。 A procedure for identifying the in-vehicle image position, which is the position of the monitored object in the in-vehicle image shown in the in-vehicle image captured by the in-vehicle image capturing device provided outside the vehicle,
A position on the travel route that is the position of the monitored object on the travel route indicated by the travel route data is specified based on the travel route data indicating the linear travel route of the vehicle and the position outside the vehicle image. Steps to
Based on the position on the travel route and the position and orientation of the display unit arranged in front of the crew member of the vehicle, a procedure for specifying a position in the display unit that is the position of the monitored object in the display unit,
A procedure for displaying a landmark image at the specified position in the display unit,
A program characterized by causing a computer to execute.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019221232A JP6729958B1 (en) | 2019-12-06 | 2019-12-06 | Display control system, display control method and program |
PCT/JP2020/044464 WO2021112030A1 (en) | 2019-12-06 | 2020-11-30 | Display control system, display control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019221232A JP6729958B1 (en) | 2019-12-06 | 2019-12-06 | Display control system, display control method and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020111734A Division JP2021091387A (en) | 2020-06-29 | 2020-06-29 | Display control system, display control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6729958B1 true JP6729958B1 (en) | 2020-07-29 |
JP2021093565A JP2021093565A (en) | 2021-06-17 |
Family
ID=71738443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019221232A Active JP6729958B1 (en) | 2019-12-06 | 2019-12-06 | Display control system, display control method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6729958B1 (en) |
WO (1) | WO2021112030A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7502253B2 (en) * | 2021-12-03 | 2024-06-18 | 古河電気工業株式会社 | Roadside device, communication system, railroad vehicle device, program, and communication method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5741173B2 (en) * | 2011-04-19 | 2015-07-01 | トヨタ自動車株式会社 | Image display device and image display method |
US20160318530A1 (en) * | 2015-04-30 | 2016-11-03 | Roger Laverne Johnson | System, method and apparatus for managing railroad operations and assets using frequently acquired, path oriented, geospatial and time registered, sensor mapped data |
JP7006235B2 (en) * | 2017-12-18 | 2022-01-24 | トヨタ自動車株式会社 | Display control device, display control method and vehicle |
JP7132740B2 (en) * | 2018-04-12 | 2022-09-07 | 日本信号株式会社 | Object detection system |
JP2019191961A (en) * | 2018-04-25 | 2019-10-31 | 株式会社東芝 | Traveling state presentation device |
-
2019
- 2019-12-06 JP JP2019221232A patent/JP6729958B1/en active Active
-
2020
- 2020-11-30 WO PCT/JP2020/044464 patent/WO2021112030A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021112030A1 (en) | 2021-06-10 |
JP2021093565A (en) | 2021-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11868133B1 (en) | Avoiding blind spots of other vehicles | |
US9507345B2 (en) | Vehicle control system and method | |
CN111664854B (en) | Object position indicator system and method | |
JP6944308B2 (en) | Control devices, control systems, and control methods | |
US8954252B1 (en) | Pedestrian notifications | |
US7605773B2 (en) | Head-up display system and method for carrying out the location-correct display of an object situated outside a vehicle with regard to the position of the driver | |
TWI633524B (en) | Traffic monitoring system | |
US9381918B1 (en) | Modifying speed of an autonomous vehicle based on traffic conditions | |
US8874372B1 (en) | Object detection and classification for autonomous vehicles | |
CN109795413B (en) | Driving support device and driving support method | |
US20130197736A1 (en) | Vehicle control based on perception uncertainty | |
US20120083964A1 (en) | Zone driving | |
US10747221B2 (en) | Moving body, moving body control system, and moving body control method | |
US10732420B2 (en) | Head up display with symbols positioned to augment reality | |
WO2015163205A1 (en) | Vehicle display system | |
US20200180519A1 (en) | Display control device for vehicle, display control method for vehicle, and storage medium | |
TW201333896A (en) | Remote traffic management system using video radar | |
JP2020123339A (en) | Cooperative blind spot alarm method and apparatus of vehicle-to-vehicle communication infrastructure with fault tolerance and fluctuation robustness under extreme situation | |
KR20180040012A (en) | Front monitoring apparatus, driving assistant apparatus using front monitoring apparatus and driving assistant method using front monitoring apparatus | |
JP2023174676A (en) | Vehicle display control device, method and program | |
CN112440741A (en) | Vehicle time multiplex display | |
JP6729958B1 (en) | Display control system, display control method and program | |
CN117242460A (en) | Computerized detection of unsafe driving scenarios | |
EP2246762B1 (en) | System and method for driving assistance at road intersections | |
CN113928335B (en) | Method and system for controlling a vehicle having an autonomous driving mode |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191206 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191206 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6729958 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |