JP5604011B2 - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP5604011B2 JP5604011B2 JP2013541651A JP2013541651A JP5604011B2 JP 5604011 B2 JP5604011 B2 JP 5604011B2 JP 2013541651 A JP2013541651 A JP 2013541651A JP 2013541651 A JP2013541651 A JP 2013541651A JP 5604011 B2 JP5604011 B2 JP 5604011B2
- Authority
- JP
- Japan
- Prior art keywords
- living body
- sub
- vehicle
- animal
- icon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 18
- 238000012544 monitoring process Methods 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000002093 peripheral effect Effects 0.000 claims 1
- 241001465754 Metazoa Species 0.000 description 131
- 238000000034 method Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 20
- 230000004048 modification Effects 0.000 description 18
- 238000012986 modification Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/24—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/30—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/08—Stereoscopic photography by simultaneous recording
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/106—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/107—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Description
この発明は、車両周辺の監視対象物を検知して簡易表示する車両周辺監視装置に関する。 The present invention relates to a vehicle periphery monitoring apparatus that detects and easily displays a monitoring object around the vehicle.
従来の車両周辺監視装置として、赤外線カメラによる車両前方の画像を運転席前方のディスプレイに表示すると共に、当該画像から検出された歩行者の画像部位を強調表示する装置が知られている{特開2009−067214号公報(以下「JP 2009−067214 A」という。)の図5参照}。 As a conventional vehicle periphery monitoring device, there is known a device that displays an image in front of a vehicle by an infrared camera on a display in front of a driver's seat and highlights a pedestrian's image portion detected from the image { FIG. 5 of 2009-0667214 (hereinafter referred to as “JP 2009-067241 A”)}.
また、ディスプレイ内に表示する画像における歩行者の画像部位の強調表示に加えて、ヘッドアップディスプレイ(HUD)に、歩行者の存在を知らせるアイコンの表示を行う装置も知られている{特開2004−364112号公報(以下「JP 2004−364112 A」という。)}。JP 2004−364112 Aでは、赤外線カメラ2Rの撮像画像中に歩行者が存在すると判定した場合、HUD8aに歩行者のアイコン32、33を表示する(図6、[0036]〜[0038]参照)。
In addition to emphasizing the pedestrian's image part in the image displayed on the display, there is also known an apparatus for displaying an icon for informing the presence of a pedestrian on a head-up display (HUD) {Japanese Patent Laid-Open No. 2004-2004 -364112 (hereinafter referred to as “JP 2004-364112 A”)}. In JP 2004-364112 A, when it is determined that a pedestrian is present in the image captured by the infrared camera 2R,
なお、歩行者を検出する技術としては、例えば、2値化情報から歩行者の候補を簡易に選定し、グレースケール情報を用いて歩行者と判定することで処理速度と判定精度の両立を実現可能なものも存在する{米国特許出願公開第2003/0138133号公報(以下「US 2003/0138133 A1」という。)の要約及び図8参照}。また、動物を検出する技術も提案されている{米国特許出願公開第2008/0130954号公報(以下「US 2008/0130954 A1」という。)及び米国特許出願公開第2007/0269079号公報(以下「US 2007/0269079 A1」という。)参照}。 As a technique for detecting pedestrians, for example, pedestrian candidates can be easily selected from binarized information, and grayscale information is used to determine pedestrians, thereby achieving both processing speed and determination accuracy. There is also a possibility {see the summary of US Patent Application Publication No. 2003/0138133 (hereinafter referred to as “US 2003/0138133 A1”) and FIG. 8}. In addition, techniques for detecting animals have also been proposed {US Patent Application Publication No. 2008/0130954 (hereinafter referred to as “US 2008/0130954 A1”) and US Patent Application Publication No. 2007/0269079 (hereinafter referred to as “US”). 2007/0269079 A1 ”))}.
上記のように、JP 2004−364112 Aでは、HUD8aに歩行者の存在を知らせるアイコン32、33を表示する。しかしながら、ユーザに対してより適切な注意喚起を行う余地は依然として存在している。
As described above, JP 2004-364112 A displays the
この発明はこのような課題を考慮してなされたものであり、ユーザに対して適切な注意喚起を行うことが可能な車両周辺監視装置を提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a vehicle periphery monitoring device that can appropriately alert a user.
この発明に係る車両周辺監視装置は、車両に搭載された撮像装置から出力された撮像信号に基づいて、前記車両の周辺における監視対象物としての生体を検知するものであって、前記撮像信号が表す画像を表示する第1表示部と、前記第1表示部に表示される前記画像を構成する複数のサブ領域にそれぞれ対応付けられた各マークの表示の有無によって、前記画像の前記各サブ領域内における前記監視対象物の存否情報を可視化する第2表示部とを備え、前記生体の顔向き及び身体の向きの少なくとも一方に応じて前記マークの表示を変化させることを特徴とする。 A vehicle periphery monitoring device according to the present invention detects a living body as a monitoring object in the periphery of the vehicle based on an imaging signal output from an imaging device mounted on the vehicle, and the imaging signal is A first display unit that displays an image to be displayed, and each sub-region of the image depending on whether or not each mark associated with each of a plurality of sub-regions constituting the image displayed on the first display unit is displayed And a second display section for visualizing the presence / absence information of the monitoring object in the body, wherein the display of the mark is changed according to at least one of the face direction and the body direction of the living body.
この発明によれば、監視対象物の存否を示す第2表示部上のマークの表示を、生体の顔向き及び身体の向きの少なくとも一方に応じて変化させる。顔向き及び身体の向きは、生体の進行方向を示す可能性が高いため、この発明によれば、生体の進行方向を考慮した注意喚起を行うことが可能となる。従って、ユーザに対して適切な注意喚起を行うことが可能となる。 According to this invention, the display of the mark on the second display unit indicating the presence or absence of the monitoring object is changed according to at least one of the face orientation of the living body and the body orientation. Since there is a high possibility that the face direction and the body direction indicate the traveling direction of the living body, according to the present invention, it is possible to call attention in consideration of the traveling direction of the living body. Accordingly, it is possible to appropriately alert the user.
前記複数のサブ領域の境界線上に存在する前記生体について、前記生体の顔向き又は身体の向きが前記車両の進行方向の中心線と交差する方向である場合、当該境界線を挟んで隣り合う前記サブ領域に対応させて複数の前記マークを同時に又は交互に前記第2表示部に表示してもよい。これにより、複数のサブ領域の境界線上に存在する生体については、生体の顔向き又は身体の向きが車両の進行方向の中心線と交差する方向である場合、当該境界線を挟んで隣り合うサブ領域に対応させて複数のマークを同時に又は交互に表示する。このため、生体の顔向き又は身体の向きに応じて生体の存在を強調表示し、ユーザに対して適切な注意喚起を行うことが可能となる。 For the living body present on the boundary lines of the plurality of sub-regions, when the face direction of the living body or the body direction is a direction intersecting the center line of the traveling direction of the vehicle, the adjacent ones across the boundary line A plurality of the marks may be displayed on the second display unit simultaneously or alternately corresponding to the sub-regions. Thereby, for a living body that exists on the boundary lines of a plurality of sub-regions, when the face direction of the living body or the body direction is a direction that intersects the center line of the traveling direction of the vehicle, A plurality of marks are displayed simultaneously or alternately corresponding to the area. For this reason, it becomes possible to highlight the presence of the living body according to the face direction of the living body or the direction of the body, and to appropriately alert the user.
前記生体が属する前記サブ領域と当該サブ領域よりも前記生体の顔向き又は身体の向きの方向に存在する前記サブ領域との両方に前記マークを表示してもよい。これにより、生体の進行方向を反映する形で生体の存在を注意喚起することが可能となる。このため、ユーザに対して適切な注意喚起を行うことが可能となる。 The mark may be displayed both in the sub-region to which the living body belongs and in the sub-region existing in the direction of the face of the living body or the direction of the body from the sub-region. This makes it possible to alert the presence of the living body in a manner that reflects the traveling direction of the living body. For this reason, it becomes possible to alert the user appropriately.
前記生体の顔向き又は身体の向きが前記車両の進行方向の中心線と交差する方向である場合、前記マークの表示色を、より強い注意喚起を求める警戒色に切り替えてもよい。これにより、生体が車両に向かって来ている場合、生体の存在をより強く注意喚起することが可能となる。このため、ユーザに対して適切な注意喚起を行うことが可能となる。 When the face direction or the body direction of the living body is a direction that intersects the center line of the traveling direction of the vehicle, the display color of the mark may be switched to a warning color that requires a stronger alert. Thereby, when the living body is coming toward the vehicle, the presence of the living body can be more strongly alerted. For this reason, it becomes possible to alert the user appropriately.
A.一実施形態
[1.構成]
(1−1.全体構成)
図1は、この発明の一実施形態に係る車両周辺監視装置10(以下「監視装置10」ともいう。)の構成を示すブロック図である。図2は、監視装置10が組み込まれた車両12の概略斜視図である。図3は、車両12において運転者側から視た眺めを示す図である。なお、図3は、車両全般が右側走行することを取り決められている国の道路を車両12が走行している状況を示しており、車両12は左ハンドル車として図示されている。代わりに、右ハンドル車であっても同様の構成を採用することができる。A. One Embodiment [1. Constitution]
(1-1. Overall configuration)
FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device 10 (hereinafter also referred to as “
図1及び図2に示すように、車両周辺監視装置10は、左右の赤外線カメラ16L、16R(以下「カメラ16L、16R」ともいう。)と、車速センサ18と、ヨーレートセンサ20と、電子制御装置22(以下「ECU22」という。)と、スピーカ24と、汎用モニタ26(以下「モニタ26」ともいう。)と、MID28(Multi-Information Display)とを有する。
As shown in FIGS. 1 and 2, the vehicle
(1−2.赤外線カメラ16L、16R)
赤外線カメラ16L、16Rは、車両12の周囲を撮像する撮像装置として機能する。本実施形態では、2つのカメラ16L、16Rを組み合わせてステレオカメラを構成する。カメラ16L、16Rは、被写体の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有する。(1-2.
The infrared cameras 16 </ b> L and 16 </ b> R function as an imaging device that images the surroundings of the
図2に示すように、カメラ16L、16Rは、車両12の前部バンパー部に、車両12の車幅方向中心部に対して略対称な位置に配置されている。また、2つのカメラ16L、16Rは、それらの光軸が互いに平行であり、且つ両者の路面からの高さが等しくなるように固定されている。
As shown in FIG. 2, the cameras 16 </ b> L and 16 </ b> R are disposed on the front bumper portion of the
なお、車両12の周囲を撮像する撮像装置は、図2に示す構成例に限られることなく、種々の構成を採り得る。例えば、撮像装置は、複眼(ステレオカメラ)であっても単眼(1つのカメラ)であってもよい。この場合、別の測距手段(レーダ装置)を併せて備えることが好ましい。また、赤外線カメラに代替して、主に可視光領域の波長を有する光を利用するカメラ(カラーカメラともいう。)を用いてもよく、或いは両方を併せ備えてもよい。
In addition, the imaging device which images the circumference | surroundings of the
(1−3.車速センサ18及びヨーレートセンサ20)
車速センサ18は、車両12の車速V[km/h]を検出し、ECU22に出力する。ヨーレートセンサ20は、車両12のヨーレートYr[°/sec]を検出し、ECU22に出力する。(1-3.
The
(1−4.ECU22)
ECU22は、監視装置10を制御するものであり、図1に示すように、入出力部30、演算部32及び記憶部34を有する。(1-4.ECU22)
The
カメラ16L、16R、車速センサ18及びヨーレートセンサ20からの各信号は、入出力部30を介してECU22に供給される。また、ECU22からの出力信号は、入出力部30を介してスピーカ24、モニタ26及びMID28に出力される。入出力部30は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。
Signals from the
演算部32は、カメラ16L、16R、車速センサ18及びヨーレートセンサ20からの各信号に基づく演算を行い、演算結果に基づきスピーカ24、モニタ26及びMID28に対する信号を生成する。
The
図1に示すように、演算部32は、2値化機能40、生体抽出機能42、生体種別判定機能44、スピーカ制御機能46、汎用モニタ制御機能48及びMID制御機能50を有する。各機能40、42、44、46、48、50は、記憶部34に記憶されているプログラムを実行することにより実現される。或いは、前記プログラムは、図示しない無線通信装置(携帯電話機、スマートフォン等)を介して外部(サーバ等)から供給されてもよい。
As shown in FIG. 1, the
2値化機能40は、カメラ16L、16Rの一方(本実施形態では、左側のカメラ16L)が取得したグレースケール画像72(図4)を2値化して2値化画像(図示せず)を生成する。生体抽出機能42は、グレースケール画像72及び前記2値化画像を用いて、これらの画像中におけるヒトや動物等の生体(監視対象物)を抽出する。生体種別判定機能44は、抽出された監視対象物が、ヒト(大人、子供)、動物及びその他(判定不能なものを含む。)のいずれであるかを判定する。スピーカ制御機能46は、スピーカ24に警報音を出力させる等、スピーカ24を制御する。汎用モニタ制御機能48は、汎用モニタ26に対してグレースケール画像72を表示させる等、汎用モニタ26を制御する。
The
MID制御機能50は、MID28に対してヒト及び動物等の生体のアイコン(以下「生体アイコン」という。)を表示させる等、MID28を制御する。図1に示すように、MID制御機能50は、境界線設定機能52、顔向き検出機能54、サブ領域選択機能56、アイコン表示色設定機能58(以下「表示色設定機能58」ともいう。)及びアイコン表示機能60を有する。各機能52、54、56、58、60の詳細については後述する。
The
記憶部34は、デジタル信号に変換された撮像信号、各種演算処理に供される一時データ等を記憶するRAM(Random Access Memory)、及び実行プログラム、テーブル又はマップ等を記憶するROM(Read Only Memory)等で構成される。
The
(1−5.スピーカ)
スピーカ24は、ECU22からの指令に応じて、警報音等の出力を行う。スピーカ24は、ダッシュボード62(図3)に設けられる(但し、図3において、スピーカ24は図示していない。)。図示しないオーディオ装置又はナビゲーション装置に設けられているスピーカをスピーカ24として用いてもよい。(1-5. Speaker)
The
(1−6.汎用モニタ26)
汎用モニタ26(第1表示部)は、カラー画像又はモノクロ画像を表示可能であり、例えば、液晶パネル、有機EL(Electro-Luminescence)パネル又は無機ELパネルを備える。図2及び図3に示すように、汎用モニタ26は、ダッシュボード62の所定部位(具体的には、ハンドル64の配設位置に対して右方の部位)に配設されている。(1-6. General-purpose monitor 26)
The general-purpose monitor 26 (first display unit) can display a color image or a monochrome image, and includes, for example, a liquid crystal panel, an organic EL (Electro-Luminescence) panel, or an inorganic EL panel. As shown in FIGS. 2 and 3, the general-
図4は、汎用モニタ26の表示画面の一例を示す図である。図4において、モニタ26の表示領域(以下「第1表示領域70」又は「表示領域70」という。)には、左側のカメラ16Lが撮像したグレースケール画像72が表示されている。
FIG. 4 is a diagram illustrating an example of the display screen of the general-
グレースケール画像72には、汎用モニタ制御機能48が生成した強調表示を付加することができる。すなわち、図4に示すように、ヒトや動物等の生体が抽出された箇所(以下「生体対応部分74」という。)には、強調枠76が表示される。或いは、生体対応部分74に着色してもよい。或いは、強調枠76の表示及び生体対応部分74の着色の両方を行うこともできる。或いは、その他の方法による強調であってもよい。
A highlighted display generated by the general-purpose
なお、汎用モニタ26は、左側のカメラ16Lからのグレースケール画像72の代わりに、右側のカメラ16Rからのグレースケール画像72を表示してもよい。また、汎用モニタ26は、カメラ16L又はカメラ16Rからのグレースケール画像72に加え、その他の画像、例えば、ナビゲーション用の各種画像(道路地図、サービス情報等)、動画コンテンツ等を同時に又は切り替えて表示してもよい。各画像の切替えは、例えば、特定のプッシュボタンの押圧、又は切替え条件の事前設定により行うことが可能である。
The general-
(1−7.MID28)
MID28(第2表示部)は、車両12の運転の際の付随情報を可視化して表示する簡易表示装置(アイコン表示装置)であり、汎用モニタ26(特に、その表示用パネル)よりも構成が簡便で、且つ安価な表示モジュールである。例えば、汎用モニタ26よりも解像度の低い表示用パネル(例えば、ノンインタレース方式で動作するもの)をMID28として用いることができる。(1-7. MID28)
The MID 28 (second display unit) is a simple display device (icon display device) that visualizes and displays accompanying information at the time of driving the
図2及び図3に示すように、MID28は、計器盤66の上側近傍のダッシュボード62(又は計器盤66内)に設けられる。MID28は、運転者がハンドル64の上側の隙間を介してMID28を視認可能となるような位置に配置されている。これにより、運転者は、車両12の前方へ顔を向けた状態のまま、MID28を見ることが可能となる。
As shown in FIGS. 2 and 3, the
図5は、MID28の表示画面の一例を示す図である。図5において、MID28の表示領域(以下「第2表示領域80」又は「表示領域80」という。)には、グレースケール画像72に対応する各種のアイコンを含む画像(以下「アイコン画像82」という。)が表示される。
FIG. 5 is a diagram showing an example of the display screen of MID28. In FIG. 5, the display area of MID 28 (hereinafter referred to as “
例えば、図5に示すように、表示領域80の下側には、車両12の進行方向の道路を示す道路アイコン84が表示されている。道路アイコン84は、3本のライン、すなわち、左から順に、ライン84L、84C、84Rで構成されている。ライン84L、84R間の幅は、表示領域80のうち遠方位置を想起させる上側ほど狭くなっている。すなわち、道路アイコン84の表示により、運転席から前方の直線道路を眺めたときの道路形状を、運転者に観念させることができる。
For example, as shown in FIG. 5, a
また、図5に示すように、表示領域80の上側には、車両12の周囲に存在する歩行者を示すヒトアイコン86(マーク)を表示することができる。本実施形態のヒトアイコン86は、ヒトの歩行者について大人及び子供の区別なく用いられる。もちろんそのような区別をつけ、ヒトの大人と子供とで別々のアイコンを用いてよい。また、ヒトアイコン86は、表示領域80の3箇所(すなわち、左側、中央及び右側)に表示可能である(図5、図6等参照)。
As shown in FIG. 5, a human icon 86 (mark) indicating a pedestrian existing around the
なお、ヒトアイコン86の代わりに、その他の生体を示すアイコン{例えば、動物を示す動物アイコン88(マーク)(図9等参照))を表示することもできる。
Instead of the
また、MID28は、上記の各種アイコン(道路アイコン84、ヒトアイコン86及び動物アイコン88)を表示する代わりに、車両12の燃費、現在時刻、計器盤66に関する情報等を表示してもよい。各情報(画像)の切替えは、例えば、特定のプッシュボタンの押圧、又は切替え条件の事前設定により行うことが可能である。
Further, the
[2.汎用モニタ26及びMID28の表示の関係]
図6は、汎用モニタ26及びMID28の表示の関係を示す図である。図6に示すように、本実施形態では、グレースケール画像72を車幅方向に3つの領域(以下「第1サブ領域90L、90C、90R」又は「サブ領域90L、90C、90R」といい、「第1サブ領域90」又は「サブ領域90」と総称する。)に分ける。以下では、各第1サブ領域90の境界線(以下「第1境界線92L、92R」又は「境界線92L、92R」といい、「第1境界線92」又は「境界線92」と総称する。)は、実際のグレースケール画像72には含まれない仮想的な線であり、車幅方向に変位させることができる(詳細は、図8を用いて後述する。)。なお、実際の処理では、サブ領域90を用いずに、境界線92のみを用いることも可能である。境界線92は、MID28の道路アイコン84のように、車線に沿う形(上に行く程、狭まる形状)であってもよい。[2. Relationship between display of general-
FIG. 6 is a diagram showing a display relationship between the general-
また、図6に示すように、アイコン画像82を車幅方向に3つの領域(以下「第2サブ領域100L、100C、100R」又は「サブ領域100L、100C、100R」といい、「第2サブ領域100」又は「サブ領域100」と総称する。)に分ける。アイコン画像82における各第2サブ領域100の境界線(以下「第2境界線102L、102R」又は「境界線102L、102R」といい、「第2境界線102」又は「境界線102」と総称する。)は、実際のアイコン画像82には含まれない仮想的な線であると共に、固定されており、変化しない。第2境界線102L、102Rは、それぞれ第1境界線92L、92Rと対応付けられている。境界線92と同様、境界線102は、MID28の道路アイコン84のように、車線に沿う形(上に行く程、狭まる形状)であってもよい。
In addition, as shown in FIG. 6, the
本実施形態では、グレースケール画像72中の生体対応部分74が属する第1サブ領域90(以下「第1生体存在サブ領域」という。)を判定し、MID28におけるアイコン画像82の第2サブ領域100のうち第1生体存在サブ領域に対応するもの(以下「第2生体存在サブ領域」という。)に生体アイコン(ヒトアイコン86、動物アイコン88等)を表示する。
In the present embodiment, the first sub-region 90 (hereinafter referred to as “first living-body sub-region”) to which the living
なお、所定の場合には、表示する生体アイコンの数を1から2に増加させる、生体アイコンの表示色を変化させる等の処理を行うことができる(詳細は後述する。)。 In a predetermined case, processing such as increasing the number of biological icons to be displayed from 1 to 2 and changing the display color of the biological icons can be performed (details will be described later).
[3.車両周辺監視装置10の動作]
(3−1.概要)
図7は、車両周辺監視装置10の動作の概要を示すフローチャートである。ステップS1において、赤外線カメラ16L、16Rは、車両12の周辺を撮像する。ステップS2において、ECU22は、カメラ16L、16Rからの信号をA/D変換してグレースケール画像72を取得する。ステップS3において、ECU22は、2値化処理を実行する。2値化処理では、グレースケール画像72を2値化して2値化画像(図示せず)を取得する。[3. Operation of Vehicle Perimeter Monitoring Device 10]
(3-1. Overview)
FIG. 7 is a flowchart showing an outline of the operation of the vehicle
ステップS4において、ECU22は、取得した2値化画像及びグレースケール画像72から生体対応部分74を抽出する。生体はその周囲より高温となっているので、2値化画像及びグレースケール画像72において生体に対応する部分(生体対応部分74)は高輝度となる。従って、2値化画像及びグレースケール画像72において、輝度が所定の閾値以上の画素の領域を探索することにより、生体対応部分74を抽出することが可能となる。
In step S <b> 4, the
なお、2値化画像及びグレースケール画像72の両方を用いるのは、2値化画像を用いて簡易に生体の存在を特定し、その後、グレースケール画像72を用いて生体に関する詳細な情報を取得するためである。そのような処理として、例えば、US 2003/0138133 A1に記載のものを用いることができる。また、2値化画像及びグレースケール画像72の一方のみを用いて生体対応部分74を抽出してもよい。
Note that the use of both the binarized image and the
ステップS5において、ECU22は、抽出した生体対応部分74が示す生体の種別を判定する。すなわち、抽出した生体対応部分74が、ヒトの大人、子供及び動物のいずれに対応するものなのかを判定する。判定される種別は、その他のものであってもよい。
In step S5, the
ステップS6において、ECU22は、生体対応部分74を強調したグレースケール画像72を汎用モニタ26に表示する。上述したように、強調表示は、例えば、強調枠76の表示(図4)及び生体対応部分74の着色の少なくとも一方等を行う。
In step S <b> 6, the
ステップS7において、ECU22は、グレースケール画像72又は前記2値化画像において第1境界線92L、92R(図6)を設定して第1サブ領域90を特定する(詳細は後述する。)。
In step S7, the
ステップS8において、ECU22は、抽出した生体対応部分74のうちヒトの子供及び動物に対応するものから当該子供又は動物の顔向きを検出する。なお、顔向きの代わりに又は顔向きに加えて、当該子供又は動物の身体の向きを検出してもよい。顔向き又は身体の向きの検出方法としては、例えば、US 2008/0130954 A1及びUS 2007/0269079 A1に記載のものを利用することができる。ここにいう顔向き又は身体の向きの検出とは、例えば、平面視におけるカメラ16Lの光軸に対する角度を具体的に算出できることが好ましいが、車両12又は運転者から見て左右いずれを向いているか(換言すると、内向き又は外向きのいずれであるか)の区別であってもよい。
In step S <b> 8, the
ステップS9において、ECU22は、生体対応部分74が属する第1サブ領域90(第1生体存在サブ領域)を判定する。なお、本実施形態において、生体対応部分74が境界線92上にある場合、当該境界線92を挟む2つの第1サブ領域90を、生体対応部分74が属する第1サブ領域90と判定する場合がある(詳細は後述する。)。
In step S9, the
ステップS10において、ECU22は、第1生体存在サブ領域に対応する第2サブ領域100(第2生体存在サブ領域)を判定する。
In step S10, the
ステップS11において、ECU22は、第2生体存在サブ領域における生体アイコンの表示色(警報色)を設定する。当該表示色は、本実施形態では、単色(黄色のみ)であるため、ステップS11の処理は省略してもよい。また、後述するように、状況に応じて、生体アイコンの表示色を変化させることもできる。
In step S11, the
ステップS12において、ECU22は、生体を示す生体アイコン(ヒトアイコン86等)を、ステップS10で判定した第2生体存在サブ領域に表示する。なお、車両12と生体との間の接触可能性が高い場合、スピーカ24から警告音を発してもよい。
In step S12, the
(3−2.第1境界線92の設定)
図8は、第1境界線92を設定するフローチャート(図7のS7の詳細)である。ステップS21において、ヨーレートセンサ20は、車両12のヨーレートYrを検出する。ステップS22において、ECU22は、車両12が左旋回中であるか否かを、ヨーレートセンサ20が検出したヨーレートYrに基づいて判定する。例えば、左旋回中であるか否かを判定するためのヨーレートYrの閾値(左旋回判定閾値)を設定しておき、検出したヨーレートYrが左旋回判定閾値を超えるか否かを判定する。(3-2. Setting of the first boundary line 92)
FIG. 8 is a flowchart (details of S7 in FIG. 7) for setting the
車両12が左旋回中でない場合(S22:NO)、ステップS24に進む。車両12が左旋回中である場合(S22:YES)、ステップS23において、ECU22は、各第1境界線92を左にシフトさせる。これにより、車両12の正面付近に生体が存在する場合でも、MID28の右側のサブ領域100Rに生体アイコンが表示される場合が生じる。また、車両12の左前方に生体が存在する場合でも、MID28の中央のサブ領域100Cに生体アイコンが表示される場合が生じる。さらに、車両12の右前方に生体が存在する場合でも、MID28には生体アイコンが表示されない場合が生じる。これらの結果、車両12の進行方向(左方向)に合わせてMID28の表示を行うことが可能となる。
If the
ステップS24において、ECU22は、車両12が右旋回中であるか否かを、ヨーレートセンサ20が検出したヨーレートYrに基づいて判定する。例えば、右旋回中であるか否かを判定するためのヨーレートYrの閾値(右旋回判定閾値)を設定しておき、検出したヨーレートYrが右旋回判定閾値を超えるか否かを判定する。
In step S24, the
車両12が右旋回中でない場合(S24:NO)、今回の処理を終える。車両12が右旋回中である場合(S24:YES)、ステップS25において、ECU22は、各第1境界線92を右にシフトさせる。これにより、車両12の正面付近に生体が存在する場合でも、MID28の左側のサブ領域100Lに生体アイコンが表示される場合が生じる。また、車両12の右前方に生体が存在する場合でも、MID28の中央のサブ領域100Cに生体アイコンが表示される場合が生じる。さらに、車両12の左前方に生体が存在する場合でも、MID28には生体アイコンが表示されない場合が生じる。これらの結果、車両12の進行方向(右方向)に合わせてMID28の表示を行うことが可能となる。
If the
(3−3.生体対応部分74が属する第1サブ領域90の特定)
(3−3−1.生体対応部分74が属する第1サブ領域90の特定の考え方)
図9及び図10は、生体対応部分74が属する第1サブ領域90(第1生体存在サブ領域)の特定方法を説明する図である。すなわち、図9は、生体としての動物110の顔向きXが外向き{車両12の進行方向の中心線Ax(例えば、カメラ16Lの光軸)とは反対に向かう方向}である場合の車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。図10は、動物110の顔向きXが内向き(中心線Axに向かう方向)である場合における車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。図9及び図10において、αは、赤外線カメラ16Lの映像画角を示す(その他の図においても同じである。)。(3-3. Identification of the first sub-region 90 to which the living
(3-3-1. Specific concept of the first sub-region 90 to which the living
9 and 10 are diagrams for explaining a method for specifying the first sub-region 90 (first biological presence sub-region) to which the living
図9に示すように、監視対象物としての動物110の顔向きXが外向きであり且つ動物110(生体対応部分74)が第1境界線92L上にある場合、MID28に表示する動物アイコン88は、1箇所のみとする。一方、図10に示すように、動物110の顔向きXが内向きであり且つ動物110(生体対応部分74)が第1境界線92L上にある場合、MID28に表示する動物アイコン88は、2箇所とする。これにより、動物110の顔向きXが内向きであり且つ動物110(生体対応部分74)が第1境界線92L上にあるとき、運転者に動物110を強調して通知することが可能となる。後述するように、動物アイコン88を複数箇所表示する代わりに又はこれに加えて、動物アイコン88の表示色を変化させることもできる。ヒトの子供の場合も同様である。
As shown in FIG. 9, when the face direction X of the
(3−3−2.生体対応部分74が属する第1サブ領域90の特定処理)
図11は、生体対応部分74が属する第1サブ領域90(第1生体存在サブ領域)を特定するフローチャート(図7のS9の詳細)である。ステップS31において、ECU22は、図7のステップS5で判定した生体の種類が、動物110又はヒトの子供であるか否かを判定する。動物110及びヒトの子供でない場合、すなわち、ヒトの大人又はその他の生体である場合(S31:NO)、ステップS34に進む。動物110又はヒトの子供である場合(S31:YES)、ステップS32において、ECU22は、生体(動物110又はヒトの子供)の顔向きXを検出する。(3-3-2. Specifying process of first sub-region 90 to which biometric
FIG. 11 is a flowchart (details of S9 in FIG. 7) for specifying the first sub-region 90 (first biological presence sub-region) to which the living
ステップS33において、ECU22は、生体の顔が内向きであるか否かを判定する。顔が内向きでない場合(S33:NO)、ステップS34において、ECU22は、生体対応部分74が第1境界線92上にあるか否かを判定する。生体対応部分74が第1境界線92上にない場合(S34:NO)、ステップS35において、ECU22は、生体対応部分74が存在する第1サブ領域90を選択する。生体対応部分74が第1境界線92上にある場合(S34:YES)、ステップS36において、ECU22は、中央のサブ領域90Cを第1生体存在サブ領域として選択する。
In step S33, the
ステップS33において顔が内向きである場合(S33:YES)、ステップS37において、ECU22は、生体対応部分74が第1境界線92上にあるか否かを判定する。
When the face is inward in step S33 (S33: YES), in step S37, the
生体対応部分74が第1境界線92上にない場合(S37:NO)、ステップS35において、ECU22は、生体対応部分74が存在する第1サブ領域90を選択する。生体対応部分74が第1境界線92上にある場合(S37:YES)、ステップS38において、ECU22は、2つの第1サブ領域90を第1生体存在サブ領域として選択する。例えば、生体対応部分74が左側の第1境界線92L上にある場合、ECU22は、中央のサブ領域90C及び左側のサブ領域90Lを選択する。生体対応部分74が右側の第1境界線92R上にある場合、ECU22は、中央の第1サブ領域90C及び右側の第1サブ領域90Rを選択する。
When the biological
そして、上記のように、ECU22は、選択された第1サブ領域90に対応する第2サブ領域100に生体アイコン(動物アイコン88等)を表示する(図7のS12及び図10)。
Then, as described above, the
[4.本実施形態の効果]
以上のように、本実施形態によれば、MID28上の生体アイコンの表示を、生体の顔向きXに応じて変化させる(図11のS33等参照)。顔向きXは、生体の進行方向を示す可能性が高いため、本実施形態によれば、生体の進行方向を考慮した注意喚起を行うことが可能となる。従って、ユーザに対して適切な注意喚起を行うことが可能となる。[4. Effects of this embodiment]
As described above, according to the present embodiment, the display of the biometric icon on the
本実施形態では、動物110又はヒトの子供に対応する生体対応部分74が第1境界線92上に存在し、動物110又はヒトの子供の顔が内側を向いている場合(図11のS31:YES→S33:YES→S37:YES)、当該境界線92を挟んで隣り合う第1サブ領域90に対応させて複数の生体アイコンを同時にMID28に表示する(S38及び図10)。本実施形態によれば、第1境界線92上に存在する生体については、顔が内向きの場合、境界線92を挟んで隣り合う第1サブ領域90に対応させて複数の生体アイコンを同時に表示する。このため、生体の顔向きXに応じて生体の存在を強調表示し、ユーザに対して適切な注意喚起を行うことが可能となる。
In the present embodiment, the living
B.変形例
なお、この発明は、上記実施形態に限らず、この明細書の記載内容に基づき、種々の構成を採り得ることはもちろんである。例えば、以下の構成を採用することができる。B. Modifications It should be noted that the present invention is not limited to the above-described embodiment, and it is needless to say that various configurations can be adopted based on the contents described in this specification. For example, the following configuration can be adopted.
[1.搭載対象]
上記実施形態において、車両12は、四輪車を前提としていたが(図2参照)、車両周辺監視装置10を搭載する車両12は、これに限らない。例えば、二輪車(自転車を含む。)、三輪車又は六輪車にも搭載することが可能である。[1. Installation target]
In the above embodiment, the
上記実施形態において、監視装置10を車両12に搭載したが、周辺の監視対象物を検知し、これをユーザに報知するものであれば、別の移動体にも搭載することができる。当該移動体として、例えば、船舶及び航空機を挙げることができる。
In the above-described embodiment, the
[2.撮像装置]
上記実施形態では、車両12の周囲を撮像する撮像装置として、2つの赤外線カメラ16L、16Rを用いたが、車両12の周囲を撮像することができるものであれば、これに限らない。例えば、撮像装置は、複眼(ステレオカメラ)であっても単眼(1つのカメラ)であってもよい。また、赤外線カメラに代替して、主に可視光領域の波長を有する光を利用するカメラ(カラーカメラ)を用いてもよく、あるいは両方を併せ備えてもよい。[2. Imaging device]
In the above-described embodiment, the two
[3.汎用モニタ26(第1表示部)及びMID28(第2表示部)]
上記実施形態では、赤外線カメラ16Lからのグレースケール画像72を表示するものとして汎用モニタ26を用いたが、撮像手段が撮像した画像を表示するものであれば、これに限らない。また、上記実施形態では、汎用モニタ26に表示するグレースケール画像72に強調枠76を表示させたが、強調表示を付することなく、カメラ16Lからのグレースケール画像72をそのまま汎用モニタ26に表示してもよい。[3. General-purpose monitor 26 (first display unit) and MID 28 (second display unit)]
In the above embodiment, the general-
上記実施形態では、生体アイコン(マーク)を表示するものとして、ノンインタレース方式で動作する比較的汎用性のある表示装置をMID28として用いたが、これに限らず、生体アイコンのみを表示するインジケータを複数(例えば3つ)並べたものをMID28の代わりに用いることもできる。或いは、JP 2004−364112 Aの図2に示すようなヘッドアップディスプレイ(HUD)をMID28の代わりに用いることも可能である。
In the above embodiment, a relatively versatile display device that operates in a non-interlaced manner is used as the
上記実施形態では、汎用モニタ26とMID28の両方を用いたが、MID28のみを用いる構成も可能である。この場合、カメラ16Lで取得したグレースケール画像72は、MID28に表示するために用いられる。
In the above embodiment, both the general-
[4.生体アイコンの表示]
(4−1.第1サブ領域90及び第2サブ領域100)
上記実施形態では、第1サブ領域90及び第2サブ領域100をそれぞれ3箇所としたが、第1サブ領域90及び第2サブ領域100は複数であれば、これに限らない。例えば、第1サブ領域90及び第2サブ領域100をそれぞれ2箇所又は4箇所以上とすることが可能である。[4. Display of biological icon]
(4-1. First sub-region 90 and second sub-region 100)
In the above embodiment, the number of the first sub-region 90 and the number of the second sub-region 100 is three. For example, the first sub-region 90 and the second sub-region 100 can be two or four or more, respectively.
上記実施形態では、第1サブ領域90及び第2サブ領域100を横方向(車幅方向)で分割したが、分割方向又は分割領域は、これに限らない。例えば、第1サブ領域90及び第2サブ領域100を縦方向(進行方向)で分割することもできる。或いは、境界線92、102は、MID28の道路アイコン84のように、車線に沿う形(上に行く程、狭まる形状)とした場合、第1サブ領域90及び第2サブ領域100をこれらの境界線92、102に合わせた形状で分割してもよい。
In the said embodiment, although the 1st sub area | region 90 and the 2nd sub area | region 100 were divided | segmented by the horizontal direction (vehicle width direction), a division direction or a division area is not restricted to this. For example, the first sub-region 90 and the second sub-region 100 can be divided in the vertical direction (traveling direction). Alternatively, when the
(4−2.生体アイコンの強調表示)
(4−2−1.強調表示に関する基本的な考え方)
上記実施形態では、生体アイコン(動物アイコン88等)を2箇所に表示する条件として、生体が動物110又はヒトの子供であり(図11のS31:YES)、生体の顔向きXが内向きであり(S33:YES)且つ生体対応部分74が第1境界線92上にあること(S37:YES)を条件としたが、例えば、監視対象物としての生体の動きが予測困難である場合(換言すると、生体に理性的な動きを期待できない場合又は飛出しの危険が比較的高い場合)に強調表示する観点からすれば、強調表示の条件は、これに限らない。(4-2. Biometric icon highlighting)
(4-2-1. Basic concept of highlighting)
In the above embodiment, as a condition for displaying the biological icon (
また、上記実施形態では、生体アイコンの強調表示として、生体アイコンを2箇所で同時に表示したが(図10)、強調表示の方法は、これに限らない。 Moreover, in the said embodiment, although the biometric icon was simultaneously displayed in two places as an emphasis display of a biometric icon (FIG. 10), the highlighting method is not restricted to this.
上記実施形態では、動きを予測困難な生体(換言すると、生体に理性的な動きを期待できない生体又は飛出しの危険が比較的高い生体)として、動物110及びヒトの子供の両方を想定していたが(図11のS31)、動物110及びヒトの子供の一方のみでもよい。或いは、その他の生体(例えば、動物110をさらに細分化した主体)を設定してもよい。
In the above embodiment, both the
(4−2−2.生体アイコンの強調表示の第1変形例)
図12及び図13は、生体アイコンの強調表示の第1変形例を説明する図である。すなわち、図12は、強調表示の第1変形例において、生体としての動物110の顔向きXが外向き(中心線Axとは反対に向かう方向)である場合の車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。図13は、強調表示の第1変形例において、動物110の顔向きXが内向き(中心線Axに向かう方向)である場合における車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。(4-2-2. First Modification of Biometric Icon Highlighting Display)
12 and 13 are diagrams illustrating a first modified example of the highlight display of the biometric icon. That is, FIG. 12 shows the positional relationship between the
図12に示すように、動物110の顔向きXが外向きであり且つ動物110(生体対応部分74)が第1境界線92L上にある場合、MID28に表示する動物アイコン88は、通常警戒色(例えば、黄色)とする。一方、図13に示すように、動物110の顔向きXが内向きであり且つ動物110(生体対応部分74)が第1境界線92L上にある場合、MID28に表示する動物アイコン88は、通常の警戒色よりもさらなる注意喚起を促すための特別警戒色(例えば、赤色)とする。これにより、動物110の顔向きXが内向きであり且つ動物110(生体対応部分74)が第1境界線92L上にある場合、運転者に動物110を強調して通知することが可能となる。ヒトの子供の場合も同様である。
As shown in FIG. 12, when the face direction X of the
図14は、強調表示の第1変形例において、生体対応部分74が属する汎用モニタ26のサブ領域90を特定するフローチャート(図11の第1変形例)である。図15は、強調表示の第1変形例において、生体アイコンの表示色を設定するフローチャート(図7のS11の詳細の第1変形例)である。
FIG. 14 is a flowchart for identifying the sub-region 90 of the general-
図14のステップS41〜S43は、図11のステップS34〜S36と同様である。従って、図14の処理は、図11と比べて簡略化され、強調表示としての処理も存在しない。その代わりに、図15の処理により、強調表示としての生体アイコンの表示色の切替えが行われる。 Steps S41 to S43 in FIG. 14 are the same as steps S34 to S36 in FIG. Therefore, the process of FIG. 14 is simplified as compared with FIG. 11, and there is no process for highlighting. Instead, the display color of the biometric icon as highlighted is switched by the process of FIG.
図15のステップS51〜S53は、図11のステップS31〜S33と同様である。すなわち、図15のステップS51において、ECU22は、図7のステップS5で判定した生体の種類が、動物110又はヒトの子供であるか否かを判定する。動物110及びヒトの子供でない場合、すなわち、ヒトの大人又はその他の生体である場合(S51:NO)、ステップS54に進む。動物110又はヒトの子供である場合(S51:YES)、ステップS52において、ECU22は、生体(動物110又はヒトの子供)の顔向きXを検出する。
Steps S51 to S53 in FIG. 15 are the same as steps S31 to S33 in FIG. That is, in step S51 in FIG. 15, the
ステップS53において、ECU22は、生体の顔が内向きであるか否かを判定する。顔が内向きでない場合(S53:NO)、ステップS54において、ECU22は、生体アイコンの表示色を通常警戒色(例えば、黄色)に設定する。顔が内向きである場合(S53:YES)、ステップS55において、ECU22は、生体アイコンの表示色を特別警戒色(例えば、赤色)に設定する。
In step S53, the
(4−2−3.生体アイコンの強調表示の第2変形例)
図16は、生体アイコンの強調表示の第2変形例を説明する図である。すなわち、図16は、強調表示の第2変形例における車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。(4-2-3. Second Modification of Biometric Icon Highlighting Display)
FIG. 16 is a diagram for explaining a second modification of the highlighting display of the biometric icon. That is, FIG. 16 is a diagram illustrating a positional relationship between the
図16に示すように、強調表示の第2変形例では、抽出された生体対応部分74が動物110又はヒトの子供に対応する場合、MID28に表示する生体アイコン(動物アイコン88等)は、特別警戒色(例えば、赤色)とする。一方、図示していないが、抽出された生体対応部分74が動物110及びヒトの子供以外に対応する場合、MID28に表示する生体アイコン(ヒトアイコン86)は、通常警戒色(例えば、黄色)とする。これにより、運転者に動物110又はヒトの子供を強調して通知することが可能となる。
As shown in FIG. 16, in the second modified example of highlighting, when the extracted biological
図17は、強調表示の第2変形例において、生体アイコンの表示色を設定するフローチャート(図7のS11の詳細の第2変形例)である。図17のステップS61〜S63は、図15のステップS51、S54、S55と同様である。 FIG. 17 is a flowchart for setting the display color of the biometric icon in the second modified example of highlighting (second modified example of the details of S11 in FIG. 7). Steps S61 to S63 in FIG. 17 are the same as steps S51, S54, and S55 in FIG.
すなわち、ステップS61において、ECU22は、図7のステップS5で判定した生体の種類が、動物110又はヒトの子供であるか否かを判定する。動物110及びヒトの子供でない場合、すなわち、ヒトの大人又はその他の生体である場合(S61:NO)、ステップS62において、ECU22は、生体アイコンの表示色として通常警戒色(例えば、黄色)を設定する。動物110又はヒトの子供である(S61:YES)、ステップS63において、ECU22は、生体アイコンの表示色として特別警戒色(例えば、赤色)を設定する。なお、生体アイコンを表示する第2サブ領域100は、例えば、図14のフローチャートを用いて判定する。
That is, in step S61, the
(4−2−4.生体アイコンの強調表示の第3変形例)
図18は、生体アイコンの強調表示の第3変形例を説明する図である。すなわち、図18は、強調表示の第3変形例における車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。(4-2-4. Third Modified Example of Biometric Icon Highlighting Display)
FIG. 18 is a diagram for explaining a third modification of the highlight display of the biometric icon. That is, FIG. 18 is a diagram illustrating a positional relationship between the
図18に示すように、強調表示の第3変形例では、動物110(生体対応部分74)が左側の第1サブ領域90Lにいる場合、MID28の動物アイコン88は、動物110の現在位置に対応する左側の第2サブ領域100Lとその隣りの中央の第2サブ領域100Cに表示する。換言すると、生体が動物110であれば、生体が境界線92上にいなくても、生体アイコンを複数箇所で表示する。これにより、運転者に動物110を強調して通知することが可能となる。ヒトの子供の場合も同様である。
As shown in FIG. 18, in the third modified example of highlighting, when the animal 110 (biological corresponding part 74) is in the left
図19は、強調表示の第2変形例において、生体対応部分74が属する汎用モニタ26のサブ領域90を特定するフローチャート(図11の第2変形例)である。
FIG. 19 is a flowchart (second modified example of FIG. 11) for specifying the sub-region 90 of the general-
図19のステップS71〜S75は、図11のステップS31、S34〜S36、S38と同様である。すなわち、図17の処理は、図11のステップS32、S33、S37が省略され、生体が動物110又はヒトの子供である場合(S71:YES)、当該生体に対応する生体対応部分74が属する第1サブ領域90及びこれと隣り合う第1サブ領域90の両方を第1生体存在サブ領域とし、これらに対応する第2生体存在サブ領域に生体アイコンを表示する。従って、生体が動物110又はヒトの子供であるか否かのみによって、生体アイコンの強調表示をするか否かを決定している。
Steps S71 to S75 in FIG. 19 are the same as steps S31, S34 to S36, and S38 in FIG. That is, in the process of FIG. 17, when steps S32, S33, and S37 of FIG. 11 are omitted and the living body is an
例えば、当該生体に対応する生体対応部分74が左側の第1サブ領域90Lに属する場合、左側及び中央の第2サブ領域100L、100Cに生体アイコンを表示する。また、当該生体に対応する生体対応部分74が第1境界線92L上にある場合、左側及び中央の第2サブ領域100L、100Cに生体アイコンを表示する。さらに、当該生体に対応する生体対応部分74が中央の第1サブ領域90Cに属する場合、例えば、全ての第2サブ領域100L、100C、100Rに生体アイコンを表示する。
For example, when the biological
強調表示の第3変形例によれば、生体が属する第1サブ領域90と当該サブ領域90と隣り合う第1サブ領域90とに生体アイコンを表示する。これにより、生体の存在をより強く注意喚起することが可能となる。このため、ユーザに対して適切な注意喚起を行うことが可能となる。 According to the third modified example of the highlight display, the biological icon is displayed in the first sub-region 90 to which the living body belongs and the first sub-region 90 adjacent to the sub-region 90. Thereby, it becomes possible to alert the presence of a living body more strongly. For this reason, it becomes possible to alert the user appropriately.
(4−2−5.生体アイコンの強調表示の第4変形例)
図20は、生体アイコンの強調表示の第4変形例を説明する図である。すなわち、図20は、強調表示の第4変形例における車両12と動物110の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。(4-2-5. Fourth Modified Example of Biometric Icon Highlighting Display)
FIG. 20 is a diagram for explaining a fourth modification of the highlight display of the biometric icon. That is, FIG. 20 is a diagram illustrating a positional relationship between the
図20に示すように、強調表示の第4変形例では、抽出された生体対応部分74が動物110に対応し且つ動物110の顔向きXが右向きである場合、MID28に表示する動物アイコン88は、動物110の現在位置に対応する中央の第2サブ領域100Cと顔向きXに対応する右側の第2サブ領域100Rとに表示する。これにより、運転者に動物110の進行方向を強調して通知することが可能となる。ヒトの子供の場合も同様である。
As shown in FIG. 20, in the fourth modified example of highlighting, when the extracted biological
図21は、強調表示の第4変形例において、生体対応部分74が属する汎用モニタ26のサブ領域90を特定するフローチャート(図11の第3変形例)である。図21のステップS81〜S86は、図11のステップS31、S34〜S36、S32、S38と同様である。すなわち、図21では、図11のステップS33、S37が省略されている。換言すると、図21では、動物110の顔が内向きであるか否かにかかわらず、顔向きXに応じて2つの第1サブ領域90を選択する。なお、動物110に対応する生体対応部分74が境界線92上にある場合、当該境界線92を挟む2つの第1サブ領域90を選択する。ヒトの子供の場合も同様である。
FIG. 21 is a flowchart (third modified example of FIG. 11) for specifying the sub-region 90 of the general-
(4−2−6.生体アイコンの強調表示の第5変形例)
図22及び図23は、生体アイコンの強調表示の第5変形例を説明する図である。すなわち、図22は、強調表示の第5変形例において、動物110及びヒトの大人112に対応する生体対応部分74それぞれが中央の第1サブ領域90Cに属する場合の車両12、動物110及びヒトの大人112の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。(4-2-6. Fifth Modification of Biometric Icon Highlighting Display)
22 and 23 are diagrams illustrating a fifth modified example of the highlight display of the biometric icon. That is, FIG. 22 shows the fifth modified example of the highlight, in which the living
図22に示すように、監視対象物としての動物110及びヒトの大人112に対応する生体対応部分74それぞれが中央の第1サブ領域90Cに属する場合、MID28では、中央の第2サブ領域100Cにヒトアイコン86のみを表示する。すなわち、動物110よりもヒトの大人112を優先してアイコン表示する。
As shown in FIG. 22, when each of the living
図23は、強調表示の第5変形例において、動物110に対応する生体対応部分74が左側の第1サブ領域90Lに属し、ヒトの子供114に対応する生体対応部分74が右側の第1サブ領域90Rに属する場合における車両12、動物110及びヒトの子供114の位置関係、汎用モニタ26のグレースケール画像72の一例及びMID28のアイコン画像82の一例を示す図である。
23, in the fifth modified example of highlighting, the living
図23に示すように、動物110に対応する生体対応部分74が左側の第1サブ領域90に属し、監視対象物としてのヒトの子供114に対応する生体対応部分74が右側の第1サブ領域90に属する場合、MID28では、ヒトアイコン86のみを強調表示し、動物アイコン88は強調表示しない。換言すると、ヒトの子供114についてのみ強調表示を行い、動物110については強調表示を行わない。
As shown in FIG. 23, the living
図24は、強調表示の第5変形例において、生体対応部分74が属する汎用モニタ26のサブ領域90を特定するフローチャート(図11の第4変形例)である。強調表示の第5変形例では、生体が複数存在する場合に好適に用いることができる。
FIG. 24 is a flowchart (fourth modified example of FIG. 11) for specifying the sub-region 90 of the general-
図24のステップS91において、ECU22は、車両12の進行方向に生体が複数存在するか否かを判定する。当該判定は、例えば、図7のステップS4で抽出された生体対応部分74が複数存在するか否かを判定することにより行う。車両12の進行方向に生体が複数存在しない場合(S91:NO)、ステップS92において、ECU22は、生体が1つである場合の処理(以下「単体用処理」という。)を実行する。単体用処理としては、例えば、図11のステップS31〜S38を実行することができる。或いは、上記強調表示の第1変形例(図14及び図15の処理)、第2変形例(図17の処理)、第3変形例(図19の処理)又は第4変形例(図21の処理)を行ってもよい。
In step S91 of FIG. 24, the
車両12の進行方向に生体が複数存在する場合(S91:YES)、ステップS93において、ECU22は、車両12の進行方向にヒト(大人112又は子供114)が存在するか否かを判定する。
When there are a plurality of living bodies in the traveling direction of the vehicle 12 (S91: YES), in step S93, the
車両12の進行方向にヒト(大人112又は子供114)が存在しない場合(S93:NO)、ステップS94において、ECU22は、動物110のみが複数存在する際の動物110用の処理(以下「動物用第1処理」という。)を実行する。動物用第1処理は、動物110(動物アイコン88)についても強調表示を行うものであり、例えば、図11のステップS32〜S38を動物110それぞれについて実行する。
When there is no human (
車両12の進行方向にヒト(大人112又は子供114)が存在する場合(S93:YES)、ステップS95において、ECU22は、車両12の進行方向に動物110が存在するか否かを判定する。動物110が存在する場合(S95:YES)、ステップS96において、ECU22は、動物110とヒトの大人112又は子供114の少なくとも一方とが存在する際の動物110用の処理(以下「動物用第2処理」という。)を実行する。動物用第2処理は、ヒトの表示を優先するため、動物110(動物アイコン88)については強調表示を行わないものであり、例えば、図11のステップS34〜S36を動物110それぞれについて実行する。
When a human (
ステップS95において車両12の進行方向に動物110が存在しない場合(S95:NO)又はステップS96の後、ステップS97において、ECU22は、動物110とヒトの大人112又は子供114の少なくとも一方とが存在する際のヒト用の処理(以下「ヒト用処理」という。)を実行する。ヒト用処理は、動物110(動物アイコン88)よりもヒト(ヒトアイコン86)の表示を優先する処理であり、例えば、図11のステップS31〜S38をヒト(大人112及び子供114)それぞれについて実行する。
When the
なお、図22を参照して説明したように、動物110とヒト(大人112又は子供114)の生体対応部分74が同一の第1サブ領域90に属している場合、ヒトを優先する(ヒトアイコン86を優先的に表示する。)。
Note that, as described with reference to FIG. 22, when the living
(4−2−7.顔向きXの検出)
上記実施形態では、動きが予測困難な生体(換言すると、生体に理性的な動きを期待できない生体又は飛出しの危険が比較的高い生体)としての動物110又はヒトの子供114の進行方向を推定する基準として顔向きXを用いたが、動きが予測困難な生体の動きの予測に用いることが可能な基準の観点からすれば、これに限らない。例えば、動物110又はヒトの子供114の顔向きXと共に又はこれに代えて動物110又はヒトの子供114の身体の向きを用いてもよい。或いは、ヒトの大人112であっても、予測困難な動きをすることもあるため、ヒトの大人112についても顔向きX等を用いて強調表示をしてもよい。(4-2-7. Detection of face orientation X)
In the embodiment described above, the traveling direction of the
(4−2−8.その他)
上記実施形態では、生体アイコンの強調表示として、生体アイコンを2箇所で同時に表示したが(図10)、生体アイコンを2箇所で交互に表示してもよい。また、生体アイコンを2箇所で表示する代わりに、生体アイコンを表示する第2サブ領域100を、生体の顔向きXの方向にずらして1箇所のみ表示してもよい。これにより、生体の進行方向を反映する形で生体の存在を注意喚起することが可能となる。このため、ユーザに対して適切な注意喚起を行うことが可能となる。(4-2-8. Others)
In the above embodiment, the biometric icon is displayed at two locations simultaneously as the highlighting of the biometric icon (FIG. 10), but the biometric icons may be alternately displayed at two locations. Instead of displaying the biometric icon at two locations, the second sub-region 100 displaying the biometric icon may be shifted in the direction of the face X of the biometric and displayed at only one location. This makes it possible to alert the presence of the living body in a manner that reflects the traveling direction of the living body. For this reason, it becomes possible to alert the user appropriately.
上記実施形態では、動物110又はヒトの子供114のいずれかが第1サブ領域90のいずれに存在する場合でも同一の強調表示(2箇所のアイコン表示)を行う可能性があったが(図11のS31〜S33、S37、S38)、動物110又はヒトの子供114のいずれかが属する第1サブ領域90が、左右の第1サブ領域90L、90Rか又は中央の第1サブ領域90Cであるか否かに応じて強調表示の種類を変更してもよい。例えば、動物110又はヒトの子供114のいずれかが左右の第1サブ領域90L、90Rに属する場合、2箇所のアイコン表示を行い、中央の第1サブ領域90Cに属する場合、表示色の変更を行ってもよい。
In the above embodiment, there is a possibility that the same emphasis display (two icon display) is performed even when either the
Claims (3)
前記撮像信号が表す画像(72)を表示する第1表示部(26)と、
前記第1表示部(26)に表示される前記画像(72)を構成する複数のサブ領域(90C、90L、90R)にそれぞれ対応付けられた各マーク(86、88)の表示の有無によって、前記画像(72)の前記各サブ領域(90C、90L、90R)内における前記監視対象物の存否情報を可視化する第2表示部(28)と
を備え、
前記生体(110、112、114)の顔向き及び身体の向きの少なくとも一方に応じて前記マーク(86、88)の表示を変化させ、
前記複数のサブ領域(90C、90L、90R)の境界線(92L、92R)上に存在する前記生体(110、112、114)について、前記生体(110、112、114)の顔向き又は身体の向きが前記車両(12)の進行方向の中心線と交差する方向である場合、当該境界線(92L、92R)を挟んで隣り合う前記サブ領域(90C、90L、90R)に対応させて複数の前記マーク(86、88)を同時に又は交互に前記第2表示部(28)に表示する
ことを特徴とする車両周辺監視装置(10)。A vehicle that detects a living body (110, 112, 114) as a monitoring object around the vehicle (12) based on an imaging signal output from an imaging device (16L, 16R) mounted on the vehicle (12). A peripheral monitoring device (10),
A first display unit (26) for displaying an image (72) represented by the imaging signal;
Depending on whether or not each mark (86, 88) associated with each of the plurality of sub-regions (90C, 90L, 90R) constituting the image (72) displayed on the first display unit (26) is displayed, A second display unit (28) for visualizing presence / absence information of the monitoring object in each of the sub-regions (90C, 90L, 90R) of the image (72),
The display of the mark (86, 88) is changed according to at least one of the face direction and the body direction of the living body (110, 112, 114),
Regarding the living body (110, 112, 114) existing on the boundary line (92L, 92R) of the plurality of sub-regions (90C, 90L, 90R), the face direction of the living body (110, 112, 114) or the body When the direction is a direction intersecting with the center line of the traveling direction of the vehicle (12), a plurality of the sub-regions (90C, 90L, 90R) adjacent to each other with the boundary line (92L, 92R) interposed therebetween The vehicle periphery monitoring device (10), wherein the marks (86, 88) are displayed on the second display unit (28) simultaneously or alternately.
前記生体(110、112、114)が属する前記サブ領域(90C、90L、90R)と当該サブ領域(90C、90L、90R)よりも前記生体(110、112、114)の顔向き又は身体の向きの方向に存在する前記サブ領域(90C、90L、90R)との両方に前記マーク(86、88)を表示する
ことを特徴とする車両周辺監視装置(10)。A vehicle periphery monitoring device (10) according to claim 1,
The sub-region (90C, 90L, 90R) to which the living body (110, 112, 114) belongs and the face orientation or body orientation of the living body (110, 112, 114) relative to the sub-region (90C, 90L, 90R) The vehicle periphery monitoring device (10), wherein the mark (86, 88) is displayed on both of the sub-regions (90C, 90L, 90R) existing in the direction of.
前記生体(110、112、114)の顔向き又は身体の向きが前記車両(12)の進行方向の中心線と交差する方向である場合、前記マーク(86、88)の表示色を、より強い注意喚起を求める警戒色に切り替える
ことを特徴とする車両周辺監視装置(10)。The vehicle periphery monitoring device (10) according to claim 1 or 2,
When the face direction or body direction of the living body (110, 112, 114) is a direction intersecting the center line of the traveling direction of the vehicle (12), the display color of the mark (86, 88) is stronger. A vehicle periphery monitoring device (10) characterized by switching to a warning color for calling attention.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013541651A JP5604011B2 (en) | 2011-10-31 | 2012-06-01 | Vehicle periphery monitoring device |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011238601 | 2011-10-31 | ||
JP2011238601 | 2011-10-31 | ||
PCT/JP2012/064258 WO2013065348A1 (en) | 2011-10-31 | 2012-06-01 | Vehicle periphery monitoring apparatus |
JP2013541651A JP5604011B2 (en) | 2011-10-31 | 2012-06-01 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5604011B2 true JP5604011B2 (en) | 2014-10-08 |
JPWO2013065348A1 JPWO2013065348A1 (en) | 2015-04-02 |
Family
ID=48191714
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013541651A Active JP5604011B2 (en) | 2011-10-31 | 2012-06-01 | Vehicle periphery monitoring device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5604011B2 (en) |
WO (1) | WO2013065348A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017003414A (en) * | 2015-06-10 | 2017-01-05 | 株式会社Jvcケンウッド | Laser radar device and detection method |
CN106971553A (en) * | 2017-04-13 | 2017-07-21 | 合肥圣博瑞科技有限公司 | The system of electronic police Intelligent supplemental lighting |
WO2024202036A1 (en) * | 2023-03-31 | 2024-10-03 | 本田技研工業株式会社 | Risk presentation device, risk presentation method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010198578A (en) * | 2009-02-27 | 2010-09-09 | Toyota Motor Corp | Movement locus generating device |
JP2011086205A (en) * | 2009-10-16 | 2011-04-28 | Honda Motor Co Ltd | Traveling safety device for vehicle |
JP2011091549A (en) * | 2009-10-21 | 2011-05-06 | Toyota Motor Corp | Night visual range support device for vehicle |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5531734B2 (en) * | 2010-04-01 | 2014-06-25 | トヨタ自動車株式会社 | Obstacle recognition device |
-
2012
- 2012-06-01 WO PCT/JP2012/064258 patent/WO2013065348A1/en active Application Filing
- 2012-06-01 JP JP2013541651A patent/JP5604011B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010198578A (en) * | 2009-02-27 | 2010-09-09 | Toyota Motor Corp | Movement locus generating device |
JP2011086205A (en) * | 2009-10-16 | 2011-04-28 | Honda Motor Co Ltd | Traveling safety device for vehicle |
JP2011091549A (en) * | 2009-10-21 | 2011-05-06 | Toyota Motor Corp | Night visual range support device for vehicle |
Also Published As
Publication number | Publication date |
---|---|
JPWO2013065348A1 (en) | 2015-04-02 |
WO2013065348A1 (en) | 2013-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5616531B2 (en) | Vehicle periphery monitoring device | |
JP5639283B2 (en) | Vehicle periphery monitoring device | |
JP5577398B2 (en) | Vehicle periphery monitoring device | |
JP5706874B2 (en) | Vehicle periphery monitoring device | |
WO2016084149A1 (en) | Driving support device and driving support method | |
JP5907268B2 (en) | Driving assistance device | |
JP5480925B2 (en) | Vehicle periphery monitoring device | |
JP5547160B2 (en) | Vehicle periphery monitoring device | |
JP2012148710A (en) | Image display apparatus | |
JP2007310706A (en) | Vehicle periphery monitoring device | |
JP5604011B2 (en) | Vehicle periphery monitoring device | |
JP5192007B2 (en) | Vehicle periphery monitoring device | |
JP2011087037A (en) | Obstacle detection apparatus for vehicle | |
JP2011192070A (en) | Apparatus for monitoring surroundings of vehicle | |
JP5345992B2 (en) | Vehicle periphery monitoring device | |
JP5251673B2 (en) | Vehicle display device | |
JP5703192B2 (en) | Vehicle periphery monitoring device | |
JP5529097B2 (en) | Vehicle driving support device | |
JP2013095375A (en) | Vehicle surroundings monitoring device | |
JP6523801B2 (en) | Image processing apparatus and image processing method | |
JP5903003B2 (en) | Vehicle periphery monitoring device | |
JP5547159B2 (en) | Vehicle periphery monitoring device | |
JP2017005468A (en) | Image processor and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140805 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5604011 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |