JP6185135B2 - Integrated image processing system - Google Patents
Integrated image processing system Download PDFInfo
- Publication number
- JP6185135B2 JP6185135B2 JP2016198541A JP2016198541A JP6185135B2 JP 6185135 B2 JP6185135 B2 JP 6185135B2 JP 2016198541 A JP2016198541 A JP 2016198541A JP 2016198541 A JP2016198541 A JP 2016198541A JP 6185135 B2 JP6185135 B2 JP 6185135B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- vehicle
- camera module
- units
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、複数のカメラモジュールが撮像した複数の各カメラ画像を合成して車両周辺画像とし、これを車両に設けたディスプレイ等の表示手段に出力する統合画像処理システムに関する。 The present invention is directed to the vehicle periphery image camera module multiple is by combining a plurality of the cameras image captured on integrating image processing system outputs this to the display unit such as a display provided on the vehicle.
従来、自動車の前後左右に取り付けた複数のカメラモジュールが撮像したカメラ画像を合成して車両周辺画像を生成し、これを車室内に設置したディスプレイ等の表示手段に表示して、車両の全周方向を1つの画面で視認できるようにしたカメラシステムが知られている。このようなカメラシステムとしては、各カメラ画像を視点変換加工することにより、車両周辺画像を俯瞰画像として表示するものも知られている(例えば特許文献1)。 Conventionally, a vehicle peripheral image is generated by combining camera images captured by a plurality of camera modules attached to the front, rear, left, and right of an automobile, and this is displayed on a display means such as a display installed in a vehicle interior to display the entire circumference of the vehicle. There is known a camera system in which the direction can be visually recognized on one screen. As such a camera system, there is also known one that displays a vehicle peripheral image as a bird's-eye view image by subjecting each camera image to viewpoint conversion processing (for example, Patent Document 1).
また、表示手段に表示される車両周辺画像から物体認識処理により歩行や自転車等の物体を認識し、この認識物体にマーカーを付すようにした技術が知られている(例えば特許文献2)。 In addition, a technique is known in which an object such as a walk or a bicycle is recognized from a vehicle peripheral image displayed on a display unit by object recognition processing, and a marker is attached to the recognized object (for example, Patent Document 2).
従来のカメラシステムでは、各カメラモジュールが撮像した複数のカメラ画像を車両側のディスプレイ(例えばナビゲーションシステム等)の制御装置に入力する構成とし、その制御装置により、各カメラ画像の合成、俯瞰処理、物体認識処理および認識物体へのマーカー付与処理を行うようにしている。そのため、このようなカメラシステムの構築には、車両側のディスプレイの制御装置に高度な処理能力が必要となり、システムが高価となる、あるいは汎用性の低いシステムとなる。 In a conventional camera system, a plurality of camera images captured by each camera module are input to a control device of a vehicle-side display (for example, a navigation system), and the control device combines the camera images, performs an overhead view process, Object recognition processing and marker addition processing to the recognition object are performed. Therefore, in order to construct such a camera system, a high-level processing capability is required for the display control device on the vehicle side, and the system becomes expensive or a system with low versatility.
そこで、各カメラモジュールに、撮像したカメラ画像を俯瞰処理する機能、そのカメラ画像から物体認識処理により認識物体を検出する機能および当該カメラ画像の認識物体にマーカーを付する機能を設けることにより、表示手段として画像の表示機能のみを有する安価なものを用いることを可能とする安価なカメラシステムが考えられる。 Therefore, each camera module is provided with a function for performing a bird's-eye view processing of the captured camera image, a function for detecting a recognition object from the camera image by object recognition processing, and a function for attaching a marker to the recognition object of the camera image. As a means, an inexpensive camera system that can use an inexpensive device having only an image display function is conceivable.
かかる事情に鑑みてなされた本発明の目的は、高度な処理能力を有さないようなディスプレイにおいて画像表示する場合であっても、物体認識に伴う表示を行い易くするカメラシステムを安価に提供することにある。 An object of the present invention made in view of such circumstances is to provide an inexpensive camera system that facilitates display associated with object recognition even when an image is displayed on a display that does not have a high processing capability. There is.
上記課題を解決するため、本発明の統合画像処理システムは、複数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行う統合画像処理システムであって、それぞれの前記カメラモジュールに対応して設けられ、該カメラモジュールが撮像したカメラ画像から物体認識処理を行う複数の物体認識部と、それぞれ対応する前記物体認識部に接続され、前記車両に設けられた車両ネットワークを介した通信を行う複数の通信部と、を有し、それぞれの前記通信部は、当該通信部が接続された前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力し、前記複数の通信部の少なくとも一つは、前記車両ネットワークを介して他の前記通信部から前記認識物体の座標情報を取得することを特徴とする。 To solve the above problems, integrated image processing system of the present invention, form if each camera image by the camera module of the multiple is captured, integrated image processing for displaying a vehicle periphery image on the display unit in the vehicle A plurality of object recognition units that are provided corresponding to the respective camera modules and that perform object recognition processing from camera images captured by the camera modules , and are connected to the corresponding object recognition units, A plurality of communication units that perform communication via a vehicle network provided in the vehicle, and each of the communication units includes coordinate information of a recognized object recognized by the object recognition unit to which the communication unit is connected. output to the vehicle network, at least one of the plurality of communication unit, collected coordinate information of the recognition object from the other of the communication unit via the vehicle network Characterized in that it.
本発明の統合画像処理システムによれば、高度な処理能力を有さないようなディスプレイにおいて画像表示する場合であっても、物体認識に伴う表示を行い易くする統合画像処理システムを安価に提供することができる。 According to the integrated image processing system of the present invention, even when an image is displayed on a display that does not have a high level of processing capability, an integrated image processing system that facilitates display associated with object recognition is provided at low cost. be able to.
以下、本発明の一実施形態について、図面を参照して例示説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1、図2に示すように、本発明の一実施形態に係る統合画像処理システムを含むカメラシステム1は自動車等の車両2に設けられる。このカメラシステム1は、車両2の前後左右に取り付けられる4つのカメラモジュール3〜6と、車室内に設置される表示手段7とを備えている。 As shown in FIGS. 1 and 2, a camera system 1 including an integrated image processing system according to an embodiment of the present invention is provided in a vehicle 2 such as an automobile. This camera system 1 includes four camera modules 3 to 6 attached to the front, rear, left and right of the vehicle 2 and display means 7 installed in the vehicle interior.
車両2の前方端に取り付けられるフロントカメラモジュール3は、図3に示すように、レンズ部3a、撮像部3b、視点変換画像生成部3c、出力部3d、電源部3e、制御部3f、通信部3gおよび記憶部3hを備えている。同様に、車両2の右側方に取り付けられるサイドカメラモジュール4および車両2の左側方に取り付けられるサイドカメラモジュール5は、それぞれレンズ部4a,5a、撮像部4b,5b、視点変換画像生成部4c,5c、出力部4d,5d、電源部4e,5e、制御部4f,5f、通信部4g,5gおよび記憶部4h,5hを備えている。フロントカメラモジュール3と両サイドカメラモジュール4、5は基本的に同一の構成となっているので、図3においては、カメラモジュール3〜5を構成する各部にそれぞれのカメラモジュール3〜5に対応した符号を付してある。
As shown in FIG. 3, the front camera module 3 attached to the front end of the vehicle 2 includes a
一方、車両2の後方端に取り付けられるリアカメラモジュール6は、図4に示すように、レンズ部6a、撮像部6b、視点変換画像生成部6c、出力部6d、電源部6e、制御部6f、通信部6g、記憶部6hを備えるとともに画像合成部6iを備えている。ここで、画像合成部6iは制御部6f上で動作するソフトウェア処理であり、物体認識部3j〜6jのように制御部6f内に記載すべきところであるが、説明の簡素化のために別ブロックとして説明する。
On the other hand, as shown in FIG. 4, the
ところで、図面では、画像合成部を、リアカメラモジュール6にのみ記載し、フロントカメラモジュール3と両サイドカメラモジュール4、5には記載していない。しかしながら、画像合成部6iは、いずれのカメラモジュール3〜6に等しく設けられていてもよい。すなわち、後述する処理によってリアカメラモジュール6として認識したカメラモジュール、あるいは主制御部となるべきと認識されたカメラモジュールのみが画像合成部のソフトウェアをアクティブ化し、その他のカメラモジュールは画像合成部のソフトウェアをインアクティブ化するように構成されていると、各カメラモジュールの構成を同じにすることができ、全体的なコストを下げることにもつながる。
By the way, in the drawing, the image composition unit is described only in the
各カメラモジュール3〜6に設けられた電源部3e〜6eは、それぞれ車載のバッテリに接続されて当該カメラモジュール3〜6の撮像部3b〜6bや制御部3f〜6f等の各部に電力を供給する。また、各カメラモジュール3〜6に設けられた記憶部3h〜6hは、それぞれ必要に応じて撮像部3b〜6b、視点変換画像生成部3c〜6c、制御部3f〜6f、通信部3g〜6gなどの制御に必要なデータ等を格納することができる。
The
各カメラモジュール3〜6は、それぞれレンズ部3a〜6aと撮像部3b〜6bとを用いて車両周辺を撮像する。例えば、フロントカメラモジュール3はレンズ部3aと撮像部3bとを用いて車両2の前方側の周辺を所定の画角で撮像する。また、右側のサイドカメラモジュール4はレンズ部4aと撮像部4bとを用いて車両2の右側方の周辺を所定の画角で撮像し、左側のサイドカメラモジュール5はレンズ部5aと撮像部5bとを用いて車両2の左側方の周辺を所定の画角で撮像する。さらに、リアカメラモジュール6はレンズ部6aと撮像部6bとを用いて車両2の後退方向の周辺を所定の画角で撮像する。
Each camera module 3-6 images the periphery of the vehicle using
これらの撮像部3b〜6bとしては、例えばCMOSやCCD等のイメージセンサが用いられる。また、レンズ部3a〜6aとしては例えば魚眼レンズなどの画角の広いレンズが用いられる。
For example, an image sensor such as a CMOS or a CCD is used as the
図3、図4に示すように、各カメラモジュール3〜6の撮像部3b〜6bは、それぞれ視点変換画像生成部3c〜6cに接続され、撮像部3b〜6bが撮像した画像は視点変換画像生成部3c〜6cに取り込まれる。視点変換画像生成部3c〜6cは撮像部3b〜6bから取り込んだ画像の歪みを調整し、当該画像の視点を変換した俯瞰画像を生成する。
As shown in FIGS. 3 and 4, the
図2に示すように、フロントカメラモジュール3はリアカメラモジュール6に接続されている。フロントカメラモジュール3で生成された俯瞰画像は、当該カメラモジュール3が撮像したカメラ画像としてその出力部3dから出力され、リアカメラモジュール6に設けられた画像合成部6iに入力される。同様に、両サイドカメラモジュール4,5はリアカメラモジュール6に接続されている。両サイドカメラモジュール4,5で生成された俯瞰画像は、それぞれ当該カメラモジュール4,5が撮像したカメラ画像として出力部4d,5dから出力され、リアカメラモジュール6に設けられた画像合成部6iに入力される。
As shown in FIG. 2, the front camera module 3 is connected to the
画像合成部6iは、リアカメラモジュール6の視点変換画像生成部6cが生成した俯瞰画像(カメラ画像)と、他のカメラモジュール3〜5から入力される3つの俯瞰画像(カメラ画像)とを、各カメラモジュール3〜6の車両2への取付け位置に応じた配置で合成し、車両周辺画像を生成する。
The image composition unit 6i includes an overhead image (camera image) generated by the viewpoint conversion
図2に示すように、リアカメラモジュール6は表示手段7に接続されている。リアカメラモジュール6の出力部6dは、画像合成部6iが合成した車両周辺画像を表示手段7に適応したフォーマット(例えばNTSC)に変換し、表示手段7に向けて出力する。
As shown in FIG. 2, the
図5に示すように、表示手段7はリアカメラモジュール6から入力された車両周辺画像をその画面7aに表示する。つまり、表示手段7の画面7aの中心には車両モデル8が表示され、この車両モデル8の周囲の画面上側の分割範囲7a1にフロントカメラモジュール3が撮像したカメラ画像(俯瞰画像)が表示される。また、表示手段7の画面右側の分割範囲7a2と画面左側の分割範囲7a3には、それぞれサイドカメラモジュール4,5が撮像したカメラ画像(俯瞰画像)が表示される。さらに、表示手段7の画面下側の分割範囲7a4にリアカメラモジュール6が撮像したカメラ画像(俯瞰画像)が表示される。
As shown in FIG. 5, the display means 7 displays the vehicle periphery image input from the
表示手段7としては、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイ装置を用いることができる。 As the display means 7, for example, a display device such as a liquid crystal display or an organic EL display can be used.
図2に示すように、各カメラモジュール3〜6は車両2に設けられた車両ネットワーク(車載LAN)9に接続されている。この車両ネットワーク9は、例えばCAN(Controller Area Network)、FlexRay、LIN(Local Interconnect Network)等のプロトコルを用いた移動機械用バスラインとすることができる。 As shown in FIG. 2, the camera modules 3 to 6 are connected to a vehicle network (in-vehicle LAN) 9 provided in the vehicle 2. The vehicle network 9 may be a mobile machine bus line using a protocol such as CAN (Controller Area Network), FlexRay, or LIN (Local Interconnect Network).
各カメラモジュール3〜6は、それぞれ通信部3g〜6gにより車両ネットワーク9を介した通信を行うことができる。つまり、各カメラモジュール3〜6は、それぞれ通信部3g〜6gにより、車両ネットワーク9を介して他のカメラモジュール3〜6と互いに通信することができる。また、図1に示すように、車両ネットワーク9には、例えばエンジンコントロールユニット(ECU)やシフトポジションセンサ等の車両2の処理ユニット10が接続されており、各カメラモジュール3〜6は、それぞれ通信部3g〜6gにより、車両ネットワーク9を介して処理ユニット10と通信することができる。
Each camera module 3-6 can communicate via the vehicle network 9 by the communication parts 3g-6g, respectively. That is, the camera modules 3 to 6 can communicate with the other camera modules 3 to 6 via the vehicle network 9 by the communication units 3g to 6g, respectively. Further, as shown in FIG. 1, a
これらの通信部3g〜6gとしては、例えば車両ネットワーク9がCANである場合にはCANトランシーバが用いられるなど、その車両ネットワーク9のプロトコルに準拠した通信デバイスが用いられる。 As these communication units 3g to 6g, for example, when the vehicle network 9 is a CAN, a CAN transceiver is used. For example, a communication device conforming to the protocol of the vehicle network 9 is used.
各カメラモジュール3〜6に設けられる制御部3f〜6fは、それぞれCPUを備えたマイクロコンピュータ上で動作するソフトウェアの機構ブロックを抽象化したものであって、図3、図4に示すように、その機能の一つとして物体認識部3j〜6jとしての機能を備えている。物体認識部3j〜6jは、自己のカメラモジュール3〜6の撮像部3b〜6bが撮像した画像から物体認識処理を行う。つまり、物体認識部3j〜6jは、撮像部3b〜6bが撮像した画像を物体認識処理することにより、当該画像中に存在する歩行者や自転車等の所定の物体を認識することができる。物体認識部3j〜6jによる物体認識処理としては、例えばパターン認識等の物体認識技術を用いることができる。
The control units 3f to 6f provided in the camera modules 3 to 6 abstract the mechanism blocks of software that operates on a microcomputer provided with a CPU, respectively, and as shown in FIGS. One of the functions is a function as the object recognition units 3j to 6j. The object recognition units 3j to 6j perform object recognition processing from the images captured by the
各カメラモジュール3〜6の制御部3f〜6fは、それぞれ自己のカメラモジュール3〜6の撮像部3b〜6bが撮像した画像中から歩行者や自転車等の所定の物体が認識された場合には、物体認識部3j〜6jにより認識された認識物体の座標情報に基づいて、当該画像に認識物体に対するマーカーを表示する。制御部3f〜6fによる画像へのマーカーの付与は、例えば撮像部3b〜6bが撮像した画像にマーカー画像をオーバーレイ(重畳表示)する手法により行うことができる。このように、各カメラモジュール3〜6は、自己の撮像部3b〜6bが撮像した画像中に所定の物体が存在する場合には、当該物体にマーカーを付したカメラ画像を出力部3d〜6dから出力する。ところで、座標情報とは、所定の物体として認識された描画物の座標であって、魚眼レンズ(レンズ部3a〜6a)を介して撮影されるが故のディストーション成分を考慮して、各カメラモジュール3〜6において撮影した画像内における座標を各物体認識部3j〜6jが算出する。
When the control units 3f to 6f of the camera modules 3 to 6 recognize a predetermined object such as a pedestrian or a bicycle from images captured by the
したがって、図5に示すように、表示手段7の画面7aに表示される車両周辺画像中に所定の物体12が存在する場合には、車両周辺画像は各カメラモジュール3〜6のカメラ画像を合成して形成されるので、当該物体12に対するマーカー13が付された車両周辺画像が表示されることになる。車両周辺画像に当該物体12に対するマーカー13を付すことにより、車両周辺画像中に表示された所定の物体12を運転者等に認識し易くすることができる。図示する場合では、マーカー13は矩形の点線枠で表示されるが、物体12の形状や大きさに合わせて、矩形形状や円形形状など種々の形状とサイズに設定することができ、また実線等により表すこともできる。
Therefore, as shown in FIG. 5, when the
図6に示すように、分割範囲7a1と分割範囲7a2とに表示される、互いに隣接する一対のカメラ画像の双方つまり一対のカメラ画像の境界Aに所定の物体12が位置する場合には、当該物体12に対するマーカー13はこれらのカメラ画像の双方に跨って表示されることになる。この場合、マーカー13は、その一部が分割範囲7a1に表示される一方のカメラ画像に表示され、残りの一部が分割範囲7a2に表示される他方のカメラ画像に表示されることになる。そのため、各カメラ画像にマーカー13を表示させる際に、各カメラ画像に表示されるマーカー13を滑らかに繋いで1つのマーカー13として正しく表示する必要がある。
As shown in FIG. 6, when a
そのため、本発明の統合画像処理システムを含むカメラシステム1では、各カメラモジュール3〜6は、その撮像部3b〜6bが撮像した画像から認識した所定の物体12の座標情報を、通信部3g〜6gにより車両ネットワーク9に出力し、車両ネットワーク9を介して当該座標情報を各カメラモジュール3〜6の間で共有可能とする。そして、互いに隣接するカメラ画像のうちの一方のカメラ画像を出力するカメラモジュール3〜6が他方のカメラ画像を出力するカメラモジュール3〜6から車両ネットワーク9を介して認識物体の座標情報を取得し、この座標情報を利用して、他方のカメラ画像に表示されるマーカー13に滑らかに繋がるようなマーカー13を生成することができるようにしている。
Therefore, in the camera system 1 including the integrated image processing system of the present invention, each of the camera modules 3 to 6 transmits the coordinate information of the
より具体的には、図6に示すように、分割範囲7a1に表示されるフロントカメラモジュール3のカメラ画像と分割範囲7a2に表示される右側のサイドカメラモジュール4のカメラ画像との境界Aに所定の物体12が位置する場合には、以下の手順でマーカー13の表示が行われる。
More specifically, as shown in FIG. 6, a predetermined boundary A is formed between the camera image of the front camera module 3 displayed in the divided range 7a1 and the camera image of the right side camera module 4 displayed in the divided range 7a2. When the
フロントカメラモジュール3が、その撮像部3bが撮像した画像中から物体認識部3jにより所定の物体12を認識すると、その認識した物体12つまり認識物体12の当該画像中における座標情報が通信部3gにより車両ネットワーク9に出力される。同様に、右側のサイドカメラモジュール4が、その撮像部4bが撮像した画像中から物体認識部4jにより所定の物体12を認識すると、その認識物体12の当該画像中における座標情報が通信部4gにより車両ネットワーク9に出力される。これらの通信部3g,4gが出力する認識物体12の座標情報としては、例えば、認識物体12の中心位置の座標情報にその大きさの情報を付加したものとするなど、その認識物体12を囲うマーカー13を生成できる情報を含んだものとすることができる。
When the front camera module 3 recognizes the
ここで、各カメラモジュール3〜6は、車両ネットワーク9に接続されたECU等の処理ユニット10により、車両ネットワーク9の規格におけるネゴシエーションのプロトコルに準拠して、アドレス等の識別情報が割り当てられている。そして、この識別情報に基づいて各カメラモジュール3〜6の間でマスターとスレーブとの関係が設定されている。例えば、本実施形態では、図6に示す境界Aまたは境界Bに所定の物体12が位置する場合には、図7に示すように、フロントカメラモジュール3がマスターに設定され、両サイドカメラモジュール4,5がそれぞれスレーブに設定される。一方、図6に示す境界Cまたは境界Dに所定の物体12が位置する場合には、同様に図7に示すように、リアカメラモジュール6がマスターに設定され、両サイドカメラモジュール4,5がそれぞれスレーブに設定される。したがって、図6に示す境界Aに物体12が位置する場合には、フロントカメラモジュール3がマスターに設定され、右側のサイドカメラモジュール4がスレーブに設定される。フロントカメラモジュール3のカメラ画像とリアカメラモジュール6のカメラ画像とは境界を有していないので、これらのカメラモジュール3,6の間ではマスター、スレーブの関係は設定されない。
Here, each camera module 3 to 6 is assigned identification information such as an address by a
所定の物体12がフロントカメラモジュール3のカメラ画像と右側のサイドカメラモジュール4のカメラ画像との境界Aに位置する場合、つまり図8に模式的に示すフロントカメラモジュール3のカメラ画像のx1領域とサイドカメラモジュール4のカメラ画像のy1領域とに跨って物体12が位置する場合には、スレーブであるサイドカメラモジュール4は、車両ネットワーク9を介してフロントカメラモジュール3からフロントカメラモジュール3のカメラ画像における認識物体12の座標情報を取得する。そして、サイドカメラモジュール4の制御部4fは、フロントカメラモジュール3から取得した認識物体12の座標情報を利用して、つまり自己のカメラ画像における認識物体12の座標情報とフロントカメラモジュール3のカメラ画像における認識物体12の座標情報とに基づいて、自己が生成するマーカー13の位置、形状および大きさの少なくともいずれか一つを変更して、当該マーカー13がフロントカメラモジュール3により生成されるマーカー13に滑らかに繋がるようにする。このように、サイドカメラモジュール4の制御部3fは、車両ネットワーク9を介して得られるフロントカメラモジュール3が生成するマーカー13の位置、形状および大きさに合わせて自己が生成するマーカー13の位置、形状および大きさを調整する。
When the
上記では、車両周辺画像の境界Aに物体12が位置する場合について説明したが、車両周辺画像の境界Bに物体12が位置する場合においては、フロントカメラモジュール3がマスターとなり左側のサイドカメラモジュール5がスレーブとなって同様の制御が行われる。また、車両周辺画像の境界Cに物体12が位置する場合においては、リアカメラモジュール6がマスターとなり右側のサイドカメラモジュール4がスレーブとなり、また、車両周辺画像の境界Dに物体12が位置する場合においては、リアカメラモジュール6がマスターとなり左側のサイドカメラモジュール5がスレーブとなって同様の制御が行われることになる。
In the above description, the case where the
このように、所定の物体12が互いに隣接するカメラ画像の境界A〜Dに位置する場合には、一方のカメラモジュール3〜6の制御部3f〜6fが、車両ネットワーク9を介して他方のカメラモジュール3〜6から当該他のカメラモジュール3〜6の撮像部3b〜6bが撮像した画像中から認識された認識物体12の座標情報を取得し、これを利用して自己のカメラ画像にマーカー13を付する。したがって、所定の物体12が互いに隣接するカメラ画像の境界A〜Dに位置する場合であっても、この認識物体12に対して隣接するカメラ画像の双方に跨る滑らかなマーカー13を正確に付すことができる。
As described above, when the
一方、図8に模式的に示すフロントカメラモジュール3のカメラ画像のx領域内に所定の物体12が位置する場合には、フロントカメラモジュール3の制御部3fにより物体12にマーカー13が付される。同様に、所定の物体12がサイドカメラモジュール4のカメラ画像のy領域内にある場合には、サイドカメラモジュール4の制御部4fにより物体12にマーカー13が付される。
On the other hand, when the
次に、上記カメラシステム1におけるマーカー表示制御(カメラ制御方法)の一例の手順を図9に基づいて説明する。 Next, an example procedure of marker display control (camera control method) in the camera system 1 will be described with reference to FIG.
まず、各カメラモジュール3〜6の制御部3f〜6fは、車両ネットワーク9を介して車両2の処理ユニット10と通信し、車両2のギアがリバースになっているか否かを判断する(ステップS1)。ステップS1において車両2のギアがリバースであると判断された場合には、制御部3f〜6fは自己のカメラモジュール3〜6の撮像部3b〜6bから撮像した画像を取得し(ステップS2)、また車両ネットワーク9を介して車両速度やハンドル操舵角等の車両情報を取得する(ステップS3)。この場合では、車両2が後退する際にのみ、車両周辺画像内に認識された物体12にマーカー13を付すようにしているが、車両2が前進または停止中にも車両周辺画像内に認識された物体12にマーカー13を付すようにしてもよい。
First, the control units 3f to 6f of the camera modules 3 to 6 communicate with the
次いで、制御部3f〜6fは、取得した画像から物体認識処理により所定の物体12が認識されたか否かを判断する(ステップS4、認識工程)。ステップS4において画像中に認識物体12があると判断された場合には、各カメラモジュール3〜6が認識物体12の座標情報を車両ネットワーク9に出力し(ステップS5、出力工程)、これらの情報を各カメラモジュール3〜6で共有可能とする。
Next, the control units 3f to 6f determine whether or not the
次いで、制御部3f〜6fは、認識物体12が隣り合う一対のカメラ画像の境界A〜Dに位置したか否かを判断する(ステップS6)。ステップS6において、認識物体12が隣り合うカメラ画像の境界A〜Dに位置したと判断されると、これらのカメラ画像を撮像する一対のカメラモジュール3〜6の制御部3f〜6fにより各カメラ画像にマーカー13が付される。このとき、いずれか一方のカメラモジュール3〜6の制御部3f〜6fが、車両ネットワーク9を介して他のカメラモジュール3〜6のカメラ画像における認識物体12の座標情報を取得する。そして、当該制御部3f〜6fが、この座標情報を利用して、隣接するカメラ画像に表示されるマーカー13と滑らかに接続するマーカー13を自己のカメラ画像に付す(ステップS7、付加工程)。
Next, the control units 3f to 6f determine whether or not the
このように、画像中の認識物体12にマーカー13が付されると、次いで、各カメラモジュール3〜6において当該画像が視点変換画像生成部3c〜6cにより視点変換され、俯瞰画像つまりカメラ画像とされる(ステップS8)。そして、ステップS8で生成された各カメラモジュール3〜6の俯瞰画像がリアカメラモジュール6の画像合成部6iで合成されて車両周辺画像とされ(ステップS9)、リアカメラモジュール6の出力部6dから表示手段7に向けて当該画像が出力される(ステップS10)。
As described above, when the
一方、ステップS4において、認識物体12が無いと判断された場合には、画像にマーカー13が付加されることなく、ステップS8〜ステップS10の処理が行われる。
On the other hand, if it is determined in step S4 that there is no recognized
また、ステップS6において、認識物体12が隣り合うカメラ画像の境界に位置しないと判断された場合には、物体12が位置するカメラ画像を撮像するカメラモジュール3〜6により、当該カメラ画像中の認識物体12にマーカー13が付され(ステップS11)、以下ステップS8〜ステップS10の処理が行われる。
If it is determined in step S6 that the recognized
以上説明したように、上記カメラシステム1では、各カメラモジュール3〜6に撮像した画像から物体認識処理により認識物体12を検出する物体認識部3j〜6jと、撮像した画像に認識物体12に対するマーカー13を付す制御部3f〜6fとを設けるようにしている。これにより、表示手段7として例えば画像の表示機能のみしか有さないような安価なものを用いた場合であっても、物体認識処理に伴う表示を可能とするカメラシステム1を実現することができ、システム全体としてのコストを低減することができる。また、各カメラモジュール3〜6に、そのカメラ画像を俯瞰画像に変換する視点変換画像生成部3c〜6cを設けたことによっても、表示手段7として画像の表示機能のみを有する安価なものを用いることを可能として、このカメラシステム1のコストを低減することができる。
As described above, in the camera system 1, the object recognition units 3j to 6j that detect the
さらに、上記カメラシステム1では、それぞれのカメラモジュール3〜6に、その撮像部3b〜6bが撮像した画像から認識された認識物体12の座標情報を車両ネットワーク9に出力する通信部3g〜6gを設けるようにしたので、互いに隣接するカメラ画像の境界A〜Dに認識物体12が位置した場合に、これらのカメラ画像にマーカー13を付する2つのカメラモジュール3〜6が、車両ネットワーク9を介して他のカメラモジュール3〜6の画像において認識された認識物体12の座標情報を利用することを可能として、当該カメラモジュール3〜6の制御部3f〜6fに認識物体12に正確にマーカー13を付させることができる。
Furthermore, in the camera system 1, the communication units 3g to 6g for outputting the coordinate information of the
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本発明の範囲に含まれることに留意されたい。 Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention.
前記実施形態では、スレーブとなるカメラモジュール3〜6が車両ネットワーク9を介してマスターのカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付すようにしているが、これに限らない。すなわち、少なくとも1つのカメラモジュール3〜6が車両ネットワーク9を介して他のカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付す構成であればよい。例えば、隣接するカメラ画像を出力する両方のカメラモジュール3〜6が、それぞれ車両ネットワーク9を介して他のカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付す構成とすることもできる。
In the embodiment, the camera modules 3 to 6 as slaves acquire the coordinate information of the
また、いずれか一つのカメラモジュール3〜6の制御部3f〜6fを主制御部に設定し、この主制御部とされた制御部3f〜6fが車両ネットワーク9を介して他の全てのカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して全てのカメラ画像つまり車両周辺画像にマーカー13を付す構成とすることもできる。この場合、車両ネットワーク9に接続されたECU等の処理ユニット10により、車両ネットワーク9の規格におけるネゴシエーションのプロトコルに準拠して、各カメラモジュール3〜6にアドレス等の識別情報が割り当てられ、この割り当てられた識別情報に応じて、いずれか1つのカメラモジュール3〜6の制御部3f〜6fを主制御部に設定するように構成することができる。主制御部とされた制御部3f〜6fは、車両ネットワーク9を介して他のカメラモジュール3〜6の制御部3f〜6fから他のカメラ画像における認識物体12の座標情報を取得する。そして、自己のカメラ画像における認識物体12の座標情報と、他のカメラ画像における認識物体12の座標情報とに基づいて全てのカメラ画像(車両周辺画像)へのマーカー付加処理を行う。このように主制御部とされた制御部3f〜6fは車両ネットワーク9を介して他の制御部3f〜6fを統合制御して、車両周辺画像にマーカー13を付すことができる。
Further, the control units 3f to 6f of any one of the camera modules 3 to 6 are set as the main control unit, and the control units 3f to 6f, which are set as the main control unit, all other camera modules via the vehicle network 9. It is also possible to obtain the coordinate information of the
この場合においては、主制御部に設定される制御部6fつまりリアカメラモジュール6の制御部6fのみが画像中にマーカー13を付す機能のソフトウェアがアクティブ化され、他のカメラモジュール3〜5の制御部3f〜5fは、画像中にマーカー13を付す機能のソフトウェアがインアクティブ化するように構成される。また、他のカメラモジュールの制御部が主制御部に設定されたときには、その制御部のみが、画像中にマーカー13を付す機能のソフトウェアがアクティブ化され、他のカメラモジュールの制御部の当該機能のソフトウェアはインアクティブ化される。したがって、主制御部に設定した制御部により、車両ネットワーク9を介して他の制御部を統合制御する構成とした場合であっても、各カメラモジュール3〜6として同じ構成のものを用いることを可能として、このカメラシステム1の全体的なコストを低減することができる。
In this case, only the control unit 6f set as the main control unit, that is, the control unit 6f of the
さらに、前記実施形態においては、車両2に4つのカメラモジュール3〜6を設けるようにしているが、これに限らず、車両2の周辺を撮像することができれば、カメラモジュール3〜6の数は任意に設定することができる。 Furthermore, in the said embodiment, although the four camera modules 3-6 are provided in the vehicle 2, if not only this but the periphery of the vehicle 2 can be imaged, the number of the camera modules 3-6 will be. It can be set arbitrarily.
さらに、前記実施形態においては、撮像部3b〜6bが撮像した画像にマーカー13を付し、マーカー13が付された画像を表示手段7に出力するようにしているが、これに限らず、カメラ画像とは別に生成したマーカー画像を、車両ネットワーク9を介して表示手段7に入力し、表示手段7においてカメラ画像にマーカー画像を重畳表示させるようにしてもよい。
Furthermore, in the said embodiment, although the
さらに、前記実施形態では、各カメラモジュール3〜6に視点変換画像生成部3c〜6cを設け、撮像部3b〜6bが撮像した画像を視点変換画像生成部3c〜6cにより俯瞰画像に加工してから表示手段7に出力するようにしているが、これに限らず、撮像部3b〜6bが撮像した画像をそのまま表示手段7に出力するようにしてもよい。また、視点変換画像生成部3c〜6cをリアカメラモジュール6にのみ設けて画像合成部6iが合成した画像を一括して俯瞰画像に加工するようにしてもよい。また、視点変換画像生成部3c〜6cを表示手段7に設けて表示手段7において各カメラ画像または車両周辺画像を俯瞰画像に加工するようにしてもよい。
Furthermore, in the said embodiment, the viewpoint conversion
さらに、前記実施形態においては、フロントカメラモジュール3と両サイドカメラモジュール4,5とをリアカメラモジュール6に接続し、リアカメラモジュール6に設けた画像合成部6iおいて各カメラモジュール3〜6が撮像したカメラ画像を合成し、表示手段7に出力するようにしているが、これに限らず、全てのカメラモジュール3〜6を表示手段7に直接接続する構成としてもよい。この場合、リアカメラモジュール6を、図3に示す他のカメラモジュール3〜5と同様の構成として、このカメラモジュール3〜6の汎用性を高めることができる。
Further, in the above embodiment, the front camera module 3 and the both
さらに、前記実施の形態においては、各カメラモジュール3〜6は、通信部3g〜6gにより、自己の撮像部3b〜6bが撮像した画像から認識した認識物体12の座標情報を車両ネットワーク9に出力するが、認識物体12の座標情報に加えて、認識物体12の移動ベクトル情報や各カメラモジュール3〜6の制御部3f〜6fが生成したマーカー13の座標情報の少なくともいずれか一つをさらに車両ネットワーク9に出力するようにしてもよい。この場合、スレーブのカメラモジュール3〜6は、車両ネットワーク9を介して取得したマスターのカメラモジュール3〜6からの認識物体12の座標情報に加えて、認識物体12の移動ベクトル情報や各カメラモジュール3〜6の制御部3f〜6fが生成したマーカー13の座標情報を利用して、自己のマーカー13を生成することができる。これにより、制御部3f〜6fにより、より正確にマーカー13を表示することができる。マーカー13の座標情報としては、例えばマーカー13が矩形の場合には、カメラ画像中におけるマーカー13の基準位置の座標情報および各辺の長さおよび方向等の情報、マーカー13が円形の場合には、その中心位置の座標情報およびその半径寸法の情報とするなど、マーカー13を生成することができる座標情報を含むようにすることができる。
Furthermore, in the said embodiment, each camera module 3-6 outputs the coordinate information of the
さらに、前記実施形態では、車両周辺画像において隣り合う一対のカメラ画像が境界A〜Dを境に接している場合を示しているが、隣り合うカメラ画像の双方に物体12が位置するように表示することができれば、隣り合うカメラ画像の間に隙間があってもよい。
Furthermore, in the said embodiment, although the case where a pair of adjacent camera images in a vehicle periphery image touches boundary A-D is shown, it displays so that the
1 カメラシステム
2 車両
3 フロントカメラモジュール
4,5 サイドカメラモジュール
6 リアカメラモジュール
3a〜6a レンズ部
3b〜6b 撮像部
3c〜6c 視点変換画像生成部
3d〜6d 出力部
3e〜6e 電源部
3f〜6f 制御部
3g〜6g 通信部
3h〜6h 記憶部
6i 画像合成部
3j〜6j 物体認識部
7 表示手段
7a 画面
7a1〜7a4 分割範囲
8 車両モデル
9 車両ネットワーク
10 処理ユニット
11 物体認識部
12 物体
13 マーカー
A〜D 境界
x,x1 領域
y,y1 領域
DESCRIPTION OF SYMBOLS 1 Camera system 2 Vehicle 3
Claims (1)
それぞれの前記カメラモジュールに対応して設けられ、該カメラモジュールが撮像したカメラ画像から物体認識処理を行う複数の物体認識部と、
それぞれ対応する前記物体認識部に接続され、前記車両に設けられた車両ネットワークを介した通信を行う複数の通信部と、を有し、
それぞれの前記通信部は、当該通信部が接続された前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力し、
前記複数の通信部の少なくとも一つは、前記車両ネットワークを介して他の前記通信部から前記認識物体の座標情報を取得することを特徴とする統合画像処理システム。 Form if each camera image by the camera module of the multiple is captured, an integrated image processing system for displaying a vehicle periphery image on the display unit in the vehicle,
A plurality of object recognition units that are provided corresponding to the respective camera modules and that perform object recognition processing from camera images captured by the camera modules ;
A plurality of communication units that are connected to the corresponding object recognition units and perform communication via a vehicle network provided in the vehicle,
Each of the communication units outputs the coordinate information of the recognized object recognized by the object recognition unit to which the communication unit is connected to the vehicle network ,
At least one of the plurality of communication units acquires coordinate information of the recognized object from another communication unit via the vehicle network .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016198541A JP6185135B2 (en) | 2016-10-06 | 2016-10-06 | Integrated image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016198541A JP6185135B2 (en) | 2016-10-06 | 2016-10-06 | Integrated image processing system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012281745A Division JP6022930B2 (en) | 2012-12-25 | 2012-12-25 | Camera system, camera module, and camera control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017022780A JP2017022780A (en) | 2017-01-26 |
JP6185135B2 true JP6185135B2 (en) | 2017-08-23 |
Family
ID=57888480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016198541A Active JP6185135B2 (en) | 2016-10-06 | 2016-10-06 | Integrated image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6185135B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019138589A1 (en) * | 2018-01-15 | 2019-07-18 | シャープ株式会社 | Lens unit, image pickup device, vehicle surrounding monitoring system, jig for assembling image pickup device, and method for assembling image pickup device |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003163926A (en) * | 2001-11-26 | 2003-06-06 | Sumitomo Electric Ind Ltd | In-car communication system, data processor, and car- mounted apparatus |
JP2004147190A (en) * | 2002-10-25 | 2004-05-20 | Matsushita Electric Ind Co Ltd | Image pickup device with image synthesizing function and imaging system |
JP4647975B2 (en) * | 2004-11-17 | 2011-03-09 | オリンパス株式会社 | Image generation device |
JP2007067510A (en) * | 2005-08-29 | 2007-03-15 | Toshiba Corp | Video image photography system |
JP4752486B2 (en) * | 2005-12-15 | 2011-08-17 | 株式会社日立製作所 | Imaging device, video signal selection device, driving support device, automobile |
JP4702106B2 (en) * | 2006-03-02 | 2011-06-15 | 株式会社デンソー | Blind spot support information notification device and program |
JP4325642B2 (en) * | 2006-05-31 | 2009-09-02 | ソニー株式会社 | Mobile camera system |
JP5073528B2 (en) * | 2008-02-21 | 2012-11-14 | 日立オートモティブシステムズ株式会社 | Vehicle fixed-point stop control method and apparatus |
JP5696872B2 (en) * | 2010-03-26 | 2015-04-08 | アイシン精機株式会社 | Vehicle periphery monitoring device |
-
2016
- 2016-10-06 JP JP2016198541A patent/JP6185135B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017022780A (en) | 2017-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6022930B2 (en) | Camera system, camera module, and camera control method | |
JP6937443B2 (en) | Imaging device and control method of imaging device | |
CN105308620B (en) | Information processing apparatus, proximity object notification method, and program | |
WO2016002163A1 (en) | Image display device and image display method | |
JP5321711B2 (en) | Vehicle periphery monitoring device and video display method | |
JP6406159B2 (en) | In-vehicle display control device, in-vehicle display control method | |
JP6213567B2 (en) | Predicted course presentation device and predicted course presentation method | |
KR101198206B1 (en) | System for providing image around vehicle with portable terminal and method thereof | |
JP2012040883A (en) | Device for generating image of surroundings of vehicle | |
JP6375633B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP2016119559A (en) | Circumference monitoring device of work machine | |
JP6185135B2 (en) | Integrated image processing system | |
JP6407596B2 (en) | Image processing apparatus and driving support system | |
JP6788447B2 (en) | Video output system | |
JP2005182305A (en) | Vehicle travel support device | |
JP2013211035A (en) | Vehicle periphery display device | |
JP2017222224A (en) | Imaging apparatus and imaging system | |
JP4685050B2 (en) | Display device | |
JP2006254318A (en) | Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method | |
JP4730819B2 (en) | Peripheral status display device and peripheral status display method | |
US20210377485A1 (en) | Imaging device | |
JP6209921B2 (en) | Predictive course presentation system | |
JP2015182670A (en) | Drive support device | |
KR20150129542A (en) | Operating method of around view system | |
JP6252756B2 (en) | Image processing apparatus, driving support apparatus, navigation apparatus, and camera apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170612 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6185135 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |