[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6185135B2 - Integrated image processing system - Google Patents

Integrated image processing system Download PDF

Info

Publication number
JP6185135B2
JP6185135B2 JP2016198541A JP2016198541A JP6185135B2 JP 6185135 B2 JP6185135 B2 JP 6185135B2 JP 2016198541 A JP2016198541 A JP 2016198541A JP 2016198541 A JP2016198541 A JP 2016198541A JP 6185135 B2 JP6185135 B2 JP 6185135B2
Authority
JP
Japan
Prior art keywords
camera
image
vehicle
camera module
units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016198541A
Other languages
Japanese (ja)
Other versions
JP2017022780A (en
Inventor
圭俊 中田
圭俊 中田
瑞己 鈴村
瑞己 鈴村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016198541A priority Critical patent/JP6185135B2/en
Publication of JP2017022780A publication Critical patent/JP2017022780A/en
Application granted granted Critical
Publication of JP6185135B2 publication Critical patent/JP6185135B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、複数のカメラモジュールが撮像した複数の各カメラ画像を合成して車両周辺画像とし、これを車両に設けたディスプレイ等の表示手段に出力する統合画像処理システムに関する。 The present invention is directed to the vehicle periphery image camera module multiple is by combining a plurality of the cameras image captured on integrating image processing system outputs this to the display unit such as a display provided on the vehicle.

従来、自動車の前後左右に取り付けた複数のカメラモジュールが撮像したカメラ画像を合成して車両周辺画像を生成し、これを車室内に設置したディスプレイ等の表示手段に表示して、車両の全周方向を1つの画面で視認できるようにしたカメラシステムが知られている。このようなカメラシステムとしては、各カメラ画像を視点変換加工することにより、車両周辺画像を俯瞰画像として表示するものも知られている(例えば特許文献1)。   Conventionally, a vehicle peripheral image is generated by combining camera images captured by a plurality of camera modules attached to the front, rear, left, and right of an automobile, and this is displayed on a display means such as a display installed in a vehicle interior to display the entire circumference of the vehicle. There is known a camera system in which the direction can be visually recognized on one screen. As such a camera system, there is also known one that displays a vehicle peripheral image as a bird's-eye view image by subjecting each camera image to viewpoint conversion processing (for example, Patent Document 1).

また、表示手段に表示される車両周辺画像から物体認識処理により歩行や自転車等の物体を認識し、この認識物体にマーカーを付すようにした技術が知られている(例えば特許文献2)。   In addition, a technique is known in which an object such as a walk or a bicycle is recognized from a vehicle peripheral image displayed on a display unit by object recognition processing, and a marker is attached to the recognized object (for example, Patent Document 2).

特許第4742733号公報Japanese Patent No. 4742733 特開2012−113605号公報JP 2012-113605 A

従来のカメラシステムでは、各カメラモジュールが撮像した複数のカメラ画像を車両側のディスプレイ(例えばナビゲーションシステム等)の制御装置に入力する構成とし、その制御装置により、各カメラ画像の合成、俯瞰処理、物体認識処理および認識物体へのマーカー付与処理を行うようにしている。そのため、このようなカメラシステムの構築には、車両側のディスプレイの制御装置に高度な処理能力が必要となり、システムが高価となる、あるいは汎用性の低いシステムとなる。   In a conventional camera system, a plurality of camera images captured by each camera module are input to a control device of a vehicle-side display (for example, a navigation system), and the control device combines the camera images, performs an overhead view process, Object recognition processing and marker addition processing to the recognition object are performed. Therefore, in order to construct such a camera system, a high-level processing capability is required for the display control device on the vehicle side, and the system becomes expensive or a system with low versatility.

そこで、各カメラモジュールに、撮像したカメラ画像を俯瞰処理する機能、そのカメラ画像から物体認識処理により認識物体を検出する機能および当該カメラ画像の認識物体にマーカーを付する機能を設けることにより、表示手段として画像の表示機能のみを有する安価なものを用いることを可能とする安価なカメラシステムが考えられる。   Therefore, each camera module is provided with a function for performing a bird's-eye view processing of the captured camera image, a function for detecting a recognition object from the camera image by object recognition processing, and a function for attaching a marker to the recognition object of the camera image. As a means, an inexpensive camera system that can use an inexpensive device having only an image display function is conceivable.

かかる事情に鑑みてなされた本発明の目的は、高度な処理能力を有さないようなディスプレイにおいて画像表示する場合であっても、物体認識に伴う表示を行い易くするカメラシステムを安価に提供することにある。   An object of the present invention made in view of such circumstances is to provide an inexpensive camera system that facilitates display associated with object recognition even when an image is displayed on a display that does not have a high processing capability. There is.

上記課題を解決するため、本発明の統合画像処理システム、複数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行う統合画像処理システムであって、それぞれの前記カメラモジュールに対応して設けられ該カメラモジュールが撮像したカメラ画像から物体認識処理を行う複数の物体認識部と、それぞれ対応する前記物体認識部に接続され、前記車両に設けられた車両ネットワークを介した通信を行う複数の通信部と、を有し、それぞれの前記通信部は、当該通信部が接続された前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力し、前記複数の通信部の少なくとも一つは、前記車両ネットワークを介して他の前記通信部から前記認識物体の座標情報を取得することを特徴とする。 To solve the above problems, integrated image processing system of the present invention, form if each camera image by the camera module of the multiple is captured, integrated image processing for displaying a vehicle periphery image on the display unit in the vehicle A plurality of object recognition units that are provided corresponding to the respective camera modules and that perform object recognition processing from camera images captured by the camera modules , and are connected to the corresponding object recognition units, A plurality of communication units that perform communication via a vehicle network provided in the vehicle, and each of the communication units includes coordinate information of a recognized object recognized by the object recognition unit to which the communication unit is connected. output to the vehicle network, at least one of the plurality of communication unit, collected coordinate information of the recognition object from the other of the communication unit via the vehicle network Characterized in that it.

本発明の統合画像処理システムによれば、高度な処理能力を有さないようなディスプレイにおいて画像表示する場合であっても、物体認識に伴う表示を行い易くする統合画像処理システムを安価に提供することができる。 According to the integrated image processing system of the present invention, even when an image is displayed on a display that does not have a high level of processing capability, an integrated image processing system that facilitates display associated with object recognition is provided at low cost. be able to.

本発明の一実施形態に係る統合画像処理システムを含むカメラシステムを備えた車両の概略構成を示す図である。1 is a diagram illustrating a schematic configuration of a vehicle including a camera system including an integrated image processing system according to an embodiment of the present invention. 本発明の一実施形態に係る統合画像処理システムを含むカメラシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the camera system containing the integrated image processing system which concerns on one Embodiment of this invention. 図2に示すフロントカメラモジュールおよびサイドカメラモジュールの構成例を示すブロック図である。It is a block diagram which shows the structural example of the front camera module and side camera module which are shown in FIG. 図2に示すリアカメラモジュールの構成例を示すブロック図である。It is a block diagram which shows the structural example of the rear camera module shown in FIG. 表示手段に表示される車両周辺画像の一例を示す図である。It is a figure which shows an example of the vehicle periphery image displayed on a display means. 表示手段に表示された車両周辺画像中の認識物体が互いに隣接するカメラ画像の境界に位置した状態の一例を示す図である。It is a figure which shows an example of the state in which the recognition object in the vehicle periphery image displayed on the display means was located in the boundary of the mutually adjacent camera image. 主制御部と制御部との関係の一例を示す図である。It is a figure which shows an example of the relationship between a main control part and a control part. 互いに隣接するカメラ画像における各カメラモジュールのマーカー付与の割り当て領域を示す図である。It is a figure which shows the allocation area | region of the marker provision of each camera module in the mutually adjacent camera image. 本発明の一実施形態に係る統合画像処理システムを含むカメラシステムにおけるマーカー表示制御のフローチャート図である。It is a flowchart figure of the marker display control in the camera system containing the integrated image processing system which concerns on one Embodiment of this invention.

以下、本発明の一実施形態について、図面を参照して例示説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1、図2に示すように、本発明の一実施形態に係る統合画像処理システムを含むカメラシステム1は自動車等の車両2に設けられる。このカメラシステム1は、車両2の前後左右に取り付けられる4つのカメラモジュール3〜6と、車室内に設置される表示手段7とを備えている。 As shown in FIGS. 1 and 2, a camera system 1 including an integrated image processing system according to an embodiment of the present invention is provided in a vehicle 2 such as an automobile. This camera system 1 includes four camera modules 3 to 6 attached to the front, rear, left and right of the vehicle 2 and display means 7 installed in the vehicle interior.

車両2の前方端に取り付けられるフロントカメラモジュール3は、図3に示すように、レンズ部3a、撮像部3b、視点変換画像生成部3c、出力部3d、電源部3e、制御部3f、通信部3gおよび記憶部3hを備えている。同様に、車両2の右側方に取り付けられるサイドカメラモジュール4および車両2の左側方に取り付けられるサイドカメラモジュール5は、それぞれレンズ部4a,5a、撮像部4b,5b、視点変換画像生成部4c,5c、出力部4d,5d、電源部4e,5e、制御部4f,5f、通信部4g,5gおよび記憶部4h,5hを備えている。フロントカメラモジュール3と両サイドカメラモジュール4、5は基本的に同一の構成となっているので、図3においては、カメラモジュール3〜5を構成する各部にそれぞれのカメラモジュール3〜5に対応した符号を付してある。   As shown in FIG. 3, the front camera module 3 attached to the front end of the vehicle 2 includes a lens unit 3a, an imaging unit 3b, a viewpoint conversion image generation unit 3c, an output unit 3d, a power supply unit 3e, a control unit 3f, and a communication unit. 3g and a storage unit 3h are provided. Similarly, the side camera module 4 attached to the right side of the vehicle 2 and the side camera module 5 attached to the left side of the vehicle 2 are respectively a lens unit 4a, 5a, an imaging unit 4b, 5b, a viewpoint conversion image generation unit 4c, 5c, output units 4d and 5d, power supply units 4e and 5e, control units 4f and 5f, communication units 4g and 5g, and storage units 4h and 5h. Since the front camera module 3 and the side camera modules 4 and 5 have basically the same configuration, in FIG. 3, each part constituting the camera modules 3 to 5 corresponds to each camera module 3 to 5. The code | symbol is attached | subjected.

一方、車両2の後方端に取り付けられるリアカメラモジュール6は、図4に示すように、レンズ部6a、撮像部6b、視点変換画像生成部6c、出力部6d、電源部6e、制御部6f、通信部6g、記憶部6hを備えるとともに画像合成部6iを備えている。ここで、画像合成部6iは制御部6f上で動作するソフトウェア処理であり、物体認識部3j〜6jのように制御部6f内に記載すべきところであるが、説明の簡素化のために別ブロックとして説明する。   On the other hand, as shown in FIG. 4, the rear camera module 6 attached to the rear end of the vehicle 2 includes a lens unit 6a, an imaging unit 6b, a viewpoint conversion image generation unit 6c, an output unit 6d, a power supply unit 6e, a control unit 6f, A communication unit 6g and a storage unit 6h are provided, and an image composition unit 6i is provided. Here, the image composition unit 6i is a software process that operates on the control unit 6f, and should be described in the control unit 6f like the object recognition units 3j to 6j. Will be described.

ところで、図面では、画像合成部を、リアカメラモジュール6にのみ記載し、フロントカメラモジュール3と両サイドカメラモジュール4、5には記載していない。しかしながら、画像合成部6iは、いずれのカメラモジュール3〜6に等しく設けられていてもよい。すなわち、後述する処理によってリアカメラモジュール6として認識したカメラモジュール、あるいは主制御部となるべきと認識されたカメラモジュールのみが画像合成部のソフトウェアをアクティブ化し、その他のカメラモジュールは画像合成部のソフトウェアをインアクティブ化するように構成されていると、各カメラモジュールの構成を同じにすることができ、全体的なコストを下げることにもつながる。   By the way, in the drawing, the image composition unit is described only in the rear camera module 6 and is not described in the front camera module 3 and the both side camera modules 4 and 5. However, the image composition unit 6i may be provided equally in any camera module 3-6. That is, only the camera module recognized as the rear camera module 6 or the camera module recognized as the main control unit by the processing described later activates the software of the image composition unit, and the other camera modules are software of the image composition unit. If the camera module is configured to be inactivated, the configuration of each camera module can be made the same, leading to a reduction in the overall cost.

各カメラモジュール3〜6に設けられた電源部3e〜6eは、それぞれ車載のバッテリに接続されて当該カメラモジュール3〜6の撮像部3b〜6bや制御部3f〜6f等の各部に電力を供給する。また、各カメラモジュール3〜6に設けられた記憶部3h〜6hは、それぞれ必要に応じて撮像部3b〜6b、視点変換画像生成部3c〜6c、制御部3f〜6f、通信部3g〜6gなどの制御に必要なデータ等を格納することができる。   The power supply units 3e to 6e provided in the camera modules 3 to 6 are connected to a vehicle-mounted battery and supply power to the imaging units 3b to 6b and the control units 3f to 6f of the camera modules 3 to 6, respectively. To do. Moreover, the memory | storage parts 3h-6h provided in each camera module 3-6 are the imaging parts 3b-6b, the viewpoint conversion image generation parts 3c-6c, the control parts 3f-6f, and the communication parts 3g-6g, respectively as needed. Data necessary for such control can be stored.

各カメラモジュール3〜6は、それぞれレンズ部3a〜6aと撮像部3b〜6bとを用いて車両周辺を撮像する。例えば、フロントカメラモジュール3はレンズ部3aと撮像部3bとを用いて車両2の前方側の周辺を所定の画角で撮像する。また、右側のサイドカメラモジュール4はレンズ部4aと撮像部4bとを用いて車両2の右側方の周辺を所定の画角で撮像し、左側のサイドカメラモジュール5はレンズ部5aと撮像部5bとを用いて車両2の左側方の周辺を所定の画角で撮像する。さらに、リアカメラモジュール6はレンズ部6aと撮像部6bとを用いて車両2の後退方向の周辺を所定の画角で撮像する。   Each camera module 3-6 images the periphery of the vehicle using lens units 3a-6a and imaging units 3b-6b, respectively. For example, the front camera module 3 images the periphery of the front side of the vehicle 2 at a predetermined angle of view using the lens unit 3a and the imaging unit 3b. Further, the right side camera module 4 uses the lens unit 4a and the imaging unit 4b to image the periphery of the right side of the vehicle 2 at a predetermined angle of view, and the left side camera module 5 includes the lens unit 5a and the imaging unit 5b. And the left side of the vehicle 2 is imaged at a predetermined angle of view. Further, the rear camera module 6 images the periphery of the vehicle 2 in the backward direction with a predetermined angle of view using the lens unit 6a and the imaging unit 6b.

これらの撮像部3b〜6bとしては、例えばCMOSやCCD等のイメージセンサが用いられる。また、レンズ部3a〜6aとしては例えば魚眼レンズなどの画角の広いレンズが用いられる。   For example, an image sensor such as a CMOS or a CCD is used as the imaging units 3b to 6b. Further, as the lens portions 3a to 6a, for example, lenses having a wide angle of view such as fisheye lenses are used.

図3、図4に示すように、各カメラモジュール3〜6の撮像部3b〜6bは、それぞれ視点変換画像生成部3c〜6cに接続され、撮像部3b〜6bが撮像した画像は視点変換画像生成部3c〜6cに取り込まれる。視点変換画像生成部3c〜6cは撮像部3b〜6bから取り込んだ画像の歪みを調整し、当該画像の視点を変換した俯瞰画像を生成する。   As shown in FIGS. 3 and 4, the imaging units 3 b to 6 b of the camera modules 3 to 6 are connected to the viewpoint conversion image generation units 3 c to 6 c, respectively, and the images captured by the imaging units 3 b to 6 b are viewpoint conversion images. It is taken into the generating units 3c to 6c. The viewpoint-converted image generation units 3c to 6c adjust the distortion of the images captured from the imaging units 3b to 6b, and generate overhead images in which the viewpoints of the images are converted.

図2に示すように、フロントカメラモジュール3はリアカメラモジュール6に接続されている。フロントカメラモジュール3で生成された俯瞰画像は、当該カメラモジュール3が撮像したカメラ画像としてその出力部3dから出力され、リアカメラモジュール6に設けられた画像合成部6iに入力される。同様に、両サイドカメラモジュール4,5はリアカメラモジュール6に接続されている。両サイドカメラモジュール4,5で生成された俯瞰画像は、それぞれ当該カメラモジュール4,5が撮像したカメラ画像として出力部4d,5dから出力され、リアカメラモジュール6に設けられた画像合成部6iに入力される。   As shown in FIG. 2, the front camera module 3 is connected to the rear camera module 6. The bird's-eye view image generated by the front camera module 3 is output from the output unit 3d as a camera image captured by the camera module 3, and input to the image composition unit 6i provided in the rear camera module 6. Similarly, both side camera modules 4 and 5 are connected to the rear camera module 6. The bird's-eye view images generated by the two side camera modules 4 and 5 are output from the output units 4d and 5d as camera images captured by the camera modules 4 and 5, respectively, and are output to the image composition unit 6i provided in the rear camera module 6. Entered.

画像合成部6iは、リアカメラモジュール6の視点変換画像生成部6cが生成した俯瞰画像(カメラ画像)と、他のカメラモジュール3〜5から入力される3つの俯瞰画像(カメラ画像)とを、各カメラモジュール3〜6の車両2への取付け位置に応じた配置で合成し、車両周辺画像を生成する。   The image composition unit 6i includes an overhead image (camera image) generated by the viewpoint conversion image generation unit 6c of the rear camera module 6 and three overhead images (camera images) input from the other camera modules 3 to 5. The camera modules 3 to 6 are combined in an arrangement corresponding to the mounting position of the camera modules 3 to 6 on the vehicle 2 to generate a vehicle periphery image.

図2に示すように、リアカメラモジュール6は表示手段7に接続されている。リアカメラモジュール6の出力部6dは、画像合成部6iが合成した車両周辺画像を表示手段7に適応したフォーマット(例えばNTSC)に変換し、表示手段7に向けて出力する。   As shown in FIG. 2, the rear camera module 6 is connected to the display means 7. The output unit 6 d of the rear camera module 6 converts the vehicle surrounding image synthesized by the image synthesis unit 6 i into a format (for example, NTSC) adapted to the display unit 7 and outputs the converted image to the display unit 7.

図5に示すように、表示手段7はリアカメラモジュール6から入力された車両周辺画像をその画面7aに表示する。つまり、表示手段7の画面7aの中心には車両モデル8が表示され、この車両モデル8の周囲の画面上側の分割範囲7a1にフロントカメラモジュール3が撮像したカメラ画像(俯瞰画像)が表示される。また、表示手段7の画面右側の分割範囲7a2と画面左側の分割範囲7a3には、それぞれサイドカメラモジュール4,5が撮像したカメラ画像(俯瞰画像)が表示される。さらに、表示手段7の画面下側の分割範囲7a4にリアカメラモジュール6が撮像したカメラ画像(俯瞰画像)が表示される。   As shown in FIG. 5, the display means 7 displays the vehicle periphery image input from the rear camera module 6 on the screen 7a. That is, the vehicle model 8 is displayed at the center of the screen 7a of the display means 7, and a camera image (overhead image) captured by the front camera module 3 is displayed in the upper divided range 7a1 around the vehicle model 8. . Further, camera images (overhead images) captured by the side camera modules 4 and 5 are displayed in the divided range 7a2 on the right side of the screen and the divided range 7a3 on the left side of the screen of the display unit 7, respectively. Further, a camera image (overhead image) captured by the rear camera module 6 is displayed in the divided range 7a4 on the lower side of the screen of the display means 7.

表示手段7としては、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイ装置を用いることができる。   As the display means 7, for example, a display device such as a liquid crystal display or an organic EL display can be used.

図2に示すように、各カメラモジュール3〜6は車両2に設けられた車両ネットワーク(車載LAN)9に接続されている。この車両ネットワーク9は、例えばCAN(Controller Area Network)、FlexRay、LIN(Local Interconnect Network)等のプロトコルを用いた移動機械用バスラインとすることができる。   As shown in FIG. 2, the camera modules 3 to 6 are connected to a vehicle network (in-vehicle LAN) 9 provided in the vehicle 2. The vehicle network 9 may be a mobile machine bus line using a protocol such as CAN (Controller Area Network), FlexRay, or LIN (Local Interconnect Network).

各カメラモジュール3〜6は、それぞれ通信部3g〜6gにより車両ネットワーク9を介した通信を行うことができる。つまり、各カメラモジュール3〜6は、それぞれ通信部3g〜6gにより、車両ネットワーク9を介して他のカメラモジュール3〜6と互いに通信することができる。また、図1に示すように、車両ネットワーク9には、例えばエンジンコントロールユニット(ECU)やシフトポジションセンサ等の車両2の処理ユニット10が接続されており、各カメラモジュール3〜6は、それぞれ通信部3g〜6gにより、車両ネットワーク9を介して処理ユニット10と通信することができる。   Each camera module 3-6 can communicate via the vehicle network 9 by the communication parts 3g-6g, respectively. That is, the camera modules 3 to 6 can communicate with the other camera modules 3 to 6 via the vehicle network 9 by the communication units 3g to 6g, respectively. Further, as shown in FIG. 1, a processing unit 10 of the vehicle 2 such as an engine control unit (ECU) or a shift position sensor is connected to the vehicle network 9, and each camera module 3-6 communicates with each other. The units 3g to 6g can communicate with the processing unit 10 via the vehicle network 9.

これらの通信部3g〜6gとしては、例えば車両ネットワーク9がCANである場合にはCANトランシーバが用いられるなど、その車両ネットワーク9のプロトコルに準拠した通信デバイスが用いられる。   As these communication units 3g to 6g, for example, when the vehicle network 9 is a CAN, a CAN transceiver is used. For example, a communication device conforming to the protocol of the vehicle network 9 is used.

各カメラモジュール3〜6に設けられる制御部3f〜6fは、それぞれCPUを備えたマイクロコンピュータ上で動作するソフトウェアの機構ブロックを抽象化したものであって、図3、図4に示すように、その機能の一つとして物体認識部3j〜6jとしての機能を備えている。物体認識部3j〜6jは、自己のカメラモジュール3〜6の撮像部3b〜6bが撮像した画像から物体認識処理を行う。つまり、物体認識部3j〜6jは、撮像部3b〜6bが撮像した画像を物体認識処理することにより、当該画像中に存在する歩行者や自転車等の所定の物体を認識することができる。物体認識部3j〜6jによる物体認識処理としては、例えばパターン認識等の物体認識技術を用いることができる。   The control units 3f to 6f provided in the camera modules 3 to 6 abstract the mechanism blocks of software that operates on a microcomputer provided with a CPU, respectively, and as shown in FIGS. One of the functions is a function as the object recognition units 3j to 6j. The object recognition units 3j to 6j perform object recognition processing from the images captured by the imaging units 3b to 6b of their own camera modules 3 to 6. That is, the object recognition units 3j to 6j can recognize predetermined objects such as pedestrians and bicycles existing in the images by performing object recognition processing on the images captured by the imaging units 3b to 6b. As the object recognition processing by the object recognition units 3j to 6j, for example, an object recognition technique such as pattern recognition can be used.

各カメラモジュール3〜6の制御部3f〜6fは、それぞれ自己のカメラモジュール3〜6の撮像部3b〜6bが撮像した画像中から歩行者や自転車等の所定の物体が認識された場合には、物体認識部3j〜6jにより認識された認識物体の座標情報に基づいて、当該画像に認識物体に対するマーカーを表示する。制御部3f〜6fによる画像へのマーカーの付与は、例えば撮像部3b〜6bが撮像した画像にマーカー画像をオーバーレイ(重畳表示)する手法により行うことができる。このように、各カメラモジュール3〜6は、自己の撮像部3b〜6bが撮像した画像中に所定の物体が存在する場合には、当該物体にマーカーを付したカメラ画像を出力部3d〜6dから出力する。ところで、座標情報とは、所定の物体として認識された描画物の座標であって、魚眼レンズ(レンズ部3a〜6a)を介して撮影されるが故のディストーション成分を考慮して、各カメラモジュール3〜6において撮影した画像内における座標を各物体認識部3j〜6jが算出する。   When the control units 3f to 6f of the camera modules 3 to 6 recognize a predetermined object such as a pedestrian or a bicycle from images captured by the imaging units 3b to 6b of their own camera modules 3 to 6, respectively. Based on the coordinate information of the recognized object recognized by the object recognition units 3j to 6j, a marker for the recognized object is displayed on the image. For example, the markers can be added to the images by the control units 3f to 6f by a method of overlaying (superimposing) the marker images on the images captured by the imaging units 3b to 6b. As described above, when there is a predetermined object in the images captured by the image capturing units 3b to 6b, the camera modules 3 to 6 output the camera images with the markers attached to the output units 3d to 6d. Output from. By the way, the coordinate information is the coordinates of the drawn object recognized as a predetermined object, and each camera module 3 is considered in consideration of the distortion component that is taken through the fisheye lens (lens portions 3a to 6a). The object recognizing units 3j to 6j calculate the coordinates in the images photographed at .about.6.

したがって、図5に示すように、表示手段7の画面7aに表示される車両周辺画像中に所定の物体12が存在する場合には、車両周辺画像は各カメラモジュール3〜6のカメラ画像を合成して形成されるので、当該物体12に対するマーカー13が付された車両周辺画像が表示されることになる。車両周辺画像に当該物体12に対するマーカー13を付すことにより、車両周辺画像中に表示された所定の物体12を運転者等に認識し易くすることができる。図示する場合では、マーカー13は矩形の点線枠で表示されるが、物体12の形状や大きさに合わせて、矩形形状や円形形状など種々の形状とサイズに設定することができ、また実線等により表すこともできる。   Therefore, as shown in FIG. 5, when the predetermined object 12 exists in the vehicle peripheral image displayed on the screen 7a of the display means 7, the vehicle peripheral image is composed of the camera images of the camera modules 3 to 6. Thus, the vehicle peripheral image with the marker 13 attached to the object 12 is displayed. By attaching the marker 13 for the object 12 to the vehicle periphery image, the predetermined object 12 displayed in the vehicle periphery image can be easily recognized by the driver or the like. In the illustrated case, the marker 13 is displayed as a rectangular dotted frame, but can be set to various shapes and sizes such as a rectangular shape and a circular shape according to the shape and size of the object 12, and a solid line or the like. It can also be represented by

図6に示すように、分割範囲7a1と分割範囲7a2とに表示される、互いに隣接する一対のカメラ画像の双方つまり一対のカメラ画像の境界Aに所定の物体12が位置する場合には、当該物体12に対するマーカー13はこれらのカメラ画像の双方に跨って表示されることになる。この場合、マーカー13は、その一部が分割範囲7a1に表示される一方のカメラ画像に表示され、残りの一部が分割範囲7a2に表示される他方のカメラ画像に表示されることになる。そのため、各カメラ画像にマーカー13を表示させる際に、各カメラ画像に表示されるマーカー13を滑らかに繋いで1つのマーカー13として正しく表示する必要がある。   As shown in FIG. 6, when a predetermined object 12 is positioned on both of a pair of adjacent camera images displayed in the divided range 7 a 1 and the divided range 7 a 2, that is, the boundary A between the pair of camera images, The marker 13 for the object 12 is displayed across both of these camera images. In this case, a part of the marker 13 is displayed on one camera image displayed in the divided range 7a1, and the remaining part is displayed on the other camera image displayed on the divided range 7a2. Therefore, when displaying the marker 13 on each camera image, it is necessary to smoothly display the marker 13 displayed on each camera image and display it correctly as one marker 13.

そのため、本発明の統合画像処理システムを含むカメラシステム1では、各カメラモジュール3〜6は、その撮像部3b〜6bが撮像した画像から認識した所定の物体12の座標情報を、通信部3g〜6gにより車両ネットワーク9に出力し、車両ネットワーク9を介して当該座標情報を各カメラモジュール3〜6の間で共有可能とする。そして、互いに隣接するカメラ画像のうちの一方のカメラ画像を出力するカメラモジュール3〜6が他方のカメラ画像を出力するカメラモジュール3〜6から車両ネットワーク9を介して認識物体の座標情報を取得し、この座標情報を利用して、他方のカメラ画像に表示されるマーカー13に滑らかに繋がるようなマーカー13を生成することができるようにしている。 Therefore, in the camera system 1 including the integrated image processing system of the present invention, each of the camera modules 3 to 6 transmits the coordinate information of the predetermined object 12 recognized from the images captured by the imaging units 3b to 6b to the communication units 3g to 3g. 6g is output to the vehicle network 9, and the coordinate information can be shared among the camera modules 3 to 6 via the vehicle network 9. Then, the camera modules 3 to 6 that output one of the adjacent camera images acquire the coordinate information of the recognized object from the camera modules 3 to 6 that output the other camera image via the vehicle network 9. Using this coordinate information, a marker 13 that smoothly connects to the marker 13 displayed in the other camera image can be generated.

より具体的には、図6に示すように、分割範囲7a1に表示されるフロントカメラモジュール3のカメラ画像と分割範囲7a2に表示される右側のサイドカメラモジュール4のカメラ画像との境界Aに所定の物体12が位置する場合には、以下の手順でマーカー13の表示が行われる。   More specifically, as shown in FIG. 6, a predetermined boundary A is formed between the camera image of the front camera module 3 displayed in the divided range 7a1 and the camera image of the right side camera module 4 displayed in the divided range 7a2. When the object 12 is located, the marker 13 is displayed in the following procedure.

フロントカメラモジュール3が、その撮像部3bが撮像した画像中から物体認識部3jにより所定の物体12を認識すると、その認識した物体12つまり認識物体12の当該画像中における座標情報が通信部3gにより車両ネットワーク9に出力される。同様に、右側のサイドカメラモジュール4が、その撮像部4bが撮像した画像中から物体認識部4jにより所定の物体12を認識すると、その認識物体12の当該画像中における座標情報が通信部4gにより車両ネットワーク9に出力される。これらの通信部3g,4gが出力する認識物体12の座標情報としては、例えば、認識物体12の中心位置の座標情報にその大きさの情報を付加したものとするなど、その認識物体12を囲うマーカー13を生成できる情報を含んだものとすることができる。   When the front camera module 3 recognizes the predetermined object 12 from the image captured by the imaging unit 3b by the object recognition unit 3j, the coordinate information of the recognized object 12, that is, the recognized object 12 in the image is transmitted by the communication unit 3g. It is output to the vehicle network 9. Similarly, when the right side camera module 4 recognizes the predetermined object 12 by the object recognition unit 4j from the image captured by the imaging unit 4b, the coordinate information of the recognized object 12 in the image is transmitted by the communication unit 4g. It is output to the vehicle network 9. As the coordinate information of the recognition object 12 output by the communication units 3g and 4g, for example, the size information is added to the coordinate information of the center position of the recognition object 12, and the recognition object 12 is enclosed. Information that can generate the marker 13 may be included.

ここで、各カメラモジュール3〜6は、車両ネットワーク9に接続されたECU等の処理ユニット10により、車両ネットワーク9の規格におけるネゴシエーションのプロトコルに準拠して、アドレス等の識別情報が割り当てられている。そして、この識別情報に基づいて各カメラモジュール3〜6の間でマスターとスレーブとの関係が設定されている。例えば、本実施形態では、図6に示す境界Aまたは境界Bに所定の物体12が位置する場合には、図7に示すように、フロントカメラモジュール3がマスターに設定され、両サイドカメラモジュール4,5がそれぞれスレーブに設定される。一方、図6に示す境界Cまたは境界Dに所定の物体12が位置する場合には、同様に図7に示すように、リアカメラモジュール6がマスターに設定され、両サイドカメラモジュール4,5がそれぞれスレーブに設定される。したがって、図6に示す境界Aに物体12が位置する場合には、フロントカメラモジュール3がマスターに設定され、右側のサイドカメラモジュール4がスレーブに設定される。フロントカメラモジュール3のカメラ画像とリアカメラモジュール6のカメラ画像とは境界を有していないので、これらのカメラモジュール3,6の間ではマスター、スレーブの関係は設定されない。   Here, each camera module 3 to 6 is assigned identification information such as an address by a processing unit 10 such as an ECU connected to the vehicle network 9 in accordance with a negotiation protocol in the standard of the vehicle network 9. . Based on this identification information, the relationship between the master and the slave is set between the camera modules 3 to 6. For example, in the present embodiment, when the predetermined object 12 is located at the boundary A or the boundary B shown in FIG. 6, the front camera module 3 is set as the master as shown in FIG. , 5 are set as slaves. On the other hand, when the predetermined object 12 is located at the boundary C or the boundary D shown in FIG. 6, the rear camera module 6 is set as a master as shown in FIG. Each is set as a slave. Therefore, when the object 12 is located at the boundary A shown in FIG. 6, the front camera module 3 is set as a master, and the right side camera module 4 is set as a slave. Since the camera image of the front camera module 3 and the camera image of the rear camera module 6 do not have a boundary, a master / slave relationship is not set between these camera modules 3 and 6.

所定の物体12がフロントカメラモジュール3のカメラ画像と右側のサイドカメラモジュール4のカメラ画像との境界Aに位置する場合、つまり図8に模式的に示すフロントカメラモジュール3のカメラ画像のx1領域とサイドカメラモジュール4のカメラ画像のy1領域とに跨って物体12が位置する場合には、スレーブであるサイドカメラモジュール4は、車両ネットワーク9を介してフロントカメラモジュール3からフロントカメラモジュール3のカメラ画像における認識物体12の座標情報を取得する。そして、サイドカメラモジュール4の制御部4fは、フロントカメラモジュール3から取得した認識物体12の座標情報を利用して、つまり自己のカメラ画像における認識物体12の座標情報とフロントカメラモジュール3のカメラ画像における認識物体12の座標情報とに基づいて、自己が生成するマーカー13の位置、形状および大きさの少なくともいずれか一つを変更して、当該マーカー13がフロントカメラモジュール3により生成されるマーカー13に滑らかに繋がるようにする。このように、サイドカメラモジュール4の制御部3fは、車両ネットワーク9を介して得られるフロントカメラモジュール3が生成するマーカー13の位置、形状および大きさに合わせて自己が生成するマーカー13の位置、形状および大きさを調整する。   When the predetermined object 12 is located at the boundary A between the camera image of the front camera module 3 and the camera image of the right side camera module 4, that is, the x1 region of the camera image of the front camera module 3 schematically shown in FIG. When the object 12 is located across the y1 region of the camera image of the side camera module 4, the side camera module 4 that is a slave transmits the camera image of the front camera module 3 to the front camera module 3 via the vehicle network 9. The coordinate information of the recognition object 12 is acquired. Then, the control unit 4f of the side camera module 4 uses the coordinate information of the recognized object 12 acquired from the front camera module 3, that is, the coordinate information of the recognized object 12 in its own camera image and the camera image of the front camera module 3. The marker 13 is generated by the front camera module 3 by changing at least one of the position, shape and size of the marker 13 generated by itself based on the coordinate information of the recognition object 12 in FIG. To connect smoothly. In this way, the control unit 3f of the side camera module 4 can detect the position of the marker 13 generated by itself according to the position, shape and size of the marker 13 generated by the front camera module 3 obtained via the vehicle network 9. Adjust the shape and size.

上記では、車両周辺画像の境界Aに物体12が位置する場合について説明したが、車両周辺画像の境界Bに物体12が位置する場合においては、フロントカメラモジュール3がマスターとなり左側のサイドカメラモジュール5がスレーブとなって同様の制御が行われる。また、車両周辺画像の境界Cに物体12が位置する場合においては、リアカメラモジュール6がマスターとなり右側のサイドカメラモジュール4がスレーブとなり、また、車両周辺画像の境界Dに物体12が位置する場合においては、リアカメラモジュール6がマスターとなり左側のサイドカメラモジュール5がスレーブとなって同様の制御が行われることになる。   In the above description, the case where the object 12 is positioned at the boundary A of the vehicle peripheral image has been described. However, when the object 12 is positioned at the boundary B of the vehicle peripheral image, the front camera module 3 serves as a master and the left side camera module 5 Becomes a slave and the same control is performed. When the object 12 is located at the boundary C of the vehicle peripheral image, the rear camera module 6 is the master and the right side camera module 4 is the slave, and the object 12 is located at the boundary D of the vehicle peripheral image. , The rear camera module 6 becomes the master and the left side camera module 5 becomes the slave, and the same control is performed.

このように、所定の物体12が互いに隣接するカメラ画像の境界A〜Dに位置する場合には、一方のカメラモジュール3〜6の制御部3f〜6fが、車両ネットワーク9を介して他方のカメラモジュール3〜6から当該他のカメラモジュール3〜6の撮像部3b〜6bが撮像した画像中から認識された認識物体12の座標情報を取得し、これを利用して自己のカメラ画像にマーカー13を付する。したがって、所定の物体12が互いに隣接するカメラ画像の境界A〜Dに位置する場合であっても、この認識物体12に対して隣接するカメラ画像の双方に跨る滑らかなマーカー13を正確に付すことができる。   As described above, when the predetermined object 12 is located at the boundaries A to D of the camera images adjacent to each other, the control units 3 f to 6 f of the one camera module 3 to 6 perform the other camera via the vehicle network 9. The coordinate information of the recognition object 12 recognized from the images captured by the imaging units 3b to 6b of the other camera modules 3 to 6 is acquired from the modules 3 to 6, and the marker 13 is displayed on the own camera image using this. Is attached. Therefore, even when the predetermined object 12 is located at the boundaries A to D of the adjacent camera images, the smooth marker 13 across the adjacent camera images is accurately attached to the recognized object 12. Can do.

一方、図8に模式的に示すフロントカメラモジュール3のカメラ画像のx領域内に所定の物体12が位置する場合には、フロントカメラモジュール3の制御部3fにより物体12にマーカー13が付される。同様に、所定の物体12がサイドカメラモジュール4のカメラ画像のy領域内にある場合には、サイドカメラモジュール4の制御部4fにより物体12にマーカー13が付される。   On the other hand, when the predetermined object 12 is located in the x region of the camera image of the front camera module 3 schematically shown in FIG. 8, the marker 13 is attached to the object 12 by the control unit 3 f of the front camera module 3. . Similarly, when the predetermined object 12 is in the y region of the camera image of the side camera module 4, the marker 13 is attached to the object 12 by the control unit 4 f of the side camera module 4.

次に、上記カメラシステム1におけるマーカー表示制御(カメラ制御方法)の一例の手順を図9に基づいて説明する。   Next, an example procedure of marker display control (camera control method) in the camera system 1 will be described with reference to FIG.

まず、各カメラモジュール3〜6の制御部3f〜6fは、車両ネットワーク9を介して車両2の処理ユニット10と通信し、車両2のギアがリバースになっているか否かを判断する(ステップS1)。ステップS1において車両2のギアがリバースであると判断された場合には、制御部3f〜6fは自己のカメラモジュール3〜6の撮像部3b〜6bから撮像した画像を取得し(ステップS2)、また車両ネットワーク9を介して車両速度やハンドル操舵角等の車両情報を取得する(ステップS3)。この場合では、車両2が後退する際にのみ、車両周辺画像内に認識された物体12にマーカー13を付すようにしているが、車両2が前進または停止中にも車両周辺画像内に認識された物体12にマーカー13を付すようにしてもよい。   First, the control units 3f to 6f of the camera modules 3 to 6 communicate with the processing unit 10 of the vehicle 2 via the vehicle network 9 to determine whether or not the gear of the vehicle 2 is reverse (step S1). ). When it is determined in step S1 that the gear of the vehicle 2 is reverse, the control units 3f to 6f acquire images captured from the imaging units 3b to 6b of their own camera modules 3 to 6 (step S2). Further, vehicle information such as vehicle speed and steering angle is acquired via the vehicle network 9 (step S3). In this case, the marker 13 is attached to the object 12 recognized in the vehicle peripheral image only when the vehicle 2 moves backward. However, the vehicle 2 is recognized in the vehicle peripheral image even when the vehicle 2 moves forward or stops. A marker 13 may be attached to the object 12.

次いで、制御部3f〜6fは、取得した画像から物体認識処理により所定の物体12が認識されたか否かを判断する(ステップS4、認識工程)。ステップS4において画像中に認識物体12があると判断された場合には、各カメラモジュール3〜6が認識物体12の座標情報を車両ネットワーク9に出力し(ステップS5、出力工程)、これらの情報を各カメラモジュール3〜6で共有可能とする。   Next, the control units 3f to 6f determine whether or not the predetermined object 12 has been recognized by the object recognition process from the acquired image (step S4, recognition step). If it is determined in step S4 that the recognition object 12 is present in the image, each camera module 3-6 outputs the coordinate information of the recognition object 12 to the vehicle network 9 (step S5, output process). Can be shared by the camera modules 3 to 6.

次いで、制御部3f〜6fは、認識物体12が隣り合う一対のカメラ画像の境界A〜Dに位置したか否かを判断する(ステップS6)。ステップS6において、認識物体12が隣り合うカメラ画像の境界A〜Dに位置したと判断されると、これらのカメラ画像を撮像する一対のカメラモジュール3〜6の制御部3f〜6fにより各カメラ画像にマーカー13が付される。このとき、いずれか一方のカメラモジュール3〜6の制御部3f〜6fが、車両ネットワーク9を介して他のカメラモジュール3〜6のカメラ画像における認識物体12の座標情報を取得する。そして、当該制御部3f〜6fが、この座標情報を利用して、隣接するカメラ画像に表示されるマーカー13と滑らかに接続するマーカー13を自己のカメラ画像に付す(ステップS7、付加工程)。   Next, the control units 3f to 6f determine whether or not the recognition object 12 is located at the boundaries A to D between a pair of adjacent camera images (step S6). In step S6, if it is determined that the recognition object 12 is positioned at the boundaries A to D of the adjacent camera images, the camera units 3f to 6f of the pair of camera modules 3 to 6 that capture these camera images capture each camera image. Is marked with a marker 13. At this time, the control units 3 f to 6 f of any one of the camera modules 3 to 6 acquire the coordinate information of the recognition object 12 in the camera images of the other camera modules 3 to 6 through the vehicle network 9. And the said control parts 3f-6f attach | subject the marker 13 smoothly connected with the marker 13 displayed on an adjacent camera image to an own camera image using this coordinate information (step S7, addition process).

このように、画像中の認識物体12にマーカー13が付されると、次いで、各カメラモジュール3〜6において当該画像が視点変換画像生成部3c〜6cにより視点変換され、俯瞰画像つまりカメラ画像とされる(ステップS8)。そして、ステップS8で生成された各カメラモジュール3〜6の俯瞰画像がリアカメラモジュール6の画像合成部6iで合成されて車両周辺画像とされ(ステップS9)、リアカメラモジュール6の出力部6dから表示手段7に向けて当該画像が出力される(ステップS10)。   As described above, when the marker 13 is attached to the recognition object 12 in the image, the viewpoint is then converted by the viewpoint conversion image generation units 3c to 6c in each of the camera modules 3 to 6, and an overhead view image, that is, a camera image. (Step S8). Then, the bird's-eye view images of the camera modules 3 to 6 generated in step S8 are combined by the image combining unit 6i of the rear camera module 6 to be a vehicle peripheral image (step S9), and from the output unit 6d of the rear camera module 6 The image is output toward the display means 7 (step S10).

一方、ステップS4において、認識物体12が無いと判断された場合には、画像にマーカー13が付加されることなく、ステップS8〜ステップS10の処理が行われる。   On the other hand, if it is determined in step S4 that there is no recognized object 12, the process of steps S8 to S10 is performed without adding the marker 13 to the image.

また、ステップS6において、認識物体12が隣り合うカメラ画像の境界に位置しないと判断された場合には、物体12が位置するカメラ画像を撮像するカメラモジュール3〜6により、当該カメラ画像中の認識物体12にマーカー13が付され(ステップS11)、以下ステップS8〜ステップS10の処理が行われる。   If it is determined in step S6 that the recognized object 12 is not located at the boundary between adjacent camera images, the camera modules 3 to 6 that capture the camera image where the object 12 is positioned recognizes the recognized image in the camera image. The marker 13 is attached to the object 12 (step S11), and the processing from step S8 to step S10 is performed.

以上説明したように、上記カメラシステム1では、各カメラモジュール3〜6に撮像した画像から物体認識処理により認識物体12を検出する物体認識部3j〜6jと、撮像した画像に認識物体12に対するマーカー13を付す制御部3f〜6fとを設けるようにしている。これにより、表示手段7として例えば画像の表示機能のみしか有さないような安価なものを用いた場合であっても、物体認識処理に伴う表示を可能とするカメラシステム1を実現することができ、システム全体としてのコストを低減することができる。また、各カメラモジュール3〜6に、そのカメラ画像を俯瞰画像に変換する視点変換画像生成部3c〜6cを設けたことによっても、表示手段7として画像の表示機能のみを有する安価なものを用いることを可能として、このカメラシステム1のコストを低減することができる。   As described above, in the camera system 1, the object recognition units 3j to 6j that detect the recognition object 12 by the object recognition process from the images captured by the camera modules 3 to 6, and the marker for the recognition object 12 in the captured image. 13 is provided with control units 3f to 6f. As a result, it is possible to realize the camera system 1 that enables display associated with the object recognition process even when an inexpensive device that has only an image display function, for example, is used as the display unit 7. The cost of the entire system can be reduced. Further, by providing viewpoint conversion image generation units 3c to 6c for converting the camera image into a bird's-eye view image in each camera module 3 to 6, an inexpensive one having only an image display function is used as the display means 7. As a result, the cost of the camera system 1 can be reduced.

さらに、上記カメラシステム1では、それぞれのカメラモジュール3〜6に、その撮像部3b〜6bが撮像した画像から認識された認識物体12の座標情報を車両ネットワーク9に出力する通信部3g〜6gを設けるようにしたので、互いに隣接するカメラ画像の境界A〜Dに認識物体12が位置した場合に、これらのカメラ画像にマーカー13を付する2つのカメラモジュール3〜6が、車両ネットワーク9を介して他のカメラモジュール3〜6の画像において認識された認識物体12の座標情報を利用することを可能として、当該カメラモジュール3〜6の制御部3f〜6fに認識物体12に正確にマーカー13を付させることができる。   Furthermore, in the camera system 1, the communication units 3g to 6g for outputting the coordinate information of the recognition object 12 recognized from the images captured by the imaging units 3b to 6b to the vehicle network 9 are provided to the camera modules 3 to 6, respectively. Since the recognition object 12 is located at the boundaries A to D of the adjacent camera images, the two camera modules 3 to 6 that attach the markers 13 to these camera images are connected via the vehicle network 9. The coordinate information of the recognized object 12 recognized in the images of the other camera modules 3 to 6 can be used, and the marker 13 is accurately placed on the recognized object 12 to the control units 3f to 6f of the camera modules 3 to 6. It can be attached.

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本発明の範囲に含まれることに留意されたい。   Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention.

前記実施形態では、スレーブとなるカメラモジュール3〜6が車両ネットワーク9を介してマスターのカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付すようにしているが、これに限らない。すなわち、少なくとも1つのカメラモジュール3〜6が車両ネットワーク9を介して他のカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付す構成であればよい。例えば、隣接するカメラ画像を出力する両方のカメラモジュール3〜6が、それぞれ車両ネットワーク9を介して他のカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付す構成とすることもできる。   In the embodiment, the camera modules 3 to 6 as slaves acquire the coordinate information of the recognition object 12 from the master camera modules 3 to 6 via the vehicle network 9 and use the acquired coordinate information in the image. Although the marker 13 is attached, it is not limited to this. That is, at least one camera module 3 to 6 acquires the coordinate information of the recognition object 12 from the other camera modules 3 to 6 via the vehicle network 9, and uses the acquired coordinate information to place the marker 13 in the image. Any structure may be used. For example, both camera modules 3 to 6 that output adjacent camera images acquire the coordinate information of the recognition object 12 from the other camera modules 3 to 6 via the vehicle network 9 and use the acquired coordinate information. Thus, the marker 13 may be added to the image.

また、いずれか一つのカメラモジュール3〜6の制御部3f〜6fを主制御部に設定し、この主制御部とされた制御部3f〜6fが車両ネットワーク9を介して他の全てのカメラモジュール3〜6から認識物体12の座標情報を取得し、その取得した座標情報を利用して全てのカメラ画像つまり車両周辺画像にマーカー13を付す構成とすることもできる。この場合、車両ネットワーク9に接続されたECU等の処理ユニット10により、車両ネットワーク9の規格におけるネゴシエーションのプロトコルに準拠して、各カメラモジュール3〜6にアドレス等の識別情報が割り当てられ、この割り当てられた識別情報に応じて、いずれか1つのカメラモジュール3〜6の制御部3f〜6fを主制御部に設定するように構成することができる。主制御部とされた制御部3f〜6fは、車両ネットワーク9を介して他のカメラモジュール3〜6の制御部3f〜6fから他のカメラ画像における認識物体12の座標情報を取得する。そして、自己のカメラ画像における認識物体12の座標情報と、他のカメラ画像における認識物体12の座標情報とに基づいて全てのカメラ画像(車両周辺画像)へのマーカー付加処理を行う。このように主制御部とされた制御部3f〜6fは車両ネットワーク9を介して他の制御部3f〜6fを統合制御して、車両周辺画像にマーカー13を付すことができる。   Further, the control units 3f to 6f of any one of the camera modules 3 to 6 are set as the main control unit, and the control units 3f to 6f, which are set as the main control unit, all other camera modules via the vehicle network 9. It is also possible to obtain the coordinate information of the recognition object 12 from 3 to 6 and attach the marker 13 to all the camera images, that is, the vehicle peripheral images using the obtained coordinate information. In this case, identification information such as an address is assigned to each of the camera modules 3 to 6 in accordance with the negotiation protocol in the standard of the vehicle network 9 by the processing unit 10 such as an ECU connected to the vehicle network 9. The control units 3f to 6f of any one of the camera modules 3 to 6 can be configured to be set as the main control unit according to the identification information. The control units 3f to 6f serving as the main control unit acquire coordinate information of the recognition object 12 in other camera images from the control units 3f to 6f of the other camera modules 3 to 6 via the vehicle network 9. Then, marker addition processing is performed on all camera images (vehicle peripheral images) based on the coordinate information of the recognized object 12 in its own camera image and the coordinate information of the recognized object 12 in other camera images. As described above, the control units 3f to 6f, which are the main control units, can control the other control units 3f to 6f through the vehicle network 9 to attach the marker 13 to the vehicle peripheral image.

この場合においては、主制御部に設定される制御部6fつまりリアカメラモジュール6の制御部6fのみが画像中にマーカー13を付す機能のソフトウェアがアクティブ化され、他のカメラモジュール3〜5の制御部3f〜5fは、画像中にマーカー13を付す機能のソフトウェアがインアクティブ化するように構成される。また、他のカメラモジュールの制御部が主制御部に設定されたときには、その制御部のみが、画像中にマーカー13を付す機能のソフトウェアがアクティブ化され、他のカメラモジュールの制御部の当該機能のソフトウェアはインアクティブ化される。したがって、主制御部に設定した制御部により、車両ネットワーク9を介して他の制御部を統合制御する構成とした場合であっても、各カメラモジュール3〜6として同じ構成のものを用いることを可能として、このカメラシステム1の全体的なコストを低減することができる。   In this case, only the control unit 6f set as the main control unit, that is, the control unit 6f of the rear camera module 6 activates software having a function of attaching the marker 13 in the image, and controls the other camera modules 3 to 5. The units 3f to 5f are configured such that software having a function of attaching the marker 13 in the image is inactivated. Further, when the control unit of another camera module is set as the main control unit, only the control unit activates software having a function of attaching the marker 13 in the image, and the function of the control unit of the other camera module is activated. The software is deactivated. Therefore, even if it is a case where it is a case where it is set as the structure which carries out the integrated control of the other control part via the vehicle network 9 by the control part set to the main control part, it shall use the thing of the same structure as each camera module 3-6. As a result, the overall cost of the camera system 1 can be reduced.

さらに、前記実施形態においては、車両2に4つのカメラモジュール3〜6を設けるようにしているが、これに限らず、車両2の周辺を撮像することができれば、カメラモジュール3〜6の数は任意に設定することができる。   Furthermore, in the said embodiment, although the four camera modules 3-6 are provided in the vehicle 2, if not only this but the periphery of the vehicle 2 can be imaged, the number of the camera modules 3-6 will be. It can be set arbitrarily.

さらに、前記実施形態においては、撮像部3b〜6bが撮像した画像にマーカー13を付し、マーカー13が付された画像を表示手段7に出力するようにしているが、これに限らず、カメラ画像とは別に生成したマーカー画像を、車両ネットワーク9を介して表示手段7に入力し、表示手段7においてカメラ画像にマーカー画像を重畳表示させるようにしてもよい。   Furthermore, in the said embodiment, although the marker 13 is attached | subjected to the image imaged by the imaging parts 3b-6b, and the image to which the marker 13 was attached is output to the display means 7, it is not restricted to this, A camera A marker image generated separately from the image may be input to the display unit 7 via the vehicle network 9, and the marker image may be superimposed on the camera image on the display unit 7.

さらに、前記実施形態では、各カメラモジュール3〜6に視点変換画像生成部3c〜6cを設け、撮像部3b〜6bが撮像した画像を視点変換画像生成部3c〜6cにより俯瞰画像に加工してから表示手段7に出力するようにしているが、これに限らず、撮像部3b〜6bが撮像した画像をそのまま表示手段7に出力するようにしてもよい。また、視点変換画像生成部3c〜6cをリアカメラモジュール6にのみ設けて画像合成部6iが合成した画像を一括して俯瞰画像に加工するようにしてもよい。また、視点変換画像生成部3c〜6cを表示手段7に設けて表示手段7において各カメラ画像または車両周辺画像を俯瞰画像に加工するようにしてもよい。   Furthermore, in the said embodiment, the viewpoint conversion image generation parts 3c-6c are provided in each camera module 3-6, and the image imaged by the imaging parts 3b-6b is processed into a bird's-eye view image by the viewpoint conversion image generation parts 3c-6c. However, the present invention is not limited to this, and the images captured by the imaging units 3b to 6b may be output to the display unit 7 as they are. Alternatively, the viewpoint conversion image generation units 3c to 6c may be provided only in the rear camera module 6, and the images synthesized by the image synthesis unit 6i may be collectively processed into an overhead image. Alternatively, the viewpoint conversion image generation units 3c to 6c may be provided in the display unit 7 so that each camera image or vehicle peripheral image is processed into a bird's-eye view image in the display unit 7.

さらに、前記実施形態においては、フロントカメラモジュール3と両サイドカメラモジュール4,5とをリアカメラモジュール6に接続し、リアカメラモジュール6に設けた画像合成部6iおいて各カメラモジュール3〜6が撮像したカメラ画像を合成し、表示手段7に出力するようにしているが、これに限らず、全てのカメラモジュール3〜6を表示手段7に直接接続する構成としてもよい。この場合、リアカメラモジュール6を、図3に示す他のカメラモジュール3〜5と同様の構成として、このカメラモジュール3〜6の汎用性を高めることができる。   Further, in the above embodiment, the front camera module 3 and the both side camera modules 4 and 5 are connected to the rear camera module 6, and each camera module 3 to 6 is included in the image composition unit 6 i provided in the rear camera module 6. Although the captured camera images are synthesized and output to the display unit 7, the present invention is not limited thereto, and all the camera modules 3 to 6 may be directly connected to the display unit 7. In this case, the rear camera module 6 has the same configuration as the other camera modules 3 to 5 shown in FIG. 3, and the versatility of the camera modules 3 to 6 can be enhanced.

さらに、前記実施の形態においては、各カメラモジュール3〜6は、通信部3g〜6gにより、自己の撮像部3b〜6bが撮像した画像から認識した認識物体12の座標情報を車両ネットワーク9に出力するが、認識物体12の座標情報に加えて、認識物体12の移動ベクトル情報や各カメラモジュール3〜6の制御部3f〜6fが生成したマーカー13の座標情報の少なくともいずれか一つをさらに車両ネットワーク9に出力するようにしてもよい。この場合、スレーブのカメラモジュール3〜6は、車両ネットワーク9を介して取得したマスターのカメラモジュール3〜6からの認識物体12の座標情報に加えて、認識物体12の移動ベクトル情報や各カメラモジュール3〜6の制御部3f〜6fが生成したマーカー13の座標情報を利用して、自己のマーカー13を生成することができる。これにより、制御部3f〜6fにより、より正確にマーカー13を表示することができる。マーカー13の座標情報としては、例えばマーカー13が矩形の場合には、カメラ画像中におけるマーカー13の基準位置の座標情報および各辺の長さおよび方向等の情報、マーカー13が円形の場合には、その中心位置の座標情報およびその半径寸法の情報とするなど、マーカー13を生成することができる座標情報を含むようにすることができる。   Furthermore, in the said embodiment, each camera module 3-6 outputs the coordinate information of the recognition object 12 recognized from the image which self imaging part 3b-6b image | photographed to the vehicle network 9 by the communication parts 3g-6g. However, in addition to the coordinate information of the recognition object 12, at least one of the movement vector information of the recognition object 12 and the coordinate information of the marker 13 generated by the control units 3f to 6f of the camera modules 3 to 6 is further transmitted to the vehicle. You may make it output to the network 9. FIG. In this case, in addition to the coordinate information of the recognition object 12 from the master camera modules 3 to 6 acquired via the vehicle network 9, the slave camera modules 3 to 6 move vector information of the recognition object 12 and each camera module. The own marker 13 can be generated using the coordinate information of the marker 13 generated by the 3 to 6 control units 3f to 6f. Thereby, the marker 13 can be more accurately displayed by the control units 3f to 6f. As the coordinate information of the marker 13, for example, when the marker 13 is rectangular, the coordinate information of the reference position of the marker 13 in the camera image and information such as the length and direction of each side, and when the marker 13 is circular The coordinate information that can generate the marker 13 can be included, such as coordinate information of the center position and information of the radial dimension thereof.

さらに、前記実施形態では、車両周辺画像において隣り合う一対のカメラ画像が境界A〜Dを境に接している場合を示しているが、隣り合うカメラ画像の双方に物体12が位置するように表示することができれば、隣り合うカメラ画像の間に隙間があってもよい。   Furthermore, in the said embodiment, although the case where a pair of adjacent camera images in a vehicle periphery image touches boundary A-D is shown, it displays so that the object 12 may be located in both adjacent camera images. If possible, there may be a gap between adjacent camera images.

1 カメラシステム
2 車両
3 フロントカメラモジュール
4,5 サイドカメラモジュール
6 リアカメラモジュール
3a〜6a レンズ部
3b〜6b 撮像部
3c〜6c 視点変換画像生成部
3d〜6d 出力部
3e〜6e 電源部
3f〜6f 制御部
3g〜6g 通信部
3h〜6h 記憶部
6i 画像合成部
3j〜6j 物体認識部
7 表示手段
7a 画面
7a1〜7a4 分割範囲
8 車両モデル
9 車両ネットワーク
10 処理ユニット
11 物体認識部
12 物体
13 マーカー
A〜D 境界
x,x1 領域
y,y1 領域
DESCRIPTION OF SYMBOLS 1 Camera system 2 Vehicle 3 Front camera module 4,5 Side camera module 6 Rear camera module 3a-6a Lens part 3b-6b Imaging part 3c-6c Viewpoint conversion image generation part 3d-6d Output part 3e-6e Power supply part 3f-6f Control unit 3g to 6g Communication unit 3h to 6h Storage unit 6i Image composition unit 3j to 6j Object recognition unit 7 Display unit 7a Screen 7a1 to 7a4 Division range 8 Vehicle model 9 Vehicle network 10 Processing unit 11 Object recognition unit 12 Object 13 Marker A ~ D boundary x, x1 area y, y1 area

Claims (1)

数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行う統合画像処理システムであって、
それぞれの前記カメラモジュールに対応して設けられ該カメラモジュールが撮像したカメラ画像から物体認識処理を行う複数の物体認識部と、
それぞれ対応する前記物体認識部に接続され、前記車両に設けられた車両ネットワークを介した通信を行う複数の通信部と、を有し、
それぞれの前記通信部は、当該通信部が接続された前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力し、
前記複数の通信部の少なくとも一つは、前記車両ネットワークを介して他の前記通信部から前記認識物体の座標情報を取得することを特徴とする統合画像処理システム。
Form if each camera image by the camera module of the multiple is captured, an integrated image processing system for displaying a vehicle periphery image on the display unit in the vehicle,
A plurality of object recognition units that are provided corresponding to the respective camera modules and that perform object recognition processing from camera images captured by the camera modules ;
A plurality of communication units that are connected to the corresponding object recognition units and perform communication via a vehicle network provided in the vehicle,
Each of the communication units outputs the coordinate information of the recognized object recognized by the object recognition unit to which the communication unit is connected to the vehicle network ,
At least one of the plurality of communication units acquires coordinate information of the recognized object from another communication unit via the vehicle network .
JP2016198541A 2016-10-06 2016-10-06 Integrated image processing system Active JP6185135B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016198541A JP6185135B2 (en) 2016-10-06 2016-10-06 Integrated image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016198541A JP6185135B2 (en) 2016-10-06 2016-10-06 Integrated image processing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012281745A Division JP6022930B2 (en) 2012-12-25 2012-12-25 Camera system, camera module, and camera control method

Publications (2)

Publication Number Publication Date
JP2017022780A JP2017022780A (en) 2017-01-26
JP6185135B2 true JP6185135B2 (en) 2017-08-23

Family

ID=57888480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016198541A Active JP6185135B2 (en) 2016-10-06 2016-10-06 Integrated image processing system

Country Status (1)

Country Link
JP (1) JP6185135B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019138589A1 (en) * 2018-01-15 2019-07-18 シャープ株式会社 Lens unit, image pickup device, vehicle surrounding monitoring system, jig for assembling image pickup device, and method for assembling image pickup device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003163926A (en) * 2001-11-26 2003-06-06 Sumitomo Electric Ind Ltd In-car communication system, data processor, and car- mounted apparatus
JP2004147190A (en) * 2002-10-25 2004-05-20 Matsushita Electric Ind Co Ltd Image pickup device with image synthesizing function and imaging system
JP4647975B2 (en) * 2004-11-17 2011-03-09 オリンパス株式会社 Image generation device
JP2007067510A (en) * 2005-08-29 2007-03-15 Toshiba Corp Video image photography system
JP4752486B2 (en) * 2005-12-15 2011-08-17 株式会社日立製作所 Imaging device, video signal selection device, driving support device, automobile
JP4702106B2 (en) * 2006-03-02 2011-06-15 株式会社デンソー Blind spot support information notification device and program
JP4325642B2 (en) * 2006-05-31 2009-09-02 ソニー株式会社 Mobile camera system
JP5073528B2 (en) * 2008-02-21 2012-11-14 日立オートモティブシステムズ株式会社 Vehicle fixed-point stop control method and apparatus
JP5696872B2 (en) * 2010-03-26 2015-04-08 アイシン精機株式会社 Vehicle periphery monitoring device

Also Published As

Publication number Publication date
JP2017022780A (en) 2017-01-26

Similar Documents

Publication Publication Date Title
JP6022930B2 (en) Camera system, camera module, and camera control method
JP6937443B2 (en) Imaging device and control method of imaging device
CN105308620B (en) Information processing apparatus, proximity object notification method, and program
WO2016002163A1 (en) Image display device and image display method
JP5321711B2 (en) Vehicle periphery monitoring device and video display method
JP6406159B2 (en) In-vehicle display control device, in-vehicle display control method
JP6213567B2 (en) Predicted course presentation device and predicted course presentation method
KR101198206B1 (en) System for providing image around vehicle with portable terminal and method thereof
JP2012040883A (en) Device for generating image of surroundings of vehicle
JP6375633B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2016119559A (en) Circumference monitoring device of work machine
JP6185135B2 (en) Integrated image processing system
JP6407596B2 (en) Image processing apparatus and driving support system
JP6788447B2 (en) Video output system
JP2005182305A (en) Vehicle travel support device
JP2013211035A (en) Vehicle periphery display device
JP2017222224A (en) Imaging apparatus and imaging system
JP4685050B2 (en) Display device
JP2006254318A (en) Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method
JP4730819B2 (en) Peripheral status display device and peripheral status display method
US20210377485A1 (en) Imaging device
JP6209921B2 (en) Predictive course presentation system
JP2015182670A (en) Drive support device
KR20150129542A (en) Operating method of around view system
JP6252756B2 (en) Image processing apparatus, driving support apparatus, navigation apparatus, and camera apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170726

R150 Certificate of patent or registration of utility model

Ref document number: 6185135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150