[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5658507B2 - Image display system, image generation apparatus, and image display method - Google Patents

Image display system, image generation apparatus, and image display method Download PDF

Info

Publication number
JP5658507B2
JP5658507B2 JP2010176928A JP2010176928A JP5658507B2 JP 5658507 B2 JP5658507 B2 JP 5658507B2 JP 2010176928 A JP2010176928 A JP 2010176928A JP 2010176928 A JP2010176928 A JP 2010176928A JP 5658507 B2 JP5658507 B2 JP 5658507B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
vehicle
display
viewed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010176928A
Other languages
Japanese (ja)
Other versions
JP2012039341A (en
Inventor
正博 山田
正博 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2010176928A priority Critical patent/JP5658507B2/en
Publication of JP2012039341A publication Critical patent/JP2012039341A/en
Application granted granted Critical
Publication of JP5658507B2 publication Critical patent/JP5658507B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両において画像を表示する技術に関する。   The present invention relates to a technique for displaying an image in a vehicle.

従来より、自動車などの車両に搭載され、車載カメラで得られる撮影画像に基づいて車両の周辺の領域を示す周辺画像を車室内のディスプレイに表示する画像表示システムが知られている。この画像表示システムを利用することにより、ユーザ(代表的にはドライバ)は車両の周辺の様子をほぼリアルタイムに把握することができる。   2. Description of the Related Art Conventionally, there is known an image display system that is mounted on a vehicle such as an automobile and displays a peripheral image indicating a region around the vehicle on a display in a vehicle interior based on a captured image obtained by an in-vehicle camera. By using this image display system, a user (typically a driver) can grasp the situation around the vehicle almost in real time.

例えば、運転席の逆側となるフロントフェンダの外側領域は運転席から死角となりやすく、車体と障害物との間のクリアランスをユーザが把握しにくい。これに対して、画像表示システムを利用すれば、車両の側方に配置された車載カメラの撮影画像に基づいてフロントフェンダの外側領域を示す周辺画像を車室内のディスプレイに表示できる。これにより、車両の幅寄せを行う場合などにおいて、運転席の逆側の車体と障害物との間のクリアランスをユーザが容易に確認できることとなる。   For example, the outer region of the front fender that is on the opposite side of the driver's seat is likely to be a blind spot from the driver's seat, and it is difficult for the user to grasp the clearance between the vehicle body and the obstacle. On the other hand, if an image display system is used, a peripheral image showing an outer region of the front fender can be displayed on a display in the vehicle interior based on a photographed image of an in-vehicle camera arranged on the side of the vehicle. As a result, the user can easily confirm the clearance between the vehicle body on the opposite side of the driver's seat and the obstacle, for example, when the vehicle is brought close.

なお、本明細書で説明する技術に関連する技術を開示した文献として特許文献1がある。   Note that there is Patent Document 1 as a document disclosing a technology related to the technology described in this specification.

特開2007−210458号公報JP 2007-210458 A

近年では、車両の前方、後方、側方などの複数の位置に車載カメラを配置し、それら複数の車載カメラで得られる撮影画像に基づく周辺画像を表示する画像表示システムも提案されている。このような画像表示システムでは、異なる視点からみた周辺画像を表示することが可能である。例えば、車両の前方の視点からみた周辺画像や、車両の後方の視点からみた周辺画像などを表示することができる。   In recent years, an image display system has been proposed in which vehicle-mounted cameras are arranged at a plurality of positions such as the front, rear, and side of a vehicle, and peripheral images based on captured images obtained by the plurality of vehicle-mounted cameras are displayed. In such an image display system, it is possible to display surrounding images viewed from different viewpoints. For example, it is possible to display a peripheral image viewed from the front viewpoint of the vehicle, a peripheral image viewed from the rear viewpoint of the vehicle, and the like.

しかしながら、このように複数の視点からみた周辺画像を表示可能な画像表示システムでは、ディスプレイの表示内容を周辺画像に切り替えた場合に、表示された周辺画像がいずれの視点からみた周辺画像であるかをユーザが直感的に把握しにくい。   However, in such an image display system that can display a peripheral image viewed from a plurality of viewpoints, when the display content is switched to the peripheral image, from which viewpoint the displayed peripheral image is the peripheral image viewed It is difficult for the user to grasp intuitively.

例えば、車両の周辺の地図画像の表示状態において、車両の後方の視点からみた周辺画像に表示内容を切り替えた場合において、切り替え後に表示された周辺画像が、いずれ視点からみたものであるかをユーザが直感的に把握することが難しいことがある。また、車両の前方の視点からみた周辺画像の表示状態において、車両の後方の視点からみた周辺画像に表示内容を切り替えた場合など、表示する周辺画像の視点が変更された場合においても同様である。   For example, in the display state of the map image around the vehicle, when the display content is switched to the peripheral image viewed from the viewpoint behind the vehicle, the user determines from which viewpoint the peripheral image displayed after the switching is viewed May be difficult to grasp intuitively. The same applies to the case where the viewpoint of the peripheral image to be displayed is changed, such as when the display content is switched to the peripheral image viewed from the rear viewpoint of the vehicle in the display state of the peripheral image viewed from the front viewpoint of the vehicle. .

本発明は、上記課題に鑑みてなされたものであり、周辺画像に表示内容を切り替える場合において、切り替え後に表示された周辺画像がどの視点からみた周辺画像であるかをユーザが直感的に把握できる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and in the case of switching display contents to a peripheral image, the user can intuitively grasp from which viewpoint the peripheral image displayed after switching is viewed from which viewpoint. The purpose is to provide technology.

上記課題を解決するため、請求項1の発明は、車両に搭載される画像表示システムであって、前記車両に配置された複数のカメラそれぞれの撮影画像を入力する入力手段と、前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する画像生成手段と、前記撮影画像に基づく第1視点からみた第1周辺画像に、前記第1視点と異なる第2視点からみた第2周辺画像から表示内容を切り替える場合に、複数の前記合成画像を時間的に連続して表示して、前記第2視点から前記車両を俯瞰する視点である基準視点を経由して前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行う表示手段と、を備えている。
In order to solve the above-described problems, an invention according to claim 1 is an image display system mounted on a vehicle, wherein input means for inputting captured images of a plurality of cameras arranged in the vehicle, and the captured image Based on the image generating means for generating a composite image showing a region around the vehicle viewed from an arbitrary virtual viewpoint, and a first peripheral image viewed from the first viewpoint based on the captured image, the first peripheral image is different from the first viewpoint. When switching the display content from the second peripheral image viewed from two viewpoints , a plurality of the composite images are displayed continuously in time, via a reference viewpoint that is a viewpoint overlooking the vehicle from the second viewpoint. position of the virtual viewpoint to the first viewpoint is provided with a display means for performing an animation expression to move stepwise, the Te.

また、請求項の発明は、車両に搭載される画像表示システムであって、前記車両に配置された複数のカメラそれぞれの撮影画像を入力する入力手段と、前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する画像生成手段と、前記車両の周辺の地図画像を表示可能な表示手段と、上空から地上を撮影した写真画像を取得する写真取得手段と、を備え、前記表示手段は、前記地図画像から、前記撮影画像に基づく第1視点からみた第1周辺画像に表示内容を切り替える場合に、前記地図画像と略同一の縮尺で前記車両の周囲の領域を示す前記写真画像を表示した後、前記車両を俯瞰する視点である基準視点からみた前記合成画像と略同一の縮尺で前記車両の周囲の領域を示すまで前記写真画像の被写体像を段階的に拡大し、さらに、複数の前記合成画像を時間的に連続して表示して、前記基準視点から前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行う
Further, the invention of claim 2 is an image display system mounted on a vehicle, wherein an input means for inputting captured images of each of a plurality of cameras arranged in the vehicle, and an arbitrary one based on the captured images Image generation means for generating a composite image showing a region around the vehicle viewed from a virtual viewpoint, display means for displaying a map image around the vehicle, and photo acquisition for acquiring a photographic image of the ground taken from the sky And when the display content is switched from the map image to a first peripheral image viewed from a first viewpoint based on the photographed image, the display unit of the vehicle is approximately the same scale as the map image. after displaying the photographic image showing the periphery of the region, the said image in the synthesized image substantially the same scale as viewed from the reference viewpoint is a bird's-eye-view of the vehicle to show the area around the vehicle Expanding the body image in stages, further, to display continuously a plurality of the composite image temporally, animation representation the position of the virtual viewpoint from the reference viewpoint to the first viewpoint is moved stepwise Do.

また、請求項の発明は、車両に搭載される表示装置に表示させる画像を生成する画像生成装置であって、前記車両に配置された複数のカメラそれぞれの撮影画像を入力する入力手段と、前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する画像生成手段と、前記表示装置に画像を出力して表示させる出力手段と、を備え、前記表示装置は、前記撮影画像に基づく第1視点からみた第1周辺画像に、前記第1視点と異なる第2視点からみた第2周辺画像から表示内容を切り替える場合に、複数の前記合成画像を時間的に連続して表示して、前記第2視点から前記車両を俯瞰する視点である基準視点を経由して前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行う
また、請求項4の発明は、車両に搭載される表示装置に表示させる画像を生成する画像生成装置であって、前記車両に配置された複数のカメラそれぞれの撮影画像を入力する入力手段と、前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する画像生成手段と、前記表示装置に画像を出力して表示させる出力手段と、上空から地上を撮影した写真画像を取得する写真取得手段と、を備え、前記表示装置は、前記車両の周辺の地図画像から、前記撮影画像に基づく第1視点からみた第1周辺画像に表示内容を切り替える場合に、前記地図画像と略同一の縮尺で前記車両の周囲の領域を示す前記写真画像を表示した後、前記車両を俯瞰する視点である基準視点からみた前記合成画像と略同一の縮尺で前記車両の周囲の領域を示すまで前記写真画像の被写体像を段階的に拡大し、さらに、複数の前記合成画像を時間的に連続して表示して、前記基準視点から前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行う。
Further, the invention of claim 3 is an image generation device that generates an image to be displayed on a display device mounted on a vehicle, and an input unit that inputs captured images of each of a plurality of cameras arranged in the vehicle; Image generating means for generating a composite image showing a region around the vehicle viewed from an arbitrary virtual viewpoint based on the captured image, and output means for outputting and displaying an image on the display device, When switching display content from a second peripheral image viewed from a second viewpoint different from the first viewpoint to a first peripheral image viewed from a first viewpoint based on the captured image , the display device displays a plurality of the synthesized images as a time. displaying continuous and performs animation representation the position of the virtual viewpoint from the second viewpoint to the first viewpoint via the standard viewpoint is looking down perspective the vehicle moves stepwise.
The invention of claim 4 is an image generation device for generating an image to be displayed on a display device mounted on a vehicle, and an input means for inputting captured images of each of a plurality of cameras arranged in the vehicle; Based on the photographed image, an image generating means for generating a composite image showing a region around the vehicle viewed from an arbitrary virtual viewpoint, an output means for outputting and displaying an image on the display device, and the ground from above Photograph acquisition means for acquiring a photographed photograph image, and the display device switches a display content from a map image around the vehicle to a first peripheral image viewed from a first viewpoint based on the photographed image. After displaying the photographic image showing the area around the vehicle at approximately the same scale as the map image, the front at approximately the same scale as the composite image viewed from a reference viewpoint that is a viewpoint overlooking the vehicle The subject image of the photographic image is enlarged step by step until it shows an area around the vehicle, and a plurality of the composite images are displayed continuously in time, and the virtual image from the reference viewpoint to the first viewpoint is displayed. Animated expression in which the position of the viewpoint moves step by step.

また、請求項の発明は、車両に搭載される表示装置に画像を表示する画像表示方法であって、(a)前記車両に配置された複数のカメラそれぞれの撮影画像を入力する工程と、(b)前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、(c)前記表示装置が画像を表示する工程と、を備え、前記工程(c)は、前記撮影画像に基づく第1視点からみた第1周辺画像に、前記第1視点と異なる第2視点からみた第2周辺画像から表示内容を切り替える場合に、複数の前記合成画像を時間的に連続して表示して、前記第2視点から前記車両を俯瞰する視点である基準視点を経由して前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行う
また、請求項6の発明は、車両に搭載される表示装置に画像を表示する画像表示方法であって、(a)前記車両に配置された複数のカメラそれぞれの撮影画像を入力する工程と、(b)前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、(c)上空から地上を撮影した写真画像を取得する工程と、(d)前記表示装置が画像を表示する工程と、を備え、前記工程(d)は、前記車両の周辺の地図画像から、前記撮影画像に基づく第1視点からみた第1周辺画像に表示内容を切り替える場合に、前記地図画像と略同一の縮尺で前記車両の周囲の領域を示す前記写真画像を表示した後、前記車両を俯瞰する視点である基準視点からみた前記合成画像と略同一の縮尺で前記車両の周囲の領域を示すまで前記写真画像の被写体像を段階的に拡大し、さらに、複数の前記合成画像を時間的に連続して表示して、前記基準視点から前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行う。
Further, the invention of claim 5 is an image display method for displaying an image on a display device mounted on a vehicle, and (a) a step of inputting captured images of each of a plurality of cameras arranged in the vehicle; (B) generating a composite image indicating a region around the vehicle viewed from an arbitrary virtual viewpoint based on the captured image; and (c) displaying the image on the display device, In the step (c), when the display content is switched from the second peripheral image viewed from a second viewpoint different from the first viewpoint to the first peripheral image viewed from the first viewpoint based on the photographed image, a plurality of the composite images Is displayed continuously in time, and an animation expression is performed in which the position of the virtual viewpoint moves stepwise from the second viewpoint to the first viewpoint via a reference viewpoint that is a viewpoint overlooking the vehicle. .
The invention of claim 6 is an image display method for displaying an image on a display device mounted on a vehicle, wherein (a) a step of inputting captured images of each of a plurality of cameras arranged in the vehicle; (B) based on the captured image, generating a composite image showing a region around the vehicle viewed from an arbitrary virtual viewpoint, (c) acquiring a photographic image of the ground photographed from above, d) the display device displaying an image, wherein the step (d) displays a display content from a map image around the vehicle to a first peripheral image viewed from a first viewpoint based on the captured image. In the case of switching, after displaying the photographic image showing the area around the vehicle at approximately the same scale as the map image, the scale image is approximately the same as the composite image viewed from a reference viewpoint that is a viewpoint overlooking the vehicle. Area around the vehicle The subject image of the photographic image is enlarged stepwise until it is shown, and a plurality of the synthesized images are continuously displayed in time, and the position of the virtual viewpoint is stepped from the reference viewpoint to the first viewpoint. Animated expression to move to.

請求項1、3及び5の発明によれば、表示する周辺画像の視点を切り替える場合に、車両を俯瞰する視点を経由して周辺画像の視点まで仮想視点が段階的に移動するアニメーション表現がなされる。このため、切り替え後に表示された周辺画像がどの視点からみた周辺画像であるかをユーザが直感的に把握できる。
According to the first , third, and fifth aspects of the present invention, when the viewpoint of the surrounding image to be displayed is switched, an animation expression is performed in which the virtual viewpoint moves stepwise from the viewpoint overlooking the vehicle to the viewpoint of the surrounding image. The For this reason, the user can intuitively grasp from which viewpoint the peripheral image displayed after the switching is viewed.

また、請求項2、4及び6の発明によれば、地図画像から周辺画像に表示内容を切り替える場合において、地図画像と略同一の縮尺で車両の周囲の領域を示す写真画像を表示し、その後、基準視点からみた合成画像と略同一縮尺で車両の周囲の領域を示すまで写真画像の被写体像を段階的に拡大する。さらに、基準視点から周辺画像の視点まで仮想視点が段階的に移動するアニメーション表現がなされる。このため、表示切替前の地図画像から表示切替後の周辺画像まで、表示する画像の視点をスムーズに変更することができる。その結果、表示手段に表示された周辺画像がどの視点からみた周辺画像であるかをユーザがさらに直感的に把握できる。
According to the invention of Motomeko 2, 4 and 6, in the case of switching the display content to the peripheral image from the map image, to display the image indicating the area around the vehicle in the map image substantially the same scale, Thereafter, the subject image of the photographic image is enlarged step by step until the area around the vehicle is shown at substantially the same scale as the synthesized image viewed from the reference viewpoint. Furthermore, an animation expression is performed in which the virtual viewpoint moves stepwise from the reference viewpoint to the viewpoint of the surrounding image. For this reason, the viewpoint of the image to display can be changed smoothly from the map image before display switching to the peripheral image after display switching. As a result, the user can more intuitively grasp from which viewpoint the peripheral image displayed on the display means is viewed.

図1は、第1の実施の形態の画像表示システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an image display system according to the first embodiment. 図2は、車載カメラが車両に配置される位置を示す図である。FIG. 2 is a diagram illustrating a position where the in-vehicle camera is arranged in the vehicle. 図3は、合成画像を生成する手法を説明する図である。FIG. 3 is a diagram illustrating a method for generating a composite image. 図4は、画像表示システムの動作モードの遷移を示す図である。FIG. 4 is a diagram illustrating transition of operation modes of the image display system. 図5は、俯瞰画像がディスプレイに表示される様子を示す図である。FIG. 5 is a diagram illustrating a state where the overhead image is displayed on the display. 図6は、仮想視点の遷移の一例を示す図である。FIG. 6 is a diagram illustrating an example of transition of virtual viewpoints. 図7は、アニメーション表現の一例を示す図である。FIG. 7 is a diagram illustrating an example of an animation expression. 図8は、仮想視点の遷移の一例を示す図である。FIG. 8 is a diagram illustrating an example of the transition of the virtual viewpoint. 図9は、アニメーション表現の一例を示す図である。FIG. 9 is a diagram illustrating an example of an animation expression. 図10は、ナビモードから周辺画像を表示する動作モードに切り替える場合の処理の流れを示す図である。FIG. 10 is a diagram illustrating a processing flow when switching from the navigation mode to the operation mode in which the surrounding image is displayed. 図11は、仮想視点の遷移の一例を示す図である。FIG. 11 is a diagram illustrating an example of the transition of the virtual viewpoint. 図12は、アニメーション表現の一例を示す図である。FIG. 12 is a diagram illustrating an example of an animation expression. 図13は、周辺画像を表示する動作モードの相互間で動作モードを切り替える場合の処理の流れを示す図である。FIG. 13 is a diagram illustrating a flow of processing when the operation mode is switched between the operation modes for displaying the peripheral image. 図14は、ドライバ視点画像がディスプレイに表示される様子を示す図である。FIG. 14 is a diagram illustrating how the driver viewpoint image is displayed on the display. 図15は、仮想視点の遷移の一例を示す図である。FIG. 15 is a diagram illustrating an example of the transition of the virtual viewpoint. 図16は、仮想視点の遷移の一例を示す図である。FIG. 16 is a diagram illustrating an example of transition of virtual viewpoints. 図17は、第3の実施の形態の画像表示システムの構成を示すブロック図である。FIG. 17 is a block diagram illustrating a configuration of an image display system according to the third embodiment. 図18は、写真画像がディスプレイに表示される様子を示す図である。FIG. 18 is a diagram showing how a photographic image is displayed on the display. 図19は、ディスプレイに表示される画像の遷移を示す図である。FIG. 19 is a diagram illustrating transition of images displayed on the display. 図20は、ナビモードから周辺画像を表示する動作モードに切り替える場合の処理の流れを示す図である。FIG. 20 is a diagram illustrating a processing flow when switching from the navigation mode to the operation mode in which the surrounding image is displayed. 図21は、仮想視点からの合成画像を表示する動作モードの一例を示す図である。FIG. 21 is a diagram illustrating an example of an operation mode for displaying a composite image from a virtual viewpoint.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>
<1−1.システム構成>
図1は、第1の実施の形態の画像表示システム120の構成を示すブロック図である。この画像表示システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両の周辺を撮影して画像を生成して車室内に表示する機能を有している。画像表示システム120のユーザ(代表的にはドライバ)は、この画像表示システム120を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できるようになっている。
<1. First Embodiment>
<1-1. System configuration>
FIG. 1 is a block diagram illustrating a configuration of an image display system 120 according to the first embodiment. This image display system 120 is mounted on a vehicle (in this embodiment, an automobile), and has a function of photographing the periphery of the vehicle, generating an image, and displaying the image in the passenger compartment. By using this image display system 120, a user (typically a driver) of the image display system 120 can grasp the state around the vehicle in almost real time.

図1に示すように、画像表示システム120は、車両の周辺の様子を示す周辺画像を生成する画像生成装置100と、車両に乗車するユーザに対して各種情報を表示するナビゲーション装置20とを主に備えている。画像生成装置100で生成された周辺画像は、ナビゲーション装置20において表示される。   As shown in FIG. 1, the image display system 120 mainly includes an image generation device 100 that generates a peripheral image showing a state around the vehicle, and a navigation device 20 that displays various types of information to a user who gets on the vehicle. In preparation. The peripheral image generated by the image generation device 100 is displayed on the navigation device 20.

ナビゲーション装置20は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行うハードスイッチなどの操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション装置20は車両のインストルメントパネルなどに設置される。   The navigation device 20 provides navigation guidance to the user, and includes a display 21 such as a liquid crystal provided with a touch panel function, an operation unit 22 such as a hard switch operated by the user, and a control unit 23 that controls the entire device. And. The navigation device 20 is installed on an instrument panel or the like of the vehicle so that the screen of the display 21 is visible from the user.

ユーザの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM及びROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。ナビゲーション装置20は、画像生成装置100と通信可能に接続され、画像生成装置100との間で各種の制御信号の送受信や、画像生成装置100で生成された画像の受信が可能となっている。   Various user instructions are received by the operation unit 22 and the display 21 as a touch panel. The control unit 23 is a computer including a CPU, a RAM, a ROM, and the like, and various functions including a navigation function are realized by the CPU performing arithmetic processing according to a predetermined program. The navigation apparatus 20 is communicably connected to the image generation apparatus 100, and can transmit and receive various control signals to and from the image generation apparatus 100 and receive images generated by the image generation apparatus 100.

ディスプレイ21には、制御部23の制御により、通常は、ナビゲーション装置20単体の機能によって、ナビゲーション案内用の車両の周辺の地図画像が表示される。地図画像は、ナビゲーション装置20が備えるハードディスクなどに予め記憶されている。また、ナビゲーション装置20が備えるGPS装置によって車両の位置(緯度、経度)が取得され、この車両の位置に基づいて、車両の周辺の地図画像がディスプレイ21に表示される。表示する地図画像の縮尺はユーザの操作部22の操作に応じて変更可能とされている。   Under the control of the control unit 23, a map image around the vehicle for navigation guidance is usually displayed on the display 21 by the function of the navigation device 20 alone. The map image is stored in advance in a hard disk or the like provided in the navigation device 20. Further, the position (latitude and longitude) of the vehicle is acquired by the GPS device provided in the navigation device 20, and a map image around the vehicle is displayed on the display 21 based on the position of the vehicle. The scale of the map image to be displayed can be changed according to the operation of the operation unit 22 by the user.

一方で、画像表示システム120の動作モードを変更した場合は、画像生成装置100で生成された車両の周辺の様子を示す周辺画像が、ディスプレイ21に表示される。これにより、ナビゲーション装置20は、画像生成装置100で生成された周辺画像を受信して表示する表示装置としても機能する。   On the other hand, when the operation mode of the image display system 120 is changed, a peripheral image showing a state around the vehicle generated by the image generation device 100 is displayed on the display 21. As a result, the navigation device 20 also functions as a display device that receives and displays the peripheral image generated by the image generation device 100.

画像生成装置100は、画像を生成する機能を有するECU(Electronic Control Unit)である本体部10と、車両の周辺を撮影する撮影部5とを備えている。本体部10は、車両の所定の位置に配置され、撮影部5で車両の周辺を撮影して得られる撮影画像に基づいてディスプレイ21に表示するための周辺画像を生成する。   The image generation apparatus 100 includes a main body 10 that is an ECU (Electronic Control Unit) having a function of generating an image, and an imaging unit 5 that captures the periphery of the vehicle. The main body unit 10 is arranged at a predetermined position of the vehicle, and generates a peripheral image to be displayed on the display 21 based on a captured image obtained by photographing the periphery of the vehicle with the photographing unit 5.

撮影部5は、本体部10に電気的に接続され、本体部10からの信号に基づいて動作する。撮影部5は、車載カメラであるフロントカメラ51、サイドカメラ52、及び、バックカメラ53を備えている。各車載カメラ51〜53は、レンズと撮像素子とを備えており電子的に画像を取得する。   The photographing unit 5 is electrically connected to the main body unit 10 and operates based on a signal from the main body unit 10. The photographing unit 5 includes a front camera 51, a side camera 52, and a back camera 53 that are in-vehicle cameras. Each of the in-vehicle cameras 51 to 53 includes a lens and an image sensor and electronically acquires an image.

これらの複数の車載カメラ51〜53は、車両の異なる位置にそれぞれ配置される。図2は、車載カメラ51〜53が車両9に配置される位置を示す図である。   The plurality of in-vehicle cameras 51 to 53 are respectively arranged at different positions of the vehicle. FIG. 2 is a diagram illustrating positions where the in-vehicle cameras 51 to 53 are arranged on the vehicle 9.

図2に示すように、フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向に向けられている。バックカメラ53は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸53aは車両9の直進方向の逆方向に向けられている。これらフロントカメラ51やバックカメラ53の取り付け位置は、左右中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。また、サイドカメラ52は左右のドアミラー93にそれぞれ設けられ、その光軸52aは車両9の左右方向(直進方向に直交する方向)に沿って車両9の外側に向けられている。   As shown in FIG. 2, the front camera 51 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 9, and its optical axis 51 a is directed in the straight traveling direction of the vehicle 9. The back camera 53 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 9, and its optical axis 53 a is directed in the direction opposite to the straight traveling direction of the vehicle 9. The front camera 51 and the back camera 53 are preferably attached at the center in the left-right direction, but may be slightly shifted from the center in the left-right direction in the left-right direction. The side cameras 52 are provided on the left and right door mirrors 93, respectively, and their optical axes 52a are directed to the outside of the vehicle 9 along the left-right direction of the vehicle 9 (direction orthogonal to the straight traveling direction).

これらの車載カメラ51〜53のレンズとしては魚眼レンズなどが採用されており、車載カメラ51〜53は180度以上の画角θを有している。このため、4つの車載カメラ51〜53を利用することで、車両9の全周囲の撮影が可能となっている。   A fish-eye lens or the like is adopted as the lens of these in-vehicle cameras 51 to 53, and the in-vehicle cameras 51 to 53 have an angle of view θ of 180 degrees or more. For this reason, the surroundings of the vehicle 9 can be image | photographed by utilizing the four vehicle-mounted cameras 51-53.

図1に戻り、画像生成装置100の本体部10は、装置全体を制御する制御部1と、撮影部5の4つの車載カメラ51〜53それぞれの撮影画像を入力する入力端子49と、表示用の周辺画像を生成する画像生成部3と、ナビゲーション装置20との間で通信を行うナビ通信部42とを主に備えている。   Returning to FIG. 1, the main body 10 of the image generation apparatus 100 includes a control unit 1 that controls the entire apparatus, an input terminal 49 that inputs captured images of each of the four in-vehicle cameras 51 to 53 of the imaging unit 5, and a display Are mainly provided with an image generation unit 3 that generates a peripheral image of the camera and a navigation communication unit 42 that performs communication with the navigation device 20.

ナビゲーション装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部42によって受け付けられて制御部1に入力される。また、画像生成装置100は、表示内容を切り替える指示をユーザから受け付ける切替スイッチ43を備えている。この切替スイッチ43からもユーザの指示を示す信号が制御部1に入力される。これにより、画像生成装置100は、ナビゲーション装置20に対するユーザの操作、及び、切替スイッチ43に対するユーザの操作の双方に応答した動作が可能となっている。切替スイッチ43は、ユーザが操作しやすいように、本体部10とは別に車両の適位置に配置される。   Various instructions from the user received by the operation unit 22 or the display 21 of the navigation device 20 are received by the navigation communication unit 42 as control signals and input to the control unit 1. In addition, the image generation apparatus 100 includes a changeover switch 43 that receives an instruction to switch display contents from a user. A signal indicating a user instruction is also input to the control unit 1 from the changeover switch 43. As a result, the image generating apparatus 100 can operate in response to both a user operation on the navigation apparatus 20 and a user operation on the changeover switch 43. The changeover switch 43 is arranged at an appropriate position of the vehicle separately from the main body unit 10 so that the user can easily operate.

画像生成部3は、各種の画像処理が可能なハードウェア回路であり、入力端子49を介して撮影部5から入力される撮影画像を処理し、ディスプレイ21に表示するための周辺画像を生成する。画像生成部3は、撮影画像調整部31、及び、合成画像生成部32を主な機能として備えている。   The image generation unit 3 is a hardware circuit capable of various types of image processing, processes a captured image input from the imaging unit 5 via the input terminal 49, and generates a peripheral image to be displayed on the display 21. . The image generation unit 3 includes a captured image adjustment unit 31 and a composite image generation unit 32 as main functions.

撮影画像調整部31は、撮影部5で取得された撮影画像を対象とし、表示に利用するための調整を行うものである。具体的には、撮影画像調整部31は、撮影画像に対して、歪み補正、拡大縮小、及び、切り出しなどの画像処理を行う。   The photographed image adjusting unit 31 is for adjusting a photographed image acquired by the photographing unit 5 to be used for display. Specifically, the captured image adjustment unit 31 performs image processing such as distortion correction, enlargement / reduction, and clipping on the captured image.

合成画像生成部32は、撮影部5の複数の車載カメラ51〜53で取得された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた車両の周辺の領域を示す合成画像を生成する。合成画像生成部32が合成画像を生成する手法については後述する。   Based on the plurality of captured images acquired by the plurality of in-vehicle cameras 51 to 53 of the photographing unit 5, the composite image generating unit 32 generates a composite image indicating a region around the vehicle viewed from an arbitrary virtual viewpoint around the vehicle. Generate. A method by which the composite image generation unit 32 generates a composite image will be described later.

撮影画像調整部31に表示用に調整された撮影画像、及び、合成画像生成部32により生成された合成画像は、ナビ通信部42によってナビゲーション装置20に出力される。これにより、被写体像として車両の周辺の少なくとも一部の領域を含む周辺画像がナビゲーション装置20のディスプレイ21に表示されることになる。   The captured image adjusted for display by the captured image adjustment unit 31 and the composite image generated by the composite image generation unit 32 are output to the navigation device 20 by the navigation communication unit 42. As a result, a peripheral image including at least a partial region around the vehicle as a subject image is displayed on the display 21 of the navigation device 20.

本明細書において、「周辺画像」とは、車両の周辺の少なくとも一部の領域を示す画像を意味し、表示用に調整された撮影画像、及び、合成画像の双方を含む概念である。表示用に調整された撮影画像は、取得された車載カメラ51〜53のレンズの位置を視点とし、その視点からみた周辺画像となる。また、合成画像は、車両の周辺の任意の位置に設定された仮想視点からみた周辺画像となる。   In this specification, the “peripheral image” means an image showing at least a part of the area around the vehicle, and is a concept that includes both a captured image adjusted for display and a composite image. The captured image adjusted for display is a peripheral image viewed from the viewpoint of the acquired lens position of the in-vehicle cameras 51 to 53 as a viewpoint. Further, the composite image is a peripheral image viewed from a virtual viewpoint set at an arbitrary position around the vehicle.

制御部1は、CPU、RAM及びROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す、画像制御部11、及び、表示制御部12は、このようにして実現される制御部1の機能のうちの一部を示している。   The control unit 1 is a computer including a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a predetermined program. An image control unit 11 and a display control unit 12 shown in the figure show some of the functions of the control unit 1 realized in this way.

画像制御部11は、画像生成部3によって実行される画像処理に係る制御を行う。例えば、画像制御部11は、合成画像生成部32が生成する合成画像の生成に必要な各種パラメータなどを指示する。   The image control unit 11 performs control related to image processing executed by the image generation unit 3. For example, the image control unit 11 instructs various parameters necessary for generating a composite image generated by the composite image generation unit 32.

表示制御部12は、ナビゲーション装置20のディスプレイ21に表示する表示内容に係る制御を行う。例えば、画像表示システム120の動作モードの変更に応じて、ディスプレイ21の表示内容を切り替える。   The display control unit 12 performs control related to display contents displayed on the display 21 of the navigation device 20. For example, the display content of the display 21 is switched according to a change in the operation mode of the image display system 120.

また、画像生成装置100の本体部10は、不揮発性メモリ40、カード読取部44、及び、信号入力部41をさらに備えており、これらは制御部1に接続されている。   The main body 10 of the image generation apparatus 100 further includes a nonvolatile memory 40, a card reading unit 44, and a signal input unit 41, which are connected to the control unit 1.

不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどである。不揮発性メモリ40には、視点データ4aが記憶されている。視点データ4aは、合成画像の仮想視点を定める際に利用される。   The nonvolatile memory 40 is a flash memory or the like that can maintain stored contents even when the power is turned off. The nonvolatile memory 40 stores viewpoint data 4a. The viewpoint data 4a is used when determining the virtual viewpoint of the composite image.

カード読取部44は、可搬性の記録媒体であるメモリカードMCの読み取りを行う。カード読取部44は、メモリカードMCの着脱が可能なカードスロットを備えており、そのカードスロットに装着されたメモリカードMCに記録されたデータを読み取る。カード読取部44で読み取られたデータは、制御部1に入力される。メモリカードMCは、種々のデータを記憶可能なフラッシュメモリなどであり、画像生成装置100はメモリカードMCに記憶された種々のデータを利用できる。例えば、メモリカードMCにプログラムを記憶させ、これを読み出すことで、制御部1の機能を実現するプログラム(ファームウェア)を更新することが可能である。   The card reading unit 44 reads a memory card MC that is a portable recording medium. The card reading unit 44 includes a card slot in which the memory card MC can be attached and detached, and reads data recorded on the memory card MC installed in the card slot. Data read by the card reading unit 44 is input to the control unit 1. The memory card MC is a flash memory or the like capable of storing various data, and the image generating apparatus 100 can use various data stored in the memory card MC. For example, a program (firmware) that realizes the function of the control unit 1 can be updated by storing a program in the memory card MC and reading the program.

また、信号入力部41は、車両に設けられた各種装置からの信号を入力する。この信号入力部41を介して、画像表示システム120の外部からの信号が制御部1に入力される。本実施の形態では、シフトセンサ71からの信号が信号入力部41を介して制御部1に入力される。シフトセンサ71からは、車両の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。   Moreover, the signal input part 41 inputs the signal from the various apparatuses provided in the vehicle. A signal from the outside of the image display system 120 is input to the control unit 1 via the signal input unit 41. In the present embodiment, a signal from the shift sensor 71 is input to the control unit 1 via the signal input unit 41. From the shift sensor 71, the position of operation of the shift lever of the transmission of the vehicle, that is, shift such as “P (parking)”, “D (forward)”, “N (neutral)”, “R (reverse)”, etc. Position is entered.

<1−2.画像合成処理>
次に、画像生成部3の合成画像生成部32が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。図3は、合成画像を生成する手法を説明するための図である。
<1-2. Image composition processing>
Next, a method in which the composite image generation unit 32 of the image generation unit 3 generates a composite image that shows how the periphery of the vehicle 9 is viewed from an arbitrary virtual viewpoint based on a plurality of captured images obtained by the imaging unit 5. explain. FIG. 3 is a diagram for explaining a method of generating a composite image.

撮影部5のフロントカメラ51、サイドカメラ52及びバックカメラ53で同時に撮影が行われると、車両9の前方、左側方、右側方及び後方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。   When the front camera 51, the side camera 52, and the back camera 53 of the photographing unit 5 perform photographing simultaneously, four photographed images P1 to P4 that respectively indicate the front, left side, right side, and rear of the vehicle 9 are acquired. That is, the four captured images P1 to P4 acquired by the imaging unit 5 include information indicating the entire periphery of the vehicle 9 at the time of shooting.

次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面TSに投影される。立体曲面TSは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9が存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、この立体曲面TSの各画素の位置とは予め対応関係が定められている。このため、立体曲面TSの各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。   Next, each pixel of the four captured images P1 to P4 is projected onto a three-dimensional curved surface TS in a virtual three-dimensional space. The three-dimensional curved surface TS has, for example, a substantially hemispherical shape (a bowl shape), and a center portion (a bottom portion of the bowl) is determined as a position where the vehicle 9 exists. A correspondence relationship is determined in advance between the positions of the pixels included in the captured images P1 to P4 and the positions of the pixels of the solid curved surface TS. For this reason, the value of each pixel of the solid curved surface TS can be determined based on this correspondence and the value of each pixel included in the captured images P1 to P4.

撮影画像P1〜P4の各画素の位置と立体曲面TSの各画素の位置との対応関係は、車両9における4つの車載カメラ51〜53の配置(相互間距離、地上高さ、光軸角度等)に依存する。この対応関係を示すテーブルデータは、不揮発性メモリ40に予め記憶されている。   The correspondence between the positions of the pixels of the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface TS is the arrangement of the four in-vehicle cameras 51 to 53 in the vehicle 9 (inter-distance, ground height, optical axis angle, etc. ). Table data indicating the correspondence is stored in advance in the nonvolatile memory 40.

また、不揮発性メモリ40に予め記憶された車体の形状やサイズを示すデータが利用され、車両9の三次元形状を示すポリゴンのモデルが仮想的に構成される。構成された車両9のモデルは、立体曲面TSが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。   Further, data indicating the shape and size of the vehicle body stored in advance in the nonvolatile memory 40 is used, and a polygon model indicating the three-dimensional shape of the vehicle 9 is virtually configured. The configured model of the vehicle 9 is arranged in a substantially hemispherical center portion determined as the position of the vehicle 9 in the three-dimensional space in which the three-dimensional curved surface TS is set.

さらに、立体曲面TSが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の近傍に相当する任意の視点位置に任意の視野方向に向けて設定される。   Furthermore, the virtual viewpoint VP is set by the control unit 1 for the three-dimensional space where the three-dimensional curved surface TS exists. The virtual viewpoint VP is defined by the viewpoint position and the visual field direction, and is set at an arbitrary viewpoint position corresponding to the vicinity of the vehicle 9 in this three-dimensional space toward an arbitrary visual field direction.

そして、設定された仮想視点VPに応じて、立体曲面TSにおける必要な領域が画像として切り出される。仮想視点VPと、立体曲面TSにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ40等に予め記憶されている。一方で、設定された仮想視点VPに応じてポリゴンのモデルに関してレンダリングがなされ、その結果となる二次元の車両の像が、切り出された画像に対して重畳される。これにより、車両9及びその車両9の周辺を任意の仮想視点VPからみた様子を示す合成画像が生成されることになる。   Then, according to the set virtual viewpoint VP, a necessary area on the three-dimensional curved surface TS is cut out as an image. The relationship between the virtual viewpoint VP and a necessary area in the three-dimensional curved surface TS is determined in advance, and is stored in advance in the nonvolatile memory 40 or the like as table data. On the other hand, rendering is performed on a polygon model according to the set virtual viewpoint VP, and the resulting two-dimensional vehicle image is superimposed on the cut-out image. Thereby, the composite image which shows a mode that the vehicle 9 and the periphery of the vehicle 9 were seen from arbitrary virtual viewpoints VP will be produced | generated.

例えば、視点位置が車両9の位置の略中央の直上で、視野方向が直下方向とした仮想視点VPaを設定した場合は、車両9の略直上から車両9を見下ろすように、車両9及び車両9の周辺の領域を示す合成画像CPaが生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向が車両9における略前方方向とした仮想視点VPbを設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9及び車両9の周辺の領域を示す合成画像CPbが生成される。   For example, when a virtual viewpoint VPa is set in which the viewpoint position is just above the center of the position of the vehicle 9 and the viewing direction is directly below, the vehicle 9 and the vehicle 9 A composite image CPa indicating the peripheral area of the image is generated. Further, as shown in the figure, when the virtual viewpoint VPb is set in which the viewpoint position is the left rear of the position of the vehicle 9 and the visual field direction is the substantially forward direction in the vehicle 9, the entire periphery from the left rear of the vehicle 9 is set. As a result, a composite image CPb indicating the vehicle 9 and the area around the vehicle 9 is generated.

なお、実際に合成画像を生成する場合においては、立体曲面TSの全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。   In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface TS, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint VP are photographed. By determining based on the images P1 to P4, the processing speed can be improved.

画像表示システム120では、このような合成画像生成部32の機能を利用することで、車両9の周辺の任意の視点からみた合成画像を生成して、ディスプレイ21に表示することができる。   In the image display system 120, by using such a function of the composite image generation unit 32, a composite image viewed from an arbitrary viewpoint around the vehicle 9 can be generated and displayed on the display 21.

<1−3.動作モード>
次に、画像表示システム120の動作モードについて説明する。図4は、画像表示システム120の動作モードの遷移を示す図である。画像表示システム120は、ナビモードM0、フロントモードM1、サイドモードM2、及び、バックモードM3の3つの動作モードを有している。これらの動作モードは、ドライバの車両9への操作や車両9の走行状態に応じて制御部1の制御により切り替えられるようになっている。
<1-3. Operation mode>
Next, the operation mode of the image display system 120 will be described. FIG. 4 is a diagram illustrating transition of operation modes of the image display system 120. The image display system 120 has three operation modes: a navigation mode M0, a front mode M1, a side mode M2, and a back mode M3. These operation modes are switched by the control of the control unit 1 in accordance with the driver's operation on the vehicle 9 and the traveling state of the vehicle 9.

ナビモードM0は、ナビゲーション装置20の機能により、ナビゲーション案内を行う動作モードである。ナビモードM0では、画像生成装置100の機能が利用されず、ナビゲーション装置20単体の機能でディスプレイ21に各種の表示がなされる。具体的には、ディスプレイ21には、車両9の周辺の地図画像NPが主に表示される。   The navigation mode M0 is an operation mode in which navigation guidance is performed by the function of the navigation device 20. In the navigation mode M0, the functions of the image generation apparatus 100 are not used, and various displays are performed on the display 21 with the functions of the navigation apparatus 20 alone. Specifically, a map image NP around the vehicle 9 is mainly displayed on the display 21.

これに対し、フロントモードM1、サイドモードM2及びバックモードM3は、画像生成装置100の機能を利用して、周辺画像をディスプレイ21に表示して、車両の周辺の状況をリアルタイムでユーザに示す動作モードである。   On the other hand, the front mode M1, the side mode M2, and the back mode M3 use the function of the image generation device 100 to display a peripheral image on the display 21 and to show the user the situation around the vehicle in real time. Mode.

フロントモードM1は、車両9の前方を表示する動作モードであり、見通しの悪い交差点への進入時などに利用される。ディスプレイ21には、フロントカメラ51で取得されて表示用に調整した撮影画像(以下、「フロント画像」という。)SP1が表示される。このフロント画像SP1は、車両9の前方の視点(フロントカメラ51のレンズ位置)からみた周辺画像である。フロントモードM1では、表示中の周辺画像(すなわち、フロント画像)SP1の視点が車両9の前方であることを示すアイコンC1が表示される。   The front mode M1 is an operation mode for displaying the front of the vehicle 9, and is used when entering an intersection with poor visibility. On the display 21, a captured image (hereinafter referred to as “front image”) SP1 acquired by the front camera 51 and adjusted for display is displayed. The front image SP1 is a peripheral image viewed from the viewpoint in front of the vehicle 9 (the lens position of the front camera 51). In the front mode M1, an icon C1 indicating that the viewpoint of the displayed peripheral image (that is, the front image) SP1 is the front of the vehicle 9 is displayed.

サイドモードM2は、車両9の側方を表示する動作モードであり、幅寄せを行う場合などに利用される。ディスプレイ21には、サイドカメラ52で取得されて表示用に調整した撮影画像(以下、「サイド画像」という。)SP2が表示される。このサイド画像SP2は、車両9の側方の視点(サイドカメラ52のレンズ位置)からみた周辺画像である。サイドモードM2では、表示中の周辺画像(すなわち、サイド画像)SP2の視点が車両9の側方であることを示すアイコンC2が表示される。   The side mode M2 is an operation mode for displaying the side of the vehicle 9, and is used when performing width alignment. On the display 21, a captured image (hereinafter referred to as “side image”) SP2 acquired by the side camera 52 and adjusted for display is displayed. The side image SP2 is a peripheral image viewed from the side viewpoint of the vehicle 9 (the lens position of the side camera 52). In the side mode M2, an icon C2 indicating that the viewpoint of the displayed peripheral image (that is, the side image) SP2 is the side of the vehicle 9 is displayed.

また、バックモードM3は、車両9の後方を表示する動作モードであり、後退時に利用される。ディスプレイ21には、バックカメラ53で取得されて表示用に調整した撮影画像(以下、「バック画像」という。)SP3が表示される。このバック画像SP3は、車両9の後方の視点(バックカメラ53のレンズ位置)からみた周辺画像である。バックモードM3では、表示中の周辺画像(すなわち、バック画像)SP3の視点が車両9の後方であることを示すアイコンC3が表示される。   The back mode M3 is an operation mode for displaying the rear of the vehicle 9, and is used when the vehicle is moving backward. On the display 21, a captured image (hereinafter referred to as “back image”) SP3 acquired by the back camera 53 and adjusted for display is displayed. This back image SP3 is a peripheral image viewed from the viewpoint behind the vehicle 9 (the lens position of the back camera 53). In the back mode M3, an icon C3 indicating that the viewpoint of the displayed peripheral image (that is, the back image) SP3 is behind the vehicle 9 is displayed.

ナビモードM0において、ナビゲーション装置20の操作部22に所定の操作がなされると、フロントモードM1及びサイドモードM2のうちの最後に有効化された動作モード(いわゆる、ラストモード)に切り替わる。フロントモードM1とサイドモードM2とは、切替スイッチ43を押下するごとに切り替えられる。また、フロントモードM1あるいはサイドモードM2において、ナビゲーション装置20の操作部22に所定の操作がなされると、ナビモードM0に戻る。   In the navigation mode M0, when a predetermined operation is performed on the operation unit 22 of the navigation device 20, the operation mode (the so-called last mode) that is last activated among the front mode M1 and the side mode M2 is switched. The front mode M1 and the side mode M2 are switched each time the changeover switch 43 is pressed. In addition, when a predetermined operation is performed on the operation unit 22 of the navigation device 20 in the front mode M1 or the side mode M2, the navigation mode M0 is restored.

また、バックモードM3以外の動作モードにおいて、シフトセンサ71から入力されるシフトポジションが”R(後退)”となったときは、バックモードM3に切り替えられる。すなわち、シフトポジションが”R(後退)”の場合は、車両9は後退する状態であるため、車両9の後方を主に示すバックモードM3に切り替えられる。また、バックモードM3の場合に、シフトポジションが”R(後退)”以外となったときは、バックモードM3に切り替えられる直前の動作モードに戻ることになる。   In the operation mode other than the back mode M3, when the shift position input from the shift sensor 71 is “R (reverse)”, the mode is switched to the back mode M3. That is, when the shift position is “R (reverse)”, the vehicle 9 is in a reverse state, and therefore, the back mode M3 that mainly indicates the rear of the vehicle 9 is switched. Further, in the case of the back mode M3, when the shift position is other than “R (reverse)”, the operation mode immediately before switching to the back mode M3 is returned.

このように画像表示システム120は、複数の動作モードを切り替えることで、複数の視点からみた周辺画像を切り替えてディスプレイ21に表示可能となっている。このように複数の視点からの周辺画像を表示可能な場合は、ディスプレイ21の表示内容を周辺画像に切り替えた場合に、表示された周辺画像がいずれの視点からみた周辺画像であるかをユーザが直感的に把握しにくくなる可能性がある。   As described above, the image display system 120 can switch the peripheral images viewed from a plurality of viewpoints to be displayed on the display 21 by switching the plurality of operation modes. When the peripheral images from a plurality of viewpoints can be displayed in this way, when the display content of the display 21 is switched to the peripheral images, the user can determine from which viewpoint the displayed peripheral images are the peripheral images. It may be difficult to grasp intuitively.

例えば、地図画像を表示するナビモードM0から周辺画像を表示する動作モードM1,M2,M3のいずれかに切り替えた場合において、切り替え後に表示された周辺画像が、いずれ視点からみたものであるか(フロント画像SP1、サイド画像SP2及びバック画像SP3のいずれであるか)を、ユーザが直感的に把握することは難しい。また、周辺画像を表示する動作モードM1,M2,M3の相互間で動作モードが切り替わった場合(表示する周辺画像の視点が異なる視点に変更された場合)においても、切り替え後に表示された周辺画像が、いずれ視点からみたものであるかをユーザが直感的に把握することは難しい。   For example, when the navigation mode M0 for displaying a map image is switched to one of the operation modes M1, M2, and M3 for displaying a peripheral image, which viewpoint is the peripheral image displayed after the switching is viewed from the viewpoint ( It is difficult for the user to intuitively grasp which of the front image SP1, the side image SP2, and the back image SP3). Further, even when the operation mode is switched between the operation modes M1, M2, and M3 for displaying the peripheral image (when the viewpoint of the peripheral image to be displayed is changed to a different viewpoint), the peripheral image displayed after the switching is performed. However, it is difficult for the user to intuitively grasp from which viewpoint.

このため、画像表示システム120では、ディスプレイ21の表示内容を周辺画像に切り替える場合においては、所定の基準視点から切り替え後の周辺画像の視点まで、表示する画像の視点の位置が段階的かつ連続的に移動するアニメーション表現がディスプレイ21においてなされるようになっている。以下、このようなアニメーション表現について説明する。   Therefore, in the image display system 120, when the display content of the display 21 is switched to the peripheral image, the viewpoint position of the image to be displayed is stepwise and continuous from the predetermined reference viewpoint to the viewpoint of the peripheral image after switching. An animation expression that moves to is displayed on the display 21. Hereinafter, such animation expression will be described.

<1−4.ナビモードからの切り替え>
まず、ナビモードM0から周辺画像を表示する動作モードM1,M2,M3のいずれかに切り替える場合について説明する。
<1-4. Switching from navigation mode>
First, a case will be described in which the navigation mode M0 is switched to one of the operation modes M1, M2, and M3 for displaying surrounding images.

この場合は、まず、図5に示すように、ナビモードM0の地図画像NPを表示している状態から、車両9及び車両9の周辺の全体を俯瞰する合成画像である俯瞰画像CP0が表示される。この俯瞰画像CP0の仮想視点の視点位置は、車両9の略中央の直上であり、視野方向は直下方向となっている。このような視点位置及び視野方向で規定される仮想視点が、基準視点となる。そして、仮想視点は、この基準視点から切り替え後に表示する周辺画像の視点まで段階的かつ連続的に移動される。   In this case, first, as shown in FIG. 5, from the state in which the map image NP in the navigation mode M0 is displayed, the bird's-eye view image CP0, which is a composite image for bird's-eye view of the vehicle 9 and the entire periphery of the vehicle 9, is displayed. The The viewpoint position of the virtual viewpoint of the bird's-eye view image CP0 is directly above the center of the vehicle 9, and the visual field direction is a direct downward direction. A virtual viewpoint defined by such viewpoint position and viewing direction is the reference viewpoint. The virtual viewpoint is moved stepwise and continuously from the reference viewpoint to the viewpoint of the peripheral image displayed after switching.

図6は、ナビモードM0からフロントモードM1に切り替える場合における仮想視点の遷移を示す図である。この場合は、仮想視点VPは、基準視点VP0から、フロント画像の視点(フロントカメラ51のレンズ位置)VP1まで段階的に移動される。そして、このように仮想視点VPが段階的に移動されている状態で、複数の合成画像が時間的に連続して生成される。生成された複数の合成画像は、ナビゲーション装置20に順次に出力されて、ディスプレイ21に時間的に連続して表示される。   FIG. 6 is a diagram illustrating transition of the virtual viewpoint when switching from the navigation mode M0 to the front mode M1. In this case, the virtual viewpoint VP is moved stepwise from the reference viewpoint VP0 to the viewpoint of the front image (lens position of the front camera 51) VP1. Then, a plurality of synthesized images are continuously generated in time with the virtual viewpoint VP being moved stepwise in this way. The plurality of generated composite images are sequentially output to the navigation device 20 and displayed on the display 21 continuously in time.

これにより、図7に示すように、ディスプレイ21において、基準視点VP0からフロント画像の視点VP1まで、表示する合成画像CPmの仮想視点が段階的に移動するようなアニメーション表現がなされることになる。すなわち、ディスプレイ21に表示された合成画像CPmは、当初は車両9の全体が俯瞰して示している(状態ST11)。その後、合成画像CPmは、徐々に車両9の前方の領域を拡大して示し(状態ST12)、最終的に車両9の前方の領域を示すことになる(状態ST13)。   As a result, as shown in FIG. 7, on the display 21, an animation expression is made such that the virtual viewpoint of the composite image CPm to be displayed moves stepwise from the reference viewpoint VP0 to the viewpoint VP1 of the front image. That is, the composite image CPm displayed on the display 21 is initially shown as an overview of the entire vehicle 9 (state ST11). Thereafter, the composite image CPm gradually shows an area in front of the vehicle 9 (state ST12), and finally shows an area in front of the vehicle 9 (state ST13).

フロント画像の視点VP1まで仮想視点VPが移動し、フロント画像と同様の領域が合成画像CPmに示されると、ディスプレイ21において合成画像CPmに代えてフロント画像CP1が表示される。これにより、フロントモードM1に切り替わることになる。   When the virtual viewpoint VP moves to the front image viewpoint VP1 and a region similar to the front image is indicated in the composite image CPm, the front image CP1 is displayed on the display 21 instead of the composite image CPm. As a result, the mode is switched to the front mode M1.

また、図8は、ナビモードM0からバックモードM3に切り替える場合における仮想視点の遷移を示す図である。この場合は、仮想視点VPは、基準視点VP0から、バック画像の視点(バックカメラ53のレンズ位置)VP3まで段階的に移動される。そして、このように仮想視点VPが段階的に移動されている状態で、複数の合成画像が時間的に連続して生成される。生成された複数の合成画像は、ナビゲーション装置20に順次に出力されて、ディスプレイ21に時間的に連続して表示される。   FIG. 8 is a diagram illustrating transition of the virtual viewpoint when switching from the navigation mode M0 to the back mode M3. In this case, the virtual viewpoint VP is moved stepwise from the reference viewpoint VP0 to the viewpoint of the back image (lens position of the back camera 53) VP3. Then, a plurality of synthesized images are continuously generated in time with the virtual viewpoint VP being moved stepwise in this way. The plurality of generated composite images are sequentially output to the navigation device 20 and displayed on the display 21 continuously in time.

これにより、図9に示すように、ディスプレイ21において、基準視点VP0からバック画像の視点VP3まで、表示する合成画像CPmの仮想視点が段階的に移動するようなアニメーション表現がなされることになる。すなわち、ディスプレイ21に表示された合成画像CPmは、当初は車両9の全体が俯瞰して示している(状態ST21)。その後、合成画像CPmが示す被写体像の上下が反転され(状態ST22)、合成画像CPmは徐々に車両9の後方の領域を拡大して示し(状態ST23)、最終的に車両9の後方の領域を示すことになる(状態ST24)。バック画像の視点VP3まで仮想視点VPが移動し、バック画像と同様の領域が合成画像CPmに示されると、ディスプレイ21において合成画像CPmに代えてバック画像CP3が表示される。これにより、バックモードM3に切り替わることになる。   As a result, as shown in FIG. 9, on the display 21, an animation expression is performed such that the virtual viewpoint of the composite image CPm to be displayed moves stepwise from the reference viewpoint VP0 to the viewpoint VP3 of the back image. That is, the composite image CPm displayed on the display 21 is initially shown as an overview of the entire vehicle 9 (state ST21). After that, the subject image indicated by the composite image CPm is turned upside down (state ST22), and the composite image CPm gradually enlarges and shows the area behind the vehicle 9 (state ST23), and finally the area behind the vehicle 9 (State ST24). When the virtual viewpoint VP moves to the viewpoint VP3 of the back image and a region similar to the back image is indicated in the composite image CPm, the back image CP3 is displayed on the display 21 instead of the composite image CPm. As a result, the mode is switched to the back mode M3.

このようなアニメーション表現を行うことで、瞬時に周辺画像を表示した場合と比較して、切り替え後に表示された周辺画像がどの視点からみた周辺画像であるかをユーザが直感的に把握することができる。また、仮想視点の移動の起点となる基準視点VP0を、車両9を俯瞰する視点とするため、移動後の視点の視点位置や視野方向を、車両全体を基準に容易に把握することができる。   By performing such an animation expression, the user can intuitively grasp from which viewpoint the peripheral image displayed after switching is the peripheral image as compared to the case where the peripheral image is displayed instantaneously. it can. In addition, since the reference viewpoint VP0 that is the starting point of the movement of the virtual viewpoint is a viewpoint overlooking the vehicle 9, the viewpoint position and the viewing direction of the viewpoint after the movement can be easily grasped based on the entire vehicle.

図10は、ナビモードM0から周辺画像を表示する動作モードM1,M2,M3のいずれかに切り替える場合の処理の流れを示す図である。この処理は、主に表示制御部12の制御により実現される。   FIG. 10 is a diagram illustrating a flow of processing when switching from the navigation mode M0 to any one of the operation modes M1, M2, and M3 for displaying the surrounding images. This process is realized mainly by the control of the display control unit 12.

まず、基準視点VP0の視点位置及び視点方向を示すデータが、不揮発性メモリ40に記憶された視点データ4aから取得される(ステップS11)。次に、移動先の視点の視点位置及び視点方向を示すデータが、不揮発性メモリ40に記憶された視点データ4aから取得される(ステップS12)。移動先の視点とは、切り替え後に表示される周辺画像の視点である。具体的には、移動先の視点は、フロントモードM1に切り替える場合はフロント画像の視点、サイドモードM2に切り替える場合はサイド画像の視点、バックモードM3に切り替える場合はバック画像の視点である。   First, data indicating the viewpoint position and viewpoint direction of the reference viewpoint VP0 is acquired from the viewpoint data 4a stored in the nonvolatile memory 40 (step S11). Next, data indicating the viewpoint position and viewpoint direction of the destination viewpoint is acquired from the viewpoint data 4a stored in the nonvolatile memory 40 (step S12). The destination viewpoint is the viewpoint of the peripheral image displayed after switching. Specifically, the destination viewpoint is the front image viewpoint when switching to the front mode M1, the side image viewpoint when switching to the side mode M2, and the back image viewpoint when switching to the back mode M3.

次に、基準視点VP0からみた合成画像、すなわち、俯瞰画像CP0が合成画像生成部32に生成され、ディスプレイ21に表示される(図5参照。)(ステップS13)。   Next, a composite image viewed from the reference viewpoint VP0, that is, the overhead image CP0 is generated in the composite image generation unit 32 and displayed on the display 21 (see FIG. 5) (step S13).

続いて、複数の合成画像CPmを時間的に連続して表示して、基準視点VP0から移動先の視点まで仮想視点VPの位置が段階的に移動するアニメーション表現がなされる。この仮想視点VPの移動中においては、仮想視点VPの視点位置及び視点方向はそれぞれ段階的に変更される。   Subsequently, a plurality of synthesized images CPm are continuously displayed in time, and an animation expression is performed in which the position of the virtual viewpoint VP moves stepwise from the reference viewpoint VP0 to the destination viewpoint. While the virtual viewpoint VP is moving, the viewpoint position and the viewpoint direction of the virtual viewpoint VP are changed in stages.

具体的には、まず、移動先の視点へ向けて、仮想視点VPが1フレーム分に相当する量だけ移動される(ステップS14)。この移動中における仮想視点VPの視点位置及び視点方向は、移動前の視点の視点位置及び視点方向と、移動後の視点の視点位置及び視点方向と、移動に用いる合成画像のフレーム数とに基づいて線形補完により導出される。そして、この仮想視点VPからの合成画像CPmが合成画像生成部32により生成され、ディスプレイ21に表示される(ステップS15)。   Specifically, first, the virtual viewpoint VP is moved toward the destination viewpoint by an amount corresponding to one frame (step S14). The viewpoint position and viewpoint direction of the virtual viewpoint VP during movement are based on the viewpoint position and viewpoint direction of the viewpoint before movement, the viewpoint position and viewpoint direction of the viewpoint after movement, and the number of frames of the composite image used for movement. Derived by linear interpolation. Then, the composite image CPm from the virtual viewpoint VP is generated by the composite image generation unit 32 and displayed on the display 21 (step S15).

このようなステップS14及びステップS15の処理が繰り返されることで、仮想視点の位置が段階的に移動するアニメーション表現がなされる。ステップS14及びステップS15の処理は、仮想視点VPが移動先の視点に到達するまで繰り返される。このようなアニメーション表現は例えば0.5秒〜1.5秒かけて行われる。   By repeating the processes of step S14 and step S15, an animation expression in which the position of the virtual viewpoint moves stepwise is performed. Steps S14 and S15 are repeated until the virtual viewpoint VP reaches the destination viewpoint. Such animation expression is performed over 0.5 seconds to 1.5 seconds, for example.

仮想視点VPが移動先の視点に到達すると(ステップS16にてYes)、ディスプレイ21において合成画像CPmに代えて、動作モードの切り替え後に表示すべき撮影画像(フロント画像SP1、サイド画像SP2及びバック画像SP3のいずれか)が表示される(ステップS17)。この場合に、瞬時に切り替えずに、アルファブレンドなどの周知の手法を利用して、合成画像CPmから表示すべき撮影画像に徐々にディスプレイ21の表示内容を切り替えるようにしてもよい。   When the virtual viewpoint VP reaches the destination viewpoint (Yes in step S16), instead of the synthesized image CPm on the display 21, the captured images (front image SP1, side image SP2, and back image to be displayed after switching the operation mode) Any one of SP3) is displayed (step S17). In this case, the display content of the display 21 may be gradually switched from the composite image CPm to the captured image to be displayed by using a known method such as alpha blending instead of instantaneously switching.

<1−5.視点の変更>
次に、周辺画像を表示する動作モードM1,M2,M3の相互間で動作モードを切り替える場合について説明する。この場合においては、仮想視点は、切り替え前の周辺画像の視点から基準視点VP0まで段階的かつ連続的に移動され、さらに、基準視点VP0から切り替え後の周辺画像の視点まで段階的かつ連続的に移動される。
<1-5. Change of perspective>
Next, a case where the operation mode is switched between the operation modes M1, M2, and M3 for displaying the peripheral image will be described. In this case, the virtual viewpoint is moved stepwise and continuously from the viewpoint of the peripheral image before switching to the reference viewpoint VP0, and further, stepwise and continuously from the reference viewpoint VP0 to the viewpoint of the peripheral image after switching. Moved.

図11は、フロントモードM1からバックモードM3に切り替える場合における仮想視点の遷移を示す図である。この場合は、仮想視点VPは、フロント画像の視点VP1から基準視点VP0まで段階的に移動され、その後、基準視点VP0からバック画像の視点VP3まで段階的に移動される。そして、このように仮想視点VPが段階的に移動されている状態で、複数の合成画像が時間的に連続して生成される。生成された複数の合成画像は、ナビゲーション装置20に順次に出力されて、ディスプレイ21に時間的に連続して表示される。   FIG. 11 is a diagram illustrating the transition of the virtual viewpoint when switching from the front mode M1 to the back mode M3. In this case, the virtual viewpoint VP is moved in stages from the viewpoint VP1 of the front image to the reference viewpoint VP0, and then moved in stages from the reference viewpoint VP0 to the viewpoint VP3 of the back image. Then, a plurality of synthesized images are continuously generated in time with the virtual viewpoint VP being moved stepwise in this way. The plurality of generated composite images are sequentially output to the navigation device 20 and displayed on the display 21 continuously in time.

これにより、図12に示すように、ディスプレイ21において、フロント画像の視点VP1から基準視点VP0を経由してバック画像の視点VP3まで、表示する合成画像CPmの仮想視点が段階的に移動するようなアニメーション表現がなされることになる。   As a result, as shown in FIG. 12, the virtual viewpoint of the composite image CPm to be displayed gradually moves from the viewpoint VP1 of the front image to the viewpoint VP3 of the back image via the reference viewpoint VP0 on the display 21. Animation expression will be made.

すなわち、ディスプレイ21に表示する合成画像CPmは、当初はフロント画像と同様に車両9の前方の領域を示している(状態ST31)。そして、合成画像CPmは、徐々に車両9の車体前方を示し(状態ST32)、その後、車両9の全体を俯瞰して示す(状態ST33)。このとき、ディスプレイ21には、基準視点VP0からの合成画像CPmである俯瞰画像CP0が表示されたことになる。続いて、合成画像CPmが示す被写体像の上下が反転される(状態ST34)。そして、合成画像CPmは、徐々に車両9の後方の領域を拡大して示し(状態ST35)、最終的に車両9の後方の領域を示すことになる(状態ST36)。   That is, the composite image CPm displayed on the display 21 initially indicates a region in front of the vehicle 9 similarly to the front image (state ST31). The composite image CPm gradually shows the front side of the vehicle 9 (state ST32), and then shows the entire vehicle 9 in an overhead view (state ST33). At this time, the bird's-eye view image CP0 that is the composite image CPm from the reference viewpoint VP0 is displayed on the display 21. Subsequently, the top and bottom of the subject image indicated by the composite image CPm are reversed (state ST34). The composite image CPm gradually enlarges and shows the area behind the vehicle 9 (state ST35), and finally shows the area behind the vehicle 9 (state ST36).

表示する周辺画像の視点を変更する場合においても、このようなアニメーション表現を行うことで、周辺画像の視点を瞬時に切り替えた場合と比較して、切り替え後に表示された周辺画像がどの視点からみた周辺画像であるかをユーザが直感的に把握することができる。   Even when changing the viewpoint of the surrounding image to be displayed, by performing such animation expression, the viewpoint of the peripheral image displayed after switching is viewed from which point of view compared to when the viewpoint of the surrounding image is switched instantaneously. The user can intuitively grasp whether the image is a peripheral image.

図13は、周辺画像を表示する動作モードM1,M2,M3の相互間で動作モードを切り替える場合の処理の流れを示す図である。この処理も、主に表示制御部12の制御により実現される。   FIG. 13 is a diagram illustrating a flow of processing when the operation mode is switched between the operation modes M1, M2, and M3 for displaying the peripheral image. This process is also realized mainly by the control of the display control unit 12.

まず、基準視点VP0の視点位置及び視点方向を示すデータが、不揮発性メモリ40に記憶された視点データ4aから取得される(ステップS21)。次に、移動元の視点及び移動先の視点それぞれの視点位置及び視点方向を示すデータが、不揮発性メモリ40に記憶された視点データ4aから取得される(ステップS22)。移動元の視点とは、切り替え前に表示された周辺画像の視点である。具体的には、移動元の視点は、フロントモードM1から切り替える場合はフロント画像の視点、サイドモードM2から切り替える場合はサイド画像の視点、バックモードM3から切り替える場合はバック画像の視点である。   First, data indicating the viewpoint position and viewpoint direction of the reference viewpoint VP0 is acquired from the viewpoint data 4a stored in the nonvolatile memory 40 (step S21). Next, data indicating the viewpoint position and the viewpoint direction of each of the movement source viewpoint and the movement destination viewpoint is acquired from the viewpoint data 4a stored in the nonvolatile memory 40 (step S22). The source viewpoint is the viewpoint of the peripheral image displayed before switching. Specifically, the viewpoint of the movement source is the viewpoint of the front image when switching from the front mode M1, the viewpoint of the side image when switching from the side mode M2, and the viewpoint of the back image when switching from the back mode M3.

次に、移動元の視点からみた合成画像CPmが生成される。そして、動作モードの切り替え前に表示していた撮影画像に代えて、生成された合成画像CPmがディスプレイ21に表示される(ステップS23)。この場合に、瞬時に切り替えずに、アルファブレンドなどの周知の手法を利用して、表示していた撮影画像から合成画像CPmに徐々にディスプレイ21の表示内容を切り替えるようにしてもよい。   Next, a composite image CPm viewed from the viewpoint of the movement source is generated. Then, the generated composite image CPm is displayed on the display 21 instead of the captured image displayed before the operation mode is switched (step S23). In this case, the display content of the display 21 may be gradually switched from the displayed captured image to the composite image CPm using a known method such as alpha blending instead of instantaneously switching.

続いて、複数の合成画像CPmを時間的に連続して表示して、移動元の視点から基準視点VP0まで仮想視点VPの位置が段階的に移動するアニメーション表現がなされる。まず、基準視点VP0へ向けて、仮想視点VPが1フレーム分に相当する量だけ移動される(ステップS24)。そして、この仮想視点VPからの合成画像CPmが合成画像生成部32により生成され、ディスプレイ21に表示される(ステップS25)。このステップS24及びステップS25の処理が、仮想視点VPが基準視点VP0に到達するまで繰り返される。   Subsequently, a plurality of synthesized images CPm are continuously displayed in time, and an animation expression in which the position of the virtual viewpoint VP moves in a stepwise manner from the source viewpoint to the reference viewpoint VP0 is performed. First, the virtual viewpoint VP is moved toward the reference viewpoint VP0 by an amount corresponding to one frame (step S24). Then, a composite image CPm from this virtual viewpoint VP is generated by the composite image generation unit 32 and displayed on the display 21 (step S25). The processes of step S24 and step S25 are repeated until the virtual viewpoint VP reaches the reference viewpoint VP0.

仮想視点VPが基準視点VP0に到達すると(ステップS26にてYes)、続いて、複数の合成画像CPmを時間的に連続して表示して、基準視点VP0から移動先の視点まで仮想視点VPの位置が段階的に移動するアニメーション表現がなされる。まず、移動先の視点へ向けて、仮想視点VPが1フレーム分に相当する量だけ移動される(ステップS27)。そして、この仮想視点VPからの合成画像CPmが合成画像生成部32により生成され、ディスプレイ21に表示される(ステップS28)。このステップS27及びステップS28の処理が、仮想視点VPが移動先の視点に到達するまで繰り返される。   When the virtual viewpoint VP reaches the reference viewpoint VP0 (Yes in step S26), subsequently, a plurality of composite images CPm are continuously displayed in time, and the virtual viewpoint VP from the reference viewpoint VP0 to the destination viewpoint is displayed. An animation expression in which the position moves in stages is made. First, the virtual viewpoint VP is moved by an amount corresponding to one frame toward the destination viewpoint (step S27). Then, the composite image CPm from the virtual viewpoint VP is generated by the composite image generation unit 32 and displayed on the display 21 (step S28). The processes of step S27 and step S28 are repeated until the virtual viewpoint VP reaches the destination viewpoint.

このような処理により、ディスプレイ21において、移動元の視点から基準視点VP0を経由して移動先の視点まで仮想視点VPの位置が段階的に移動するアニメーション表現がなされる。このようなアニメーション表現は例えば0.5秒〜1.5秒かけて行われる。   As a result of such processing, an animation expression in which the position of the virtual viewpoint VP moves stepwise from the source viewpoint to the destination viewpoint via the reference viewpoint VP0 is performed on the display 21. Such animation expression is performed over 0.5 seconds to 1.5 seconds, for example.

仮想視点VPが移動先の視点に到達すると(ステップS29にてYes)、ディスプレイ21において合成画像CPmに代えて、動作モードの切り替え後に表示すべき撮影画像が表示される(ステップS30)。この場合も、瞬時に切り替えずに、アルファブレンドなどの周知の手法を利用して、合成画像CPmから表示すべき撮影画像に徐々にディスプレイ21の表示内容を切り替えるようにしてもよい。   When the virtual viewpoint VP reaches the destination viewpoint (Yes in step S29), a captured image to be displayed after switching the operation mode is displayed on the display 21 instead of the composite image CPm (step S30). Also in this case, the display content of the display 21 may be gradually switched from the composite image CPm to the captured image to be displayed by using a known method such as alpha blending instead of instantaneously switching.

以上のように、画像表示システム120においては、ディスプレイ21の表示内容を周辺画像に切り替える場合に、複数の合成画像CPmを時間的に連続して表示して、所定の基準視点VP0から移動先の視点まで仮想視点VPの位置が段階的に移動するアニメーション表現がなされる。このため、切り替え後にディスプレイ21に表示された周辺画像がどの視点からみた周辺画像であるかをユーザが直感的に把握することができる。   As described above, in the image display system 120, when the display content of the display 21 is switched to the peripheral image, a plurality of composite images CPm are displayed in time sequence, and the destination is moved from the predetermined reference viewpoint VP0. An animation expression in which the position of the virtual viewpoint VP moves to the viewpoint in stages is made. For this reason, the user can intuitively grasp from which viewpoint the peripheral image displayed on the display 21 after the switching is viewed.

また、地図画像から周辺画像に表示内容を切り替える場合に、アニメーション表現を行うため、瞬時に周辺画像を表示した場合と比較して、切り替え後に表示された周辺画像がどの視点からみた周辺画像であるかをユーザが直感的に把握することができる。   Also, when switching the display content from the map image to the peripheral image, animation is expressed, so the peripheral image displayed after switching is the peripheral image viewed from which viewpoint compared to the case where the peripheral image is displayed instantaneously. The user can intuitively grasp this.

また、表示する周辺画像の視点を切り替える場合には、切り替え前の周辺画像の視点から基準視点を経由して切り替え後の周辺画像の視点まで、仮想視点VPの位置が段階的に移動するアニメーション表現がなされる。このため、周辺画像の視点を瞬時に切り替えた場合と比較して、切り替え後に表示された周辺画像がどの視点からみた周辺画像であるかをユーザが直感的に把握できる。   In addition, when the viewpoint of the peripheral image to be displayed is switched, an animation expression in which the position of the virtual viewpoint VP moves stepwise from the viewpoint of the peripheral image before switching to the viewpoint of the peripheral image after switching through the reference viewpoint. Is made. For this reason, compared with the case where the viewpoint of the peripheral image is switched instantaneously, the user can intuitively understand from which viewpoint the peripheral image displayed after the switching is viewed.

また、車両9を俯瞰する視点を基準視点VP0とし、この基準視点VP0から切り替え後の周辺画像の視点まで仮想視点VPが段階的に移動するアニメーション表現がなされる。このため、切り替え後の周辺画像の視点を車両全体を基準に容易に把握することができる。   Further, the viewpoint overlooking the vehicle 9 is set as a reference viewpoint VP0, and an animation expression in which the virtual viewpoint VP moves in stages from the reference viewpoint VP0 to the viewpoint of the peripheral image after switching is performed. For this reason, the viewpoint of the surrounding image after switching can be easily grasped on the basis of the entire vehicle.

<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第1の実施の形態では、車両9を俯瞰する視点を基準視点VP0としていたが、第2の実施の形態では、車両9のドライバの視点を基準視点VP0としている。第2の実施の形態の画像表示システム120の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
<2. Second Embodiment>
Next, a second embodiment will be described. In the first embodiment, the viewpoint overlooking the vehicle 9 is the reference viewpoint VP0. However, in the second embodiment, the viewpoint of the driver of the vehicle 9 is the reference viewpoint VP0. Since the configuration and operation of the image display system 120 of the second embodiment are substantially the same as those of the first embodiment, the following description will focus on differences from the first embodiment.

第2の実施の形態において、ナビモードM0から周辺画像を表示する動作モードM1,M2,M3のいずれかに切り替える場合においては、まず、図14に示すように、ナビモードM0の地図画像NPを表示している状態から、車両9のドライバの視点からみた様子を示すドライバ視点画像CP5が表示される。   In the second embodiment, when switching from the navigation mode M0 to any one of the operation modes M1, M2, and M3 for displaying surrounding images, first, as shown in FIG. 14, a map image NP in the navigation mode M0 is displayed. From the displayed state, a driver viewpoint image CP5 showing a state viewed from the viewpoint of the driver of the vehicle 9 is displayed.

このドライバ視点画像CP5では、ドライバの視点からみた車両9の前方の領域と、ドライバの視点からみた車両9の内装とが示されている。このドライバ視点画像CP5は、ドライバの視点を仮想視点VPとする合成画像と、車両9の内装を示す内装画像とを重畳することで合成画像生成部32により生成される。内装画像には、予め不揮発性メモリ40に記憶されたビットマップやポリゴンなどのデータが用いられる。仮想視点VPは、このドライバの視点から、切り替え後に表示する周辺画像の視点まで段階的に移動される。   In this driver viewpoint image CP5, an area in front of the vehicle 9 as viewed from the driver's viewpoint and the interior of the vehicle 9 as viewed from the driver's viewpoint are shown. The driver viewpoint image CP <b> 5 is generated by the composite image generation unit 32 by superimposing a composite image having the driver's viewpoint as the virtual viewpoint VP and an interior image indicating the interior of the vehicle 9. For the interior image, data such as a bitmap or polygon stored in advance in the nonvolatile memory 40 is used. The virtual viewpoint VP is moved stepwise from the viewpoint of this driver to the viewpoint of the peripheral image displayed after switching.

例えば、ナビモードM0からバックモードM3に切り替える場合においては、図15に示すように、ドライバの視点VP5からバック画像の視点VP3まで仮想視点VPが段階的に移動される。そして、このように仮想視点VPが段階的に移動されている状態で複数の合成画像が生成されて、ディスプレイ21に時間的に連続して表示される。   For example, when switching from the navigation mode M0 to the back mode M3, as shown in FIG. 15, the virtual viewpoint VP is moved stepwise from the viewpoint VP5 of the driver to the viewpoint VP3 of the back image. Then, a plurality of composite images are generated in such a state that the virtual viewpoint VP is moved stepwise, and are displayed on the display 21 continuously in time.

これにより、ディスプレイ21において、ドライバの視点VP5からバック画像の視点VP3まで、表示する合成画像の仮想視点が段階的に移動するようなアニメーション表現がなされる。すなわち、ディスプレイ21に表示する合成画像CPmは、当初はドライバの視点VP5からの車両の前方の領域を示し、徐々に車両9の側方の領域を示し、最終的に車両9の後方の領域を示すことになる。   As a result, on the display 21, an animation expression is made such that the virtual viewpoint of the composite image to be displayed moves stepwise from the viewpoint VP 5 of the driver to the viewpoint VP 3 of the back image. That is, the composite image CPm displayed on the display 21 initially indicates a region in front of the vehicle from the driver's viewpoint VP5, gradually indicates a region on the side of the vehicle 9, and finally displays a region behind the vehicle 9. Will show.

このように、第2の実施の形態では、車両9のドライバの視点VP5から周辺画像の視点まで仮想視点が段階的に移動するアニメーション表現がなされるため、切り替え後の周辺画像の視点をドライバの視点を基準にユーザが容易に把握することができる。   As described above, in the second embodiment, since the virtual viewpoint moves in a stepwise manner from the viewpoint VP5 of the driver of the vehicle 9 to the viewpoint of the peripheral image, the viewpoint of the peripheral image after switching is set to the driver's viewpoint. The user can easily grasp it based on the viewpoint.

表示する周辺画像の視点を異なる視点に切り替える場合には、切り替え前の周辺画像の視点からドライバの視点VP5を経由して切り替え後の周辺画像の視点まで、仮想視点VPの位置が段階的に移動するアニメーション表現が行われる。   When the viewpoint of the peripheral image to be displayed is switched to a different viewpoint, the position of the virtual viewpoint VP moves stepwise from the viewpoint of the peripheral image before switching to the viewpoint of the peripheral image after switching through the viewpoint VP5 of the driver. An animated expression is performed.

なお、アニメーション表現に用いる合成画像においては、内装画像を重畳し、仮想視点VPの変更に合わせて重畳する内装画像を変更するようにしてもよい。これにより、図15に示すように仮想視点VPを遷移させた場合は、ドライバが車両9の後方へ振り返った場合に視認するものと同様の様子を示す合成画像をディスプレイ21に表示することができ、移動する仮想視点の位置をユーザが直感的に把握することができる。   In the synthesized image used for the animation expression, the interior image may be superimposed and the interior image to be superimposed may be changed in accordance with the change of the virtual viewpoint VP. As a result, when the virtual viewpoint VP is changed as shown in FIG. 15, a composite image showing the same state as that visually recognized when the driver turns back to the vehicle 9 can be displayed on the display 21. The user can intuitively grasp the position of the moving virtual viewpoint.

また、図16に示すように、仮想視点VPを移動する前に、仮想視点VPの視野方向を移動先の視点の視野方向に変更してから、仮想視点VPを移動させるようにしてもよい。この場合も、アニメーション表現に用いる合成画像に内装画像を重畳するようにすれば、車両9の車室内を進むような様子を示す合成画像をディスプレイ21に表示することができ、移動する仮想視点の位置をユーザが直感的に把握することができる。   Further, as shown in FIG. 16, before moving the virtual viewpoint VP, the virtual viewpoint VP may be moved after changing the visual field direction of the virtual viewpoint VP to the visual field direction of the destination viewpoint. Also in this case, if the interior image is superimposed on the composite image used for the animation expression, a composite image showing a state of traveling through the vehicle interior of the vehicle 9 can be displayed on the display 21, and the moving virtual viewpoint can be displayed. The user can intuitively grasp the position.

<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第1の実施の形態では、ナビモードM0から周辺画像を表示する動作モードM1,M2,M3のいずれかに切り替える場合において、地図画像NPからそのまま俯瞰画像CP0にディスプレイ21の表示内容を切り替えていた(図5参照。)。これに対して、第3の実施の形態では、地図画像NPの表示と俯瞰画像CP0の表示との間に、航空写真などの写真画像を表示するようにしている。第3の実施の形態の画像表示システム120の構成及び動作も、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
<3. Third Embodiment>
Next, a third embodiment will be described. In the first embodiment, when switching from the navigation mode M0 to any one of the operation modes M1, M2, and M3 for displaying surrounding images, the display content of the display 21 is switched from the map image NP to the overhead image CP0 as it is. (See FIG. 5). On the other hand, in the third embodiment, a photographic image such as an aerial photograph is displayed between the display of the map image NP and the display of the overhead image CP0. Since the configuration and operation of the image display system 120 of the third embodiment are also substantially the same as those of the first embodiment, the following description will focus on differences from the first embodiment.

図17は、第3の実施の形態の画像表示システム120の構成を示すブロック図である。第3の実施の形態の画像表示システム120では、画像生成装置100の本体部10が、無線通信部45を備えている。   FIG. 17 is a block diagram illustrating a configuration of an image display system 120 according to the third embodiment. In the image display system 120 according to the third embodiment, the main body unit 10 of the image generation apparatus 100 includes a wireless communication unit 45.

無線通信部45は、無線通信によりインターネットなどのネットワーク80に接続し、ネットワーク80に接続されたサーバ装置81からデータを取得することが可能である。サーバ装置81においては、航空写真や衛星写真など上空から地上を撮影した写真画像が記憶されている。   The wireless communication unit 45 is connected to a network 80 such as the Internet by wireless communication, and can acquire data from the server device 81 connected to the network 80. The server device 81 stores a photographic image obtained by photographing the ground from the sky such as an aerial photograph or a satellite photograph.

また、画像表示システム120は、プログラムに従って制御部1のCPUが演算処理を行うことで実現される機能として、写真取得部13を備えている。写真取得部13は、無線通信部45を介して、サーバ装置81に対して、緯度、経度及び縮尺等を示す要求信号を送信する。これにより、写真取得部13は、任意の位置の任意の縮尺の写真画像を取得することができる。写真取得部13は、ナビゲーション装置20が備えるGPS装置で得られる車両9の位置(緯度、経度)に基づいて、車両9の周辺の領域を示す写真画像を取得する。第3の実施の形態の画像表示システム120のその他の構成は、図1に示す第1の実施の形態の画像表示システム120と同様である。   The image display system 120 also includes a photo acquisition unit 13 as a function realized by the CPU of the control unit 1 performing arithmetic processing according to a program. The photograph acquisition unit 13 transmits a request signal indicating latitude, longitude, scale, and the like to the server device 81 via the wireless communication unit 45. Thereby, the photo acquisition unit 13 can acquire a photo image of an arbitrary scale at an arbitrary position. The photo acquisition unit 13 acquires a photo image indicating a region around the vehicle 9 based on the position (latitude, longitude) of the vehicle 9 obtained by the GPS device included in the navigation device 20. Other configurations of the image display system 120 of the third embodiment are the same as those of the image display system 120 of the first embodiment shown in FIG.

第3の実施の形態において、ナビモードM0から周辺画像を表示する動作モードM1,M2,M3のいずれかに切り替える場合においては、まず、図18に示すように、ナビモードM0の地図画像NPを表示している状態から、写真画像APが表示される。   In the third embodiment, when switching from the navigation mode M0 to any one of the operation modes M1, M2, and M3 for displaying surrounding images, first, as shown in FIG. 18, a map image NP in the navigation mode M0 is displayed. From the displayed state, the photographic image AP is displayed.

この写真画像APは、切り替え前に表示されていた地図画像NPと略同一の縮尺で、車両9の周辺の領域を示すものとなっている。したがって、地図画像NPと写真画像APとは、車両9を中心とした略同一の領域を示すことになる。このため、地図画像NPから写真画像APにディスプレイ21の表示内容が切り替わったとしてもユーザに違和感を与えることが無い。このような写真画像APは、写真取得部13の制御により、無線通信部45を利用してサーバ装置81から取得される。   This photographic image AP shows an area around the vehicle 9 at approximately the same scale as the map image NP displayed before switching. Therefore, the map image NP and the photographic image AP indicate substantially the same region with the vehicle 9 as the center. For this reason, even if the display content of the display 21 is switched from the map image NP to the photographic image AP, the user does not feel uncomfortable. Such a photo image AP is acquired from the server device 81 using the wireless communication unit 45 under the control of the photo acquisition unit 13.

この写真画像APに示される被写体像は、俯瞰画像CP0と略同一の縮尺で車両9の周囲の領域を示すまで段階的に拡大される。図19は、ナビモードM0からフロントモードM1に切り替える場合において、ディスプレイ21に表示される画像の遷移を示す図である。ディスプレイ21においては、まず、地図画像NPと略同一の縮尺で車両9の周辺の領域を示す写真画像APが表示される(状態ST41)。そして、この写真画像APの被写体像が段階的に拡大され(状態ST42)、写真画像APは、俯瞰画像CP0と略同一の縮尺で車両9の周囲の領域を示すことになる(状態ST43)。   The subject image shown in this photographic image AP is enlarged step by step until it shows an area around the vehicle 9 at approximately the same scale as the overhead image CP0. FIG. 19 is a diagram illustrating transition of images displayed on the display 21 when the navigation mode M0 is switched to the front mode M1. On the display 21, first, a photographic image AP showing a region around the vehicle 9 is displayed at a scale substantially the same as the map image NP (state ST41). Then, the subject image of the photographic image AP is enlarged stepwise (state ST42), and the photographic image AP shows an area around the vehicle 9 at the same scale as the overhead image CP0 (state ST43).

この状態で、写真画像APから、基準視点VP0からみた合成画像CPmである俯瞰画像CP0にディスプレイ21の表示内容が切り替えられる(状態ST44)。この切り替え前後の写真画像APと俯瞰画像CP0とは、略同一の領域を示している。このため、写真画像APから俯瞰画像CP0にディスプレイ21の表示内容が切り替わったとしてもユーザに違和感を与えることが無い。   In this state, the display content of the display 21 is switched from the photographic image AP to the overhead image CP0 that is the composite image CPm viewed from the reference viewpoint VP0 (state ST44). The photographic image AP and the bird's-eye view CP0 before and after the switching show substantially the same area. For this reason, even if the display content of the display 21 is switched from the photographic image AP to the overhead image CP0, there is no sense of incongruity to the user.

そして、以降は、第1の実施の形態と同様に、基準視点VP0からフロント画像の視点VP1まで、表示する合成画像CPmの仮想視点が段階的に移動するようなアニメーション表現がなされることになる(状態ST45,ST46)。   Thereafter, as in the first embodiment, an animation expression is performed such that the virtual viewpoint of the composite image CPm to be displayed moves stepwise from the reference viewpoint VP0 to the viewpoint VP1 of the front image. (States ST45 and ST46).

図20は、ナビモードM0から周辺画像を表示する動作モードM1,M2,M3のいずれかに切り替える場合の処理の流れを示す図である。   FIG. 20 is a diagram illustrating a flow of processing when switching from the navigation mode M0 to any one of the operation modes M1, M2, and M3 for displaying the surrounding image.

まず、基準視点VP0の視点位置及び視点方向を示すデータが取得され(ステップS31)、次に、移動先の視点の視点位置及び視点方向を示すデータが取得される(ステップS32)。   First, data indicating the viewpoint position and viewpoint direction of the reference viewpoint VP0 is acquired (step S31), and then data indicating the viewpoint position and viewpoint direction of the destination viewpoint is acquired (step S32).

次に、写真取得部13が、ナビゲーション装置20から、車両9の位置(緯度、経度)及び表示している地図画像NPの縮尺を取得する。そして、これらの車両9の位置(緯度、経度)及び縮尺を含む要求信号を無線通信部45を利用してサーバ装置81に送信する。これにより、写真取得部13は、地図画像NPと略同一の縮尺で、車両9の周辺の領域を示す写真画像APをサーバ装置81から取得する(ステップS33)。   Next, the photograph acquisition unit 13 acquires the position (latitude, longitude) of the vehicle 9 and the scale of the displayed map image NP from the navigation device 20. Then, a request signal including the position (latitude, longitude) and scale of the vehicle 9 is transmitted to the server device 81 using the wireless communication unit 45. Thereby, the photograph acquisition part 13 acquires the photograph image AP which shows the area | region of the periphery of the vehicle 9 from the server apparatus 81 by the substantially the same scale as the map image NP (step S33).

取得された写真画像APは、地図画像NPに代えて表示制御部12の制御によりディスプレイ21に表示される(ステップS34)。この場合に、瞬時に切り替えずに、アルファブレンドなどの周知の手法を利用して、地図画像NPから写真画像APに徐々にディスプレイ21の表示内容を切り替えるようにしてもよい。   The acquired photographic image AP is displayed on the display 21 under the control of the display control unit 12 instead of the map image NP (step S34). In this case, the display content of the display 21 may be gradually switched from the map image NP to the photographic image AP by using a known method such as alpha blending instead of instantaneously switching.

次に、表示制御部12の制御により、写真画像APの被写体像が段階的に拡大される(ステップS35)。この拡大によって、写真画像APが示す車両9の周辺の領域の縮尺が俯瞰画像CP0の縮尺と略同一となると(ステップS36にてYes)、写真画像APの被写体像の拡大が停止される。   Next, the subject image of the photographic image AP is enlarged stepwise by the control of the display control unit 12 (step S35). When the scale of the area around the vehicle 9 indicated by the photographic image AP becomes substantially the same as the scale of the overhead image CP0 (Yes in step S36), the enlargement of the subject image of the photographic image AP is stopped.

そして、写真画像APに代えて俯瞰画像CP0がディスプレイ21に表示される(ステップS37)。この場合にも、瞬時に切り替えずに、アルファブレンドなどの周知の手法を利用して、写真画像APから俯瞰画像CP0に徐々にディスプレイ21の表示内容を切り替えるようにしてもよい。以降の処理は、図10に示すステップS14と同様である。   Then, the overhead image CP0 is displayed on the display 21 instead of the photographic image AP (step S37). Also in this case, the display contents of the display 21 may be gradually switched from the photographic image AP to the overhead image CP0 by using a known method such as alpha blending without instantaneously switching. The subsequent processing is the same as step S14 shown in FIG.

このように第3の実施の形態においては、地図画像NPから周辺画像にディスプレイ21の表示内容を切り替える場合において、地図画像NPと略同一の縮尺で車両の周囲の領域を示す写真画像APが表示される。そして、基準視点VP0からみた合成画像CPmである俯瞰画像CP0と略同一縮尺で車両9の周囲の領域を示すまで写真画像APの被写体像が段階的に拡大された後、第1の実施の形態と同様のアニメーション表現がなされる。   As described above, in the third embodiment, when the display content of the display 21 is switched from the map image NP to the peripheral image, the photographic image AP showing the area around the vehicle is displayed at substantially the same scale as the map image NP. Is done. Then, after the subject image of the photographic image AP is enlarged step by step until it shows an area around the vehicle 9 at approximately the same scale as the overhead image CP0 that is the composite image CPm viewed from the reference viewpoint VP0, the first embodiment The same animation expression is made.

このため、切り替え前の地図画像NPから切り替え後の周辺画像まで、ディスプレイ21に表示する画像の視点をスムーズに変更することができる。その結果、切り替え後にディスプレイ21に表示された周辺画像がどの視点からみた周辺画像であるかをユーザがさらに直感的に把握できる。   For this reason, the viewpoint of the image displayed on the display 21 can be changed smoothly from the map image NP before switching to the peripheral image after switching. As a result, the user can more intuitively understand from which viewpoint the peripheral image displayed on the display 21 after the switching is viewed.

<4.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態で説明した形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<4. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All forms including those described in the above embodiment and those described below can be combined as appropriate.

上記実施の形態では、周辺画像を表示する動作モードM1,M2,M3では周辺画像として撮影画像が表示されるものとして説明を行ったが、周辺画像として仮想視点からみた合成画像が表示されるようにしてもよい。例えば、図21に示すように、車両9の後方から車両9の全体をみるような仮想視点からの合成画像CP6を表示する動作モードがあってもよい。このように合成画像を表示する動作モードに切り替える場合も、基準視点から、切り替え後に表示する合成画像の視点まで仮想視点が段階的に移動するようなアニメーション表現を行うようにすることができる。   In the above embodiment, the operation modes M1, M2, and M3 for displaying the peripheral image have been described on the assumption that the captured image is displayed as the peripheral image. However, the composite image viewed from the virtual viewpoint is displayed as the peripheral image. It may be. For example, as shown in FIG. 21, there may be an operation mode in which a composite image CP6 from a virtual viewpoint in which the entire vehicle 9 is viewed from behind the vehicle 9 is displayed. Even when switching to the operation mode for displaying the composite image in this way, it is possible to perform an animation expression in which the virtual viewpoint moves stepwise from the reference viewpoint to the viewpoint of the composite image to be displayed after the switching.

また、第3の実施の形態では、写真取得部13は、写真画像を外部のサーバ装置81から取得すると説明した。これに対して、不揮発性メモリ40や、ナビゲーション装置20が備えるハードディスクなどに写真画像を予め記憶させておき、これらから写真取得部13が写真画像を取得するようにしてもよい。   Further, in the third embodiment, it has been described that the photo acquisition unit 13 acquires a photo image from the external server device 81. On the other hand, a photographic image may be stored in advance in a nonvolatile memory 40 or a hard disk provided in the navigation device 20 and the photographic image acquisition unit 13 may acquire the photographic image therefrom.

また、上記実施の形態では、画像生成装置100とナビゲーション装置20とは別の装置であるとして説明したが、画像生成装置100とナビゲーション装置20とが同一の筐体内に配置されて一体型の装置として構成されてもよい。   In the above-described embodiment, the image generation device 100 and the navigation device 20 are described as separate devices. However, the image generation device 100 and the navigation device 20 are arranged in the same casing and are integrated devices. It may be configured as.

また、上記実施の形態では、画像生成装置100で生成された画像を表示する表示装置はナビゲーション装置20であるとして説明したが、ナビゲーション機能等の特殊な機能を有していない一般的な表示装置であってもよい。   In the above embodiment, the display device that displays the image generated by the image generation device 100 has been described as the navigation device 20, but a general display device that does not have a special function such as a navigation function. It may be.

また、上記実施の形態において、画像生成装置100の制御部1によって実現されると説明した機能の一部は、ナビゲーション装置20の制御部23によって実現されてもよい。   In the above embodiment, some of the functions described as being realized by the control unit 1 of the image generation device 100 may be realized by the control unit 23 of the navigation device 20.

また、シフトセンサ71からの信号は、ナビゲーション装置20に入力されるようになっていてもよい。この場合は、ナビ通信部42を経由して、画像生成装置100の制御部1に当該信号を入力すればよい。   A signal from the shift sensor 71 may be input to the navigation device 20. In this case, the signal may be input to the control unit 1 of the image generation apparatus 100 via the navigation communication unit 42.

また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。   Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good. Conversely, some of the functions realized by the hardware circuit may be realized by software.

5 撮影部
9 車両
12 表示制御部
13 写真取得部
21 ディスプレイ
32 合成画像生成部
81 サーバ装置
AP 写真画像
CP0 俯瞰画像
NP 地図画像
VP 仮想視点
VP0 基準視点
DESCRIPTION OF SYMBOLS 5 Image | photographing part 9 Vehicle 12 Display control part 13 Photograph acquisition part 21 Display 32 Composite image generation part 81 Server apparatus AP Photograph image CP0 Overhead image NP Map image VP Virtual viewpoint VP0 Reference viewpoint

Claims (6)

車両に搭載される画像表示システムであって、
前記車両に配置された複数のカメラそれぞれの撮影画像を入力する入力手段と、
前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する画像生成手段と、
前記撮影画像に基づく第1視点からみた第1周辺画像に、前記第1視点と異なる第2視点からみた第2周辺画像から表示内容を切り替える場合に、複数の前記合成画像を時間的に連続して表示して、前記第2視点から前記車両を俯瞰する視点である基準視点を経由して前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行う表示手段と、
を備えることを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Input means for inputting captured images of each of a plurality of cameras arranged in the vehicle;
Image generating means for generating a composite image showing a region around the vehicle viewed from an arbitrary virtual viewpoint based on the captured image;
When switching display content from a second peripheral image viewed from a second viewpoint different from the first viewpoint to a first peripheral image viewed from the first viewpoint based on the captured image, a plurality of the composite images are temporally continuous. Display means for performing animation representation in which the position of the virtual viewpoint moves stepwise from the second viewpoint to the first viewpoint via a reference viewpoint that is a viewpoint overlooking the vehicle ;
An image display system comprising:
車両に搭載される画像表示システムであって、
前記車両に配置された複数のカメラそれぞれの撮影画像を入力する入力手段と、
前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する画像生成手段と、
前記車両の周辺の地図画像を表示可能な表示手段と、
上空から地上を撮影した写真画像を取得する写真取得手段と、
を備え、
前記表示手段は、前記地図画像から、前記撮影画像に基づく第1視点からみた第1周辺画像に表示内容を切り替える場合に、
前記地図画像と略同一の縮尺で前記車両の周囲の領域を示す前記写真画像を表示した後、
前記車両を俯瞰する視点である基準視点からみた前記合成画像と略同一の縮尺で前記車両の周囲の領域を示すまで前記写真画像の被写体像を段階的に拡大し、さらに、
複数の前記合成画像を時間的に連続して表示して、前記基準視点から前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行うことを特徴とする画像表示システム。
An image display system mounted on a vehicle,
Input means for inputting captured images of each of a plurality of cameras arranged in the vehicle;
Image generating means for generating a composite image showing a region around the vehicle viewed from an arbitrary virtual viewpoint based on the captured image;
Display means capable of displaying a map image around the vehicle;
Photo acquisition means for acquiring a photographic image of the ground taken from above,
With
When the display means switches the display content from the map image to a first peripheral image viewed from a first viewpoint based on the captured image,
After displaying the photographic image showing the area around the vehicle at approximately the same scale as the map image,
Magnifying the subject image of the photographic image in a stepwise manner until it shows an area around the vehicle at approximately the same scale as the composite image viewed from a reference viewpoint that is a viewpoint overlooking the vehicle;
An image display system characterized in that a plurality of the synthesized images are displayed continuously in time, and animation representation is performed in which the position of the virtual viewpoint moves stepwise from the reference viewpoint to the first viewpoint .
車両に搭載される表示装置に表示させる画像を生成する画像生成装置であって、An image generation device that generates an image to be displayed on a display device mounted on a vehicle,
前記車両に配置された複数のカメラそれぞれの撮影画像を入力する入力手段と、Input means for inputting captured images of each of a plurality of cameras arranged in the vehicle;
前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する画像生成手段と、Image generating means for generating a composite image showing a region around the vehicle viewed from an arbitrary virtual viewpoint based on the captured image;
前記表示装置に画像を出力して表示させる出力手段と、Output means for outputting and displaying an image on the display device;
を備え、With
前記表示装置は、前記撮影画像に基づく第1視点からみた第1周辺画像に、前記第1視点と異なる第2視点からみた第2周辺画像から表示内容を切り替える場合に、When the display device switches display content from a second peripheral image viewed from a second viewpoint different from the first viewpoint to a first peripheral image viewed from a first viewpoint based on the captured image,
複数の前記合成画像を時間的に連続して表示して、前記第2視点から前記車両を俯瞰する視点である基準視点を経由して前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行うことを特徴とする画像生成装置。A plurality of the composite images are displayed continuously in time, and the position of the virtual viewpoint moves stepwise from the second viewpoint to the first viewpoint via a reference viewpoint that is a viewpoint overlooking the vehicle. An image generation apparatus characterized by performing animation expression.
車両に搭載される表示装置に表示させる画像を生成する画像生成装置であって、An image generation device that generates an image to be displayed on a display device mounted on a vehicle,
前記車両に配置された複数のカメラそれぞれの撮影画像を入力する入力手段と、Input means for inputting captured images of each of a plurality of cameras arranged in the vehicle;
前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する画像生成手段と、Image generating means for generating a composite image showing a region around the vehicle viewed from an arbitrary virtual viewpoint based on the captured image;
前記表示装置に画像を出力して表示させる出力手段と、Output means for outputting and displaying an image on the display device;
上空から地上を撮影した写真画像を取得する写真取得手段と、Photo acquisition means for acquiring a photographic image of the ground taken from above,
を備え、With
前記表示装置は、前記車両の周辺の地図画像から、前記撮影画像に基づく第1視点からみた第1周辺画像に表示内容を切り替える場合に、The display device, when switching display content from a map image around the vehicle to a first peripheral image viewed from a first viewpoint based on the captured image,
前記地図画像と略同一の縮尺で前記車両の周囲の領域を示す前記写真画像を表示した後、After displaying the photographic image showing the area around the vehicle at approximately the same scale as the map image,
前記車両を俯瞰する視点である基準視点からみた前記合成画像と略同一の縮尺で前記車両の周囲の領域を示すまで前記写真画像の被写体像を段階的に拡大し、さらに、Magnifying the subject image of the photographic image in a stepwise manner until it shows an area around the vehicle at approximately the same scale as the composite image viewed from a reference viewpoint that is a viewpoint overlooking the vehicle;
複数の前記合成画像を時間的に連続して表示して、前記基準視点から前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行うことを特徴とする画像生成装置。An image generating apparatus, wherein a plurality of the synthesized images are displayed continuously in time, and animation expression is performed in which the position of the virtual viewpoint moves stepwise from the reference viewpoint to the first viewpoint.
車両に搭載される表示装置に画像を表示する画像表示方法であって、An image display method for displaying an image on a display device mounted on a vehicle,
(a)前記車両に配置された複数のカメラそれぞれの撮影画像を入力する工程と、(A) inputting a captured image of each of a plurality of cameras arranged in the vehicle;
(b)前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、(B) generating a composite image showing a region around the vehicle viewed from an arbitrary virtual viewpoint based on the captured image;
(c)前記表示装置が画像を表示する工程と、(C) the display device displaying an image;
を備え、With
前記工程(c)は、前記撮影画像に基づく第1視点からみた第1周辺画像に、前記第1視点と異なる第2視点からみた第2周辺画像から表示内容を切り替える場合に、In the case where the display content is switched from the second peripheral image viewed from a second viewpoint different from the first viewpoint to the first peripheral image viewed from the first viewpoint based on the captured image, the step (c)
複数の前記合成画像を時間的に連続して表示して、前記第2視点から前記車両を俯瞰する視点である基準視点を経由して前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行うことを特徴とする画像表示方法。A plurality of the composite images are displayed continuously in time, and the position of the virtual viewpoint moves stepwise from the second viewpoint to the first viewpoint via a reference viewpoint that is a viewpoint overlooking the vehicle. An image display method characterized by performing animation expression.
車両に搭載される表示装置に画像を表示する画像表示方法であって、An image display method for displaying an image on a display device mounted on a vehicle,
(a)前記車両に配置された複数のカメラそれぞれの撮影画像を入力する工程と、(A) inputting a captured image of each of a plurality of cameras arranged in the vehicle;
(b)前記撮影画像に基づいて、任意の仮想視点からみた前記車両の周辺の領域を示す合成画像を生成する工程と、(B) generating a composite image showing a region around the vehicle viewed from an arbitrary virtual viewpoint based on the captured image;
(c)上空から地上を撮影した写真画像を取得する工程と、(C) acquiring a photographic image of the ground taken from the sky;
(d)前記表示装置が画像を表示する工程と、(D) the display device displaying an image;
を備え、With
前記工程(d)は、前記車両の周辺の地図画像から、前記撮影画像に基づく第1視点からみた第1周辺画像に表示内容を切り替える場合に、In the step (d), when the display content is switched from a map image around the vehicle to a first peripheral image viewed from a first viewpoint based on the captured image,
前記地図画像と略同一の縮尺で前記車両の周囲の領域を示す前記写真画像を表示した後、After displaying the photographic image showing the area around the vehicle at approximately the same scale as the map image,
前記車両を俯瞰する視点である基準視点からみた前記合成画像と略同一の縮尺で前記車両の周囲の領域を示すまで前記写真画像の被写体像を段階的に拡大し、さらに、Magnifying the subject image of the photographic image in a stepwise manner until it shows an area around the vehicle at approximately the same scale as the composite image viewed from a reference viewpoint that is a viewpoint overlooking the vehicle;
複数の前記合成画像を時間的に連続して表示して、前記基準視点から前記第1視点まで前記仮想視点の位置が段階的に移動するアニメーション表現を行うことを特徴とする画像表示方法。An image display method, wherein a plurality of the synthesized images are displayed continuously in time, and an animation expression is performed in which the position of the virtual viewpoint moves stepwise from the reference viewpoint to the first viewpoint.
JP2010176928A 2010-08-06 2010-08-06 Image display system, image generation apparatus, and image display method Active JP5658507B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010176928A JP5658507B2 (en) 2010-08-06 2010-08-06 Image display system, image generation apparatus, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010176928A JP5658507B2 (en) 2010-08-06 2010-08-06 Image display system, image generation apparatus, and image display method

Publications (2)

Publication Number Publication Date
JP2012039341A JP2012039341A (en) 2012-02-23
JP5658507B2 true JP5658507B2 (en) 2015-01-28

Family

ID=45850844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010176928A Active JP5658507B2 (en) 2010-08-06 2010-08-06 Image display system, image generation apparatus, and image display method

Country Status (1)

Country Link
JP (1) JP5658507B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10789763B2 (en) 2018-01-17 2020-09-29 Aisin Seiki Kabushiki Kaisha Periphery monitoring device
US11091096B2 (en) 2017-08-14 2021-08-17 Aisin Seiki Kabushiki Kaisha Periphery monitoring device

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6027782B2 (en) * 2012-06-13 2016-11-16 矢崎総業株式会社 Video display device for vehicle
CN104737534B (en) * 2012-10-23 2018-02-16 索尼公司 Information processor, information processing method, program and information processing system
JP6105416B2 (en) * 2013-07-17 2017-03-29 矢崎総業株式会社 Display device
JP6555056B2 (en) * 2015-09-30 2019-08-07 アイシン精機株式会社 Perimeter monitoring device
JP6658642B2 (en) * 2017-03-24 2020-03-04 トヨタ自動車株式会社 Visual recognition device for vehicles
DE102018100211A1 (en) * 2018-01-08 2019-07-11 Connaught Electronics Ltd. A method for generating a representation of an environment by moving a virtual camera towards an interior mirror of a vehicle; as well as camera setup
KR102559686B1 (en) * 2018-12-17 2023-07-27 현대자동차주식회사 Vehicle and vehicle image controlling method
JP7348724B2 (en) * 2019-01-29 2023-09-21 株式会社デンソーテン In-vehicle device and display method
JP2021018474A (en) * 2019-07-17 2021-02-15 株式会社デンソー Information processing system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4797849B2 (en) * 2006-07-14 2011-10-19 株式会社デンソー Driving support image display system and in-vehicle device
JP2009205302A (en) * 2008-02-26 2009-09-10 Tokai Rika Co Ltd Seamless display type operation device
JP5094597B2 (en) * 2008-07-02 2012-12-12 本田技研工業株式会社 Driving assistance device
JP5168186B2 (en) * 2009-02-24 2013-03-21 日産自動車株式会社 Image processing device
WO2011001642A1 (en) * 2009-06-29 2011-01-06 パナソニック株式会社 Vehicle-mounted video display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11091096B2 (en) 2017-08-14 2021-08-17 Aisin Seiki Kabushiki Kaisha Periphery monitoring device
US10789763B2 (en) 2018-01-17 2020-09-29 Aisin Seiki Kabushiki Kaisha Periphery monitoring device

Also Published As

Publication number Publication date
JP2012039341A (en) 2012-02-23

Similar Documents

Publication Publication Date Title
JP5658507B2 (en) Image display system, image generation apparatus, and image display method
JP5302227B2 (en) Image processing apparatus, image processing system, and image processing method
JP5087051B2 (en) Image generating apparatus and image display system
JP5271154B2 (en) Image generating apparatus and image display system
JP5627253B2 (en) Image processing apparatus, electronic apparatus, and image processing method
US9706175B2 (en) Image processing device, image processing system, and image processing method
JP5858650B2 (en) Image generation apparatus, image display system, and image generation method
WO2011078183A1 (en) Image processing device, image processing system, and image processing method
JP5697512B2 (en) Image generation apparatus, image display system, and image display apparatus
JP6548900B2 (en) Image generation apparatus, image generation method and program
WO2000064175A1 (en) Image processing device and monitoring system
JP5914114B2 (en) Parking assistance device and parking assistance method
JP2010274813A (en) Image generation device and image display system
JP2004021307A (en) Driving support device
JP6084097B2 (en) Image generation apparatus, image display system, and image generation method
JP6257978B2 (en) Image generation apparatus, image display system, and image generation method
JP2004254219A (en) Vehicular surrounding image processing apparatus and program, and recording medium
JP5479639B2 (en) Image processing apparatus, image processing system, and image processing method
JP2019102936A (en) Display device, electronic mirror, control method of display device, and display control program
JP6118936B2 (en) Image processing device
JP6370833B2 (en) Image generation apparatus, image display system, and image generation method
JP2012216997A (en) Image display system, image generation apparatus, and image generation method
JP2007323001A (en) Image display device
JP5466743B2 (en) Image generating apparatus and image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141128

R150 Certificate of patent or registration of utility model

Ref document number: 5658507

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250