[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020088843A - Imaging system, terminal, and program - Google Patents

Imaging system, terminal, and program Download PDF

Info

Publication number
JP2020088843A
JP2020088843A JP2019099746A JP2019099746A JP2020088843A JP 2020088843 A JP2020088843 A JP 2020088843A JP 2019099746 A JP2019099746 A JP 2019099746A JP 2019099746 A JP2019099746 A JP 2019099746A JP 2020088843 A JP2020088843 A JP 2020088843A
Authority
JP
Japan
Prior art keywords
image
unit
imaging
display
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019099746A
Other languages
Japanese (ja)
Other versions
JP7234802B2 (en
Inventor
善幸 戸田
Yoshiyuki Toda
善幸 戸田
加藤 喜永
Yoshinaga Kato
喜永 加藤
慎 鳥越
Shin Torigoe
慎 鳥越
朋弘 池田
Tomohiro Ikeda
朋弘 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/654,011 priority Critical patent/US10897573B2/en
Publication of JP2020088843A publication Critical patent/JP2020088843A/en
Application granted granted Critical
Publication of JP7234802B2 publication Critical patent/JP7234802B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

To project a desired display object regardless of the attitude of an imaging unit.SOLUTION: An imaging system comprises: an imaging unit that picks up an image; a detection unit that detects the attitude of the imaging unit; a correction unit that, based on the attitude of the imaging unit and a display portion designated on the image, corrects the image picked up by the imaging unit to project the display portion; and a display unit that displays the image after the correction.SELECTED DRAWING: Figure 6

Description

本発明は、撮像システム、端末及びプログラムに関する。 The present invention relates to an imaging system, a terminal and a program.

半球及び全天球等の広角な視野の画像を撮像するカメラが知られている。 A camera that captures an image of a wide-angle field of view such as a hemisphere and a celestial sphere is known.

例えば、全天球型カメラを備える全天球動画撮像システムがある(例えば、特許文献1)。この全天球カメラは、それぞれが魚眼レンズを有する2つの結像光学系と、2つの撮像素子とを有する。全天球カメラは、2つの撮像素子で撮像された画像を合成処理し、立体角4πステラジアンの画像、つまり全天球画像を生成する。全天球画像は、撮像地点から見渡すことのできる全ての方向を写す画像である。特許文献1の全天球動画撮像システムは、全天球カメラが傾いた状態で撮像される場合でも、傾きを補正することによって、全天球画像の鉛直方向を適正にする。 For example, there is a spherical image capturing system including a spherical camera (for example, Patent Document 1). This spherical camera has two image forming optical systems each having a fisheye lens, and two image pickup elements. The omnidirectional camera synthesizes the images picked up by the two image pickup devices to generate an image having a solid angle of 4π steradians, that is, an omnidirectional image. The omnidirectional image is an image showing all the directions that can be viewed from the imaging point. The omnidirectional video image capturing system of Patent Document 1 corrects the inclination of the omnidirectional image to correct the vertical direction even when the omnidirectional camera is imaged in a tilted state.

特許文献1の全天球動画撮像システムは、全天球型カメラの傾きを補正した全天球画像を生成する。しかしながら、被写体に対して全天球型カメラの向きが変化したとき、全天球画像において、中心に写し出されていた被写体が、他の位置に移動する場合がある。例えば、全天球動画撮像システムにより生成された全天球画像が、通信を介して複数の視聴者に同時に配信される場合、視聴者が望まない被写体が全天球画像の中心に写し出される場合がある。つまり、全天球画像の向きが、視聴者が望まない向きになる場合がある。 The spherical moving image capturing system of Patent Document 1 generates a spherical image in which the tilt of the spherical camera is corrected. However, when the orientation of the omnidirectional camera with respect to the subject changes, the subject projected in the center of the omnidirectional image may move to another position. For example, when the omnidirectional image generated by the omnidirectional video image capturing system is simultaneously delivered to a plurality of viewers through communication, or when an object not desired by the viewer is projected in the center of the omnidirectional image. There is. That is, the orientation of the omnidirectional image may be the orientation that the viewer does not want.

そこで、本開示の撮像システム、端末及びプログラムは、カメラ等の撮像部の姿勢に依らず所望の表示対象を写し出すことを目的とする。 Then, the imaging system, the terminal, and the program of the present disclosure aim to project a desired display target regardless of the orientation of the imaging unit such as a camera.

本発明の一実施形態による撮像システムは、画像を撮像する撮像部と、前記撮像部の姿勢を検出する検出部と、前記撮像部の姿勢と、画像に指定される表示部分とに基づき、前記撮像部によって撮像された画像を、前記表示部分を写し出すように補正する補正部と、補正後の前記画像を表示する表示部とを備える。 An imaging system according to an embodiment of the present invention is based on an imaging unit that captures an image, a detection unit that detects the orientation of the imaging unit, an orientation of the imaging unit, and a display portion designated in the image. A correction unit that corrects the image captured by the image capturing unit so that the display portion is displayed, and a display unit that displays the corrected image.

本開示の技術によれば、撮像部の姿勢に依らず所望の表示対象を写し出すことが可能になる。 According to the technique of the present disclosure, it is possible to capture a desired display target regardless of the posture of the image capturing unit.

実施の形態1に係る撮像システムの構成の一例を示す図FIG. 2 is a diagram showing an example of the configuration of the imaging system according to the first embodiment. 実施の形態1に係る撮像装置の一例を示す側面図Side view showing an example of the imaging device according to the first embodiment 実施の形態1に係る撮像装置のハードウェア構成の一例を示す図FIG. 3 is a diagram showing an example of a hardware configuration of the image pickup apparatus according to the first embodiment. 実施の形態1に係る端末のハードウェア構成の一例を示す図The figure which shows an example of the hardware constitutions of the terminal which concerns on Embodiment 1. 実施の形態1に係る撮像装置の機能的構成の一例を示すブロック図FIG. 3 is a block diagram showing an example of a functional configuration of the image pickup apparatus according to Embodiment 1. 実施の形態1に係る端末の機能的構成の一例を示すブロック図Block diagram showing an example of the functional configuration of the terminal according to the first embodiment 実施の形態1に係る表示用画像生成部によって、平面的な画像フレームから球面の画像フレームに変換される一例を示す図FIG. 3 is a diagram showing an example in which a flat image frame is converted into a spherical image frame by the display image generation unit according to the first embodiment. 図7Aの球面の画像フレームにおける光軸中心上の画像の一例を示す図The figure which shows an example of the image on the optical axis center in the spherical image frame of FIG. 7A. 実施の形態1に係る指定領域の一例を示す図The figure which shows an example of the designated area which concerns on Embodiment 1. 実施の形態1に係る指定領域の中心点の一例を示す図The figure which shows an example of the center point of the designated area|region which concerns on Embodiment 1. 実施の形態1に係る撮像装置の姿勢変化前後における端末の表示画像の一例を示す図FIG. 3 is a diagram showing an example of a display image of a terminal before and after a posture change of the imaging device according to the first embodiment 実施の形態1に係る撮像システムにおける画像の配信動作の一例を示すシーケンス図Sequence diagram showing an example of an image distribution operation in the imaging system according to the first embodiment 実施の形態1に係る撮像装置の動作の一例を示すフローチャートFlowchart showing an example of the operation of the imaging apparatus according to the first embodiment 実施の形態1に係る端末の動作の一例を示すフローチャートThe flowchart which shows an example of operation|movement of the terminal which concerns on Embodiment 1. 実施の形態2に係る指定点及び指定方向の一例を示す図The figure which shows an example of the designated point and designated direction which concern on Embodiment 2. 実施の形態2に係る撮像装置の姿勢変化前後における端末の表示画像の一例を示す図FIG. 6 is a diagram showing an example of display images of a terminal before and after a posture change of the imaging device according to the second embodiment

以下、本発明の実施の形態について添付の図面を参照しつつ説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することによって重複した説明を省く。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, and duplicate description will be omitted.

(実施の形態1)
<撮像システム1000の構成>
実施の形態1に係る撮像システム1000の構成を説明する。図1は、実施の形態1に係る撮像システム1000の構成の一例を示す図である。図1に示すように、撮像システム1000は、撮像装置10と、端末20とを含む。本実施の形態では、撮像システム1000は、1つの撮像装置10と1つの端末20とを含むが、2つ以上の撮像装置10を含んでもよく、2つ以上の端末20を含んでもよい。
(Embodiment 1)
<Structure of Imaging System 1000>
The configuration of the imaging system 1000 according to the first embodiment will be described. FIG. 1 is a diagram showing an example of the configuration of an imaging system 1000 according to the first embodiment. As shown in FIG. 1, the imaging system 1000 includes an imaging device 10 and a terminal 20. In the present embodiment, imaging system 1000 includes one imaging device 10 and one terminal 20, but may include two or more imaging devices 10 and may include two or more terminals 20.

撮像装置10と端末20とは、互いに通信する。撮像装置10によって撮像された撮影画像が、画像データとして端末20に送られ、視聴者は、端末20において、送られた画像データを視ることができる。撮像装置10と端末20とは、通信網30を介して間接的に接続されてもよく、有線通信又は無線通信を介して直接的に接続されてもよい。本実施の形態では、撮像装置10と端末20とは、通信網30を介して互いに接続される。例えば、2つ以上の端末20が設けられる場合、撮像装置10は、撮像画像を、画像データとして2つ以上の端末20に同時に配信することができる。通信網30は、インターネット、有線LAN(Local Area Network)、無線LAN、モバイル通信網、電話回線通信網、又は、その他の有線若しくは無線通信を用いる通信網であってもよい。本実施の形態では、通信網30はインターネットである。 The imaging device 10 and the terminal 20 communicate with each other. The captured image captured by the imaging device 10 is sent to the terminal 20 as image data, and the viewer can view the sent image data on the terminal 20. The imaging device 10 and the terminal 20 may be indirectly connected via the communication network 30, or may be directly connected via wired communication or wireless communication. In the present embodiment, the imaging device 10 and the terminal 20 are connected to each other via the communication network 30. For example, when two or more terminals 20 are provided, the imaging device 10 can simultaneously deliver the captured image to the two or more terminals 20 as image data. The communication network 30 may be the Internet, a wired LAN (Local Area Network), a wireless LAN, a mobile communication network, a telephone line communication network, or any other communication network using wired or wireless communication. In the present embodiment, communication network 30 is the Internet.

撮像装置10及び端末20はそれぞれ、1つ以上の装置で構成されてもよい。装置が2つ以上の装置で構成される場合、当該2つ以上の装置は、1つの機器内に配置されてもよく、分離した2つ以上の機器内に分かれて配置されてもよい。本明細書及び特許請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。 The imaging device 10 and the terminal 20 may each be configured by one or more devices. When the device is composed of two or more devices, the two or more devices may be arranged in one device or may be separately arranged in two or more separate devices. In the present description and claims, "device" can mean not only one device but also a system composed of a plurality of devices.

撮像装置10は、デジタル画像である静止画及び/又は動画を撮像するカメラ等を含む撮像部11A(図2参照)を備え、撮像した画像を端末20に送信する。動画は、連続的に撮像された複数のフレームの画像で構成される連続的な動画であってもよく、間隔をあけて撮像された複数の静止画で構成されるタイムラプス動画であってもよい。本実施の形態では、撮像装置10は、連続的な動画を撮像し、動画を構成する複数のフレームの画像データを端末20に送信する。 The imaging device 10 includes an imaging unit 11A (see FIG. 2) including a camera that captures a still image and/or a moving image that is a digital image, and transmits the captured image to the terminal 20. The moving image may be a continuous moving image composed of a plurality of frames of images captured continuously, or a time-lapse moving image composed of a plurality of still images captured at intervals. .. In the present embodiment, the imaging device 10 captures continuous moving images and transmits the image data of a plurality of frames forming the moving images to the terminal 20.

以下において、1フレームの画像のことを、「画像フレーム」とも呼ぶ。また、本明細書及び特許請求の範囲において、「画像」とは、画像そのものを意味するだけでなく、画像を示すデータである画像データ及び画像を示す信号である画像信号をも意味し得る。そして、「画像フレーム」は、1フレームの画像そのものを意味するだけでなく、1フレームの画像を示すデータ、及び1フレームの画像を示す信号をも意味し得る。 Hereinafter, one frame image is also referred to as “image frame”. Further, in the present specification and claims, “image” means not only the image itself, but also image data that is data indicating an image and an image signal that is a signal indicating an image. The “image frame” may mean not only the one-frame image itself, but also data indicating one-frame image and a signal indicating one-frame image.

撮像部11Aは、一般的な視野角の画像を撮像するカメラで構成されてもよく、180°程度までの視野角である広角な画像を撮像するカメラで構成されてもよく、180°超の視野角である超広角な画像を撮像するカメラで構成されてもよい。本実施の形態では、撮像部11Aは、全天球の視野を有する全天球型カメラであるとして説明するが、これに限定されない。 The imaging unit 11A may be configured by a camera that captures an image with a general viewing angle, or may be configured by a camera that captures a wide-angle image with a viewing angle of up to about 180°, and the imaging angle of more than 180°. It may be configured by a camera that captures an image of a super wide angle that is a viewing angle. In the present embodiment, the image capturing unit 11A is described as a spherical camera having a spherical field of view, but the present invention is not limited to this.

端末20は、通信機能を有し且つ画像を表示することができるコンピュータ装置である。端末20の例は、ノートPC(Personal Computer)、携帯電話、スマートフォン及びタブレット端末などのスマートデバイス、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC、デスクトップPC、テレビ会議端末、及びIWB(Interactive White Board:相互通信が可能な電子式の黒板機能を有する白板)等である。本実施の形態では、端末20は、ノートPCであるとして説明するが、これに限定されない。 The terminal 20 is a computer device having a communication function and capable of displaying an image. Examples of the terminal 20 include a notebook PC (Personal Computer), a smart device such as a mobile phone, a smartphone and a tablet terminal, a game machine, a PDA (Personal Digital Assistant), a wearable PC, a desktop PC, a video conference terminal, and an IWB (Interactive White). Board: a white board having an electronic blackboard function that enables mutual communication). In the present embodiment, the terminal 20 is described as a notebook PC, but the present invention is not limited to this.

<撮像装置10の構成>
撮像装置10の構成を説明する。図2は、実施の形態1に係る撮像装置10の一例を示す側面図である。図2に示すように、撮像装置10は、撮像部11Aと、筐体11Bとを備える。撮像部11Aは、カメラ11a及び11bと、コントローラ11cとを備える。筐体11Bは、カメラ11a及び11bと、コントローラ11cとを収容する。
<Structure of Imaging Device 10>
The configuration of the imaging device 10 will be described. FIG. 2 is a side view showing an example of the imaging device 10 according to the first embodiment. As shown in FIG. 2, the imaging device 10 includes an imaging unit 11A and a housing 11B. The imaging unit 11A includes cameras 11a and 11b and a controller 11c. The housing 11B houses the cameras 11a and 11b and the controller 11c.

カメラ11a及び11bはそれぞれ、半球超(画角が180°超)の視野を有する超広角なカメラである。カメラ11aは、結像光学系11aaと、第一撮像素子11abとを備え、カメラ11bは、結像光学系11baと、第二撮像素子11bbとを備える。 Each of the cameras 11a and 11b is a super wide-angle camera having a field of view exceeding a hemisphere (angle of view exceeding 180°). The camera 11a includes an image forming optical system 11aa and a first image sensor 11ab, and the camera 11b includes an image forming optical system 11ba and a second image sensor 11bb.

結像光学系11aa及び結像光学系11baはそれぞれ、入射する像を第一撮像素子11ab及び第二撮像素子11bbの受光面上に結像する。結像光学系11aa及び結像光学系11baはそれぞれ、レンズ、プリズム、フィルタ及び開口絞り等の光学素子を含む。レンズは、魚眼レンズ等の180°超の画角を有するレンズである。 The imaging optical system 11aa and the imaging optical system 11ba respectively form an incident image on the light receiving surfaces of the first image sensor 11ab and the second image sensor 11bb. The imaging optical system 11aa and the imaging optical system 11ba each include optical elements such as a lens, a prism, a filter, and an aperture stop. The lens is a lens having an angle of view of more than 180°, such as a fisheye lens.

結像光学系11aa及び結像光学系11baは、レンズへの光の入射方向が互いに反対向きになるように配置されている。結像光学系11aa及び結像光学系11baのレンズの光軸中心は、同じ光軸中心LAを構成する。結像光学系11aa及び結像光学系11baは、同一仕様のものであり、それぞれの光軸中心が合致するようにして、互いに逆向きに組み合わせられる。 The image forming optical system 11aa and the image forming optical system 11ba are arranged so that the light incident directions on the lenses are opposite to each other. The optical axis centers of the lenses of the imaging optical system 11aa and the imaging optical system 11ba configure the same optical axis center LA. The image forming optical system 11aa and the image forming optical system 11ba have the same specifications, and they are combined in opposite directions so that their optical axis centers coincide with each other.

第一撮像素子11ab及び第二撮像素子11bbは、アレイ状に配置された複数の受光素子を含む。受光素子は、受光する光の強度を示す画素値を出力する。画素値の例は、輝度値である。受光素子は、第一撮像素子11ab及び第二撮像素子11bbそれぞれにおける画像を撮像する複数の画素を構成する。第一撮像素子11ab及び第二撮像素子11bbはそれぞれ、結像光学系11aa及び結像光学系11baによって受光面上で結像された像の光分布を示す画像信号を、画像フレームとして順次コントローラ11cに出力する。 The first image sensor 11ab and the second image sensor 11bb include a plurality of light receiving elements arranged in an array. The light receiving element outputs a pixel value indicating the intensity of the received light. An example of a pixel value is a brightness value. The light receiving element constitutes a plurality of pixels for picking up an image in each of the first image pickup element 11ab and the second image pickup element 11bb. The first image pickup device 11ab and the second image pickup device 11bb sequentially use, as image frames, image signals indicating the light distribution of the images formed on the light receiving surfaces by the image forming optical system 11aa and the image forming optical system 11ba, respectively, as the controller 11c. Output to.

第一撮像素子11ab及び第二撮像素子11bbの例は、CCD(Charge Coupled Device)イメージセンサ及びCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等である。本実施の形態では、第一撮像素子11ab及び第二撮像素子11bbは、解像度及び撮像素子寸法が同じである同じイメージセンサであるが、これに限定されない。 Examples of the first image sensor 11ab and the second image sensor 11bb are a CCD (Charge Coupled Device) image sensor and a CMOS (Complementary Metal Oxide Semiconductor) image sensor. In the present embodiment, the first image sensor 11ab and the second image sensor 11bb are the same image sensor having the same resolution and the same image sensor size, but the present invention is not limited to this.

コントローラ11cは、マイクロコンピュータ等で構成されるコンピュータ装置である。コントローラ11cは、第一撮像素子11ab及び第二撮像素子11bbによって撮像された2つの画像フレームを1つの画像フレームに合成処理し、立体角4πステラジアンの画像(以下、「全天球画像」とも呼ぶ)フレームを生成する。全天球画像は、撮像地点を中心とする全ての方向を写し出す画像である。例えば、全天球画像フレームは、正距円筒図法により球面が円筒に投影され且つ当該円筒を展開して形成される平面画像を示してもよい。そして、連続する全天球画像フレームにより、全天球動画が構成される。 The controller 11c is a computer device including a microcomputer or the like. The controller 11c synthesizes the two image frames imaged by the first image sensor 11ab and the second image sensor 11bb into one image frame, and an image with a solid angle of 4π steradian (hereinafter, also referred to as “all sphere image”). ) Generate a frame. The omnidirectional image is an image showing all directions centered on the imaging point. For example, the celestial sphere image frame may show a plane image formed by projecting a spherical surface onto a cylinder by an equirectangular projection and developing the cylinder. Then, a continuous celestial sphere moving image is composed of consecutive celestial sphere image frames.

ここで、結像光学系11aa及び結像光学系11baの光軸中心LAの方向を、X軸方向と定義する。細長い直方体状の筐体11Bの長手方向であり且つX軸に垂直である方向を、Z軸方向と定義する。X軸及びZ軸に垂直である方向を、Y軸方向と定義する。XYZ軸からなる3次元座標系は、撮像装置10のカメラ座標系を構成する。カメラ座標系は、撮像装置10に固定され、撮像装置10の姿勢変化に従って座標軸の向きを変える。 Here, the direction of the optical axis center LA of the imaging optical system 11aa and the imaging optical system 11ba is defined as the X-axis direction. The direction that is the longitudinal direction of the elongated rectangular parallelepiped housing 11B and is perpendicular to the X axis is defined as the Z axis direction. The direction perpendicular to the X axis and the Z axis is defined as the Y axis direction. The three-dimensional coordinate system including the XYZ axes constitutes the camera coordinate system of the image pickup apparatus 10. The camera coordinate system is fixed to the image pickup apparatus 10 and changes the orientation of the coordinate axes according to the change in the attitude of the image pickup apparatus 10.

<撮像装置10のハードウェア構成>
撮像装置10のハードウェア構成を説明する。図3は、実施の形態1に係る撮像装置10のハードウェア構成の一例を示す図である。図3に示すように、撮像装置10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、動画圧縮ブロック104と、第一撮像素子11abと、第二撮像素子11bbと、画像処理ブロック106と、メモリ107と、外部ストレージインタフェース(I/F:Interface)108と、モーションセンサ109と、通信I/F110と、無線NIC(Network Interface Card)111とを構成要素として含む。なお、これら構成要素の全てが必須ではない。また、上記構成要素はそれぞれ、例えばバスを介して互いに接続されている。なお、上記構成要素は、有線通信及び無線通信のいずれを介して接続されてもよい。
<Hardware Configuration of Imaging Device 10>
The hardware configuration of the imaging device 10 will be described. FIG. 3 is a diagram illustrating an example of a hardware configuration of the image pickup apparatus 10 according to the first embodiment. As illustrated in FIG. 3, the imaging device 10 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a moving image compression block 104, and a first imaging element 11ab. A second image sensor 11bb, an image processing block 106, a memory 107, an external storage interface (I/F: Interface) 108, a motion sensor 109, a communication I/F 110, and a wireless NIC (Network Interface Card). 111 and 111 as constituent elements. Note that not all of these constituent elements are essential. Further, each of the above components is connected to each other via, for example, a bus. The above components may be connected via either wired communication or wireless communication.

CPU101はプロセッサ等で構成され、撮像装置10の各部の動作及び全体動作を制御する。例えば、CPU101は、図2のコントローラ11cを構成する。ROM102は不揮発性半導体記憶装置等で構成され、撮像装置10で動作する各種プログラム及び各種パラメータを記憶する。RAM(Random Access Memory)103は揮発性半導体記憶装置等で構成され、CPU101のワークエリアとして使用される。RAM103は、各種信号処理及び画像処理を施す際にデータを一時的に保存する記憶領域を提供する。メモリ107は、各種プログラムで利用されるデータ並びに第一撮像素子11ab及び第二撮像素子11bbによって撮像された画像等の種々の情報を記憶する。メモリ107は、揮発性又は不揮発性の半導体メモリ、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等の記憶装置で構成される。なお、メモリ107が、ROM102及び/又はRAM103を含んでもよい。 The CPU 101 is composed of a processor and the like, and controls the operation and overall operation of each unit of the imaging device 10. For example, the CPU 101 constitutes the controller 11c shown in FIG. The ROM 102 is configured by a non-volatile semiconductor storage device or the like, and stores various programs and various parameters that operate in the imaging device 10. A RAM (Random Access Memory) 103 is composed of a volatile semiconductor memory device or the like and is used as a work area of the CPU 101. The RAM 103 provides a storage area for temporarily storing data when performing various kinds of signal processing and image processing. The memory 107 stores various information such as data used in various programs and images captured by the first image sensor 11ab and the second image sensor 11bb. The memory 107 is configured with a storage device such as a volatile or non-volatile semiconductor memory, an HDD (Hard Disk Drive) or an SSD (Solid State Drive). The memory 107 may include the ROM 102 and/or the RAM 103.

プログラムは、ROM102又はメモリ107等に予め保持されている。プログラムは、CPU101によって、ROM102又はメモリ107等からRAM103に読み出されて展開される。CPU101は、RAM103に展開されたプログラム中のコード化された各命令を実行する。なお、プログラムは、ROM102及びメモリ107に限らず、例えば記録ディスク等の記録媒体に格納されていてもよい。また、プログラムは、有線ネットワーク、無線ネットワーク又は放送等を介して伝送され、RAM103に取り込まれてもよい。 The program is stored in advance in the ROM 102, the memory 107, or the like. The program is read by the CPU 101 from the ROM 102 or the memory 107 or the like into the RAM 103 and expanded. The CPU 101 executes each coded instruction in the program expanded in the RAM 103. The program is not limited to the ROM 102 and the memory 107, and may be stored in a recording medium such as a recording disk. In addition, the program may be transmitted via a wired network, a wireless network, broadcasting, or the like, and may be loaded into the RAM 103.

なお、上述したCPU101によって実現される機能は、CPU101等のプログラム実行部によって実現されてもよく、回路によって実現されてもよく、プログラム実行部及び回路の組み合わせによって実現されてもよい。例えば、このような機能は、集積回路であるLSI(大規模集積回路:Large Scale Integration)によって実現されてもよい。このような機能は個別に1チップ化されてもよく、一部又は全てを含むように1チップ化されてもよい。LSIとして、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続及び/又は設定を再構成可能なリコンフィギュラブル・プロセッサ、又は、特定用途向けに複数の機能の回路が1つにまとめられたASIC(Application Specific Integrated Circuit)等が利用されてもよい。 The functions realized by the CPU 101 described above may be realized by a program execution unit such as the CPU 101, a circuit, or a combination of the program execution unit and the circuit. For example, such a function may be realized by an LSI (Large Scale Integration) that is an integrated circuit. Such a function may be individually implemented on a single chip, or may be implemented on a single chip so as to include a part or all of the functions. As an LSI, an FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, a reconfigurable processor in which connection and/or settings of circuit cells inside the LSI can be reconfigured, or a plurality of devices for specific purposes An ASIC (Application Specific Integrated Circuit) in which functional circuits are integrated may be used.

画像処理ブロック106は、2つの第一撮像素子11ab及び第二撮像素子11bbと接続され、第一撮像素子11ab及び第二撮像素子11bbそれぞれによって撮像された画像の画像信号が入力される。画像処理ブロック106は、ISP(Image Signal Processor)等を含んで構成され、第一撮像素子11ab及び第二撮像素子11bbから入力された画像信号に対し、シェーディング補正、ベイヤー補間、ホワイト・バランス補正及びガンマ補正等の処理を行う。また、画像処理ブロック106は、第一撮像素子11ab及び第二撮像素子11bbそれぞれから取得される2つの画像フレームを合成し、全天球画像フレームを生成する。つまり、画像処理ブロック106は、同時刻又は近似する時刻に2つの撮像素子で撮像された2つの画像フレームを1つの全天球画像フレームに合成する。より具体的には、画像処理ブロック106では、平面画像として構成される各撮像画像から、まず、相補的な各半球部分を含む各全天球画像が生成される。 そして、各半球部分を含む2つの全天球画像が、重複領域のマッチングに基づいて位置合わせされ、画像合成され、全天球全体を含む全天球画像フレームが生成される。 The image processing block 106 is connected to the two first image pickup elements 11ab and the second image pickup element 11bb, and receives image signals of images picked up by the first image pickup element 11ab and the second image pickup element 11bb, respectively. The image processing block 106 is configured to include an ISP (Image Signal Processor) and the like, and performs shading correction, Bayer interpolation, white balance correction, and the like on the image signals input from the first image sensor 11ab and the second image sensor 11bb. Performs gamma correction and other processing. The image processing block 106 also synthesizes the two image frames acquired from the first image sensor 11ab and the second image sensor 11bb to generate a spherical image frame. That is, the image processing block 106 combines two image frames imaged by two image pickup elements at the same time or at a similar time into one spherical image frame. More specifically, in the image processing block 106, first, each spherical image including each complementary hemispherical portion is generated from each captured image configured as a planar image. Then, the two spherical images including the respective hemispherical portions are aligned based on the matching of the overlapping regions and the images are combined to generate a spherical image frame including the entire spherical image.

動画圧縮ブロック104は、MPEG−4 AVC/H.H.265等の動画圧縮及び伸張を行うコーデック・ブロックである。動画圧縮ブロック104は、画像処理ブロック106によって生成された全天球画像フレームのデータを、動画形式のデータに圧縮する。 The moving picture compression block 104 is an MPEG-4 AVC/H. H. It is a codec block that compresses and decompresses moving images such as H.265. The moving image compression block 104 compresses the data of the spherical image frame generated by the image processing block 106 into moving image format data.

モーションセンサ109は、加速度センサと角速度センサ(「ジャイロセンサ」とも呼ばれる)と地磁気センサとを含む。加速度センサは、XYZ軸の3軸方向の加速度を検出する。角速度センサは、上記3軸周りの角速度を検出する。地磁気センサは、上記3軸方向の磁場を検出する。このようなモーションセンサ109は、9軸の姿勢センサを構成する。モーションセンサ109は、各センサの検出値を用いて、撮像装置10におけるX軸周りのロール角、Y軸周りのピッチ角、及びZ軸周りのヨー角を算出する。ロール角は、ローリング方向の撮像装置10の姿勢を示し、ピッチ角は、ピッチング方向の撮像装置10の姿勢を示し、ヨー角は、ヨーイング方向の撮像装置10の姿勢を示す。 The motion sensor 109 includes an acceleration sensor, an angular velocity sensor (also called “gyro sensor”), and a geomagnetic sensor. The acceleration sensor detects accelerations in the three XYZ axis directions. The angular velocity sensor detects the angular velocities around the three axes. The geomagnetic sensor detects the magnetic fields in the three axis directions. Such a motion sensor 109 constitutes a 9-axis attitude sensor. The motion sensor 109 calculates the roll angle around the X axis, the pitch angle around the Y axis, and the yaw angle around the Z axis in the imaging device 10 using the detection values of the sensors. The roll angle indicates the posture of the image pickup device 10 in the rolling direction, the pitch angle indicates the posture of the image pickup device 10 in the pitching direction, and the yaw angle indicates the posture of the image pickup device 10 in the yawing direction.

モーションセンサ109は、画像フレームが撮像される度に、ロール角、ピッチ角及びヨー角を算出する。なお、モーションセンサ109は、画像フレーム間におけるロール角、ピッチ角及びヨー角を算出してもよく、撮像装置10の基準姿勢に対するロール角、ピッチ角及びヨー角を算出してもよい。モーションセンサ109は、各センサの検出値をCPU101に出力し、CPU101が、ロール角、ピッチ角及びヨー角を算出してもよい。モーションセンサ109は、少なくとも加速度センサ及び角速度センサを含むものであってもよい。 The motion sensor 109 calculates a roll angle, a pitch angle, and a yaw angle each time an image frame is captured. The motion sensor 109 may calculate the roll angle, the pitch angle, and the yaw angle between the image frames, or may calculate the roll angle, the pitch angle, and the yaw angle with respect to the reference posture of the imaging device 10. The motion sensor 109 may output the detection value of each sensor to the CPU 101, and the CPU 101 may calculate the roll angle, the pitch angle, and the yaw angle. The motion sensor 109 may include at least an acceleration sensor and an angular velocity sensor.

外部ストレージI/F108には、記憶媒体等の外部ストレージが接続される。例えば、外部ストレージI/F108は、メモリカードスロットに挿入された記憶媒体の一例であるメモリカード等の外部ストレージに対する読み書きを制御する。 An external storage such as a storage medium is connected to the external storage I/F 108. For example, the external storage I/F 108 controls reading and writing with respect to an external storage such as a memory card which is an example of a storage medium inserted in the memory card slot.

通信I/F110は、他の装置又はデバイスと接続され、情報を送受信するためのインタフェースである。例えば、通信I/F110は、有線通信又は無線通信を介して他の装置と接続されてもよい。通信I/F110は、USB(Universal Serial Bus)コネクタ等を含んでもよい。 The communication I/F 110 is an interface that is connected to another device or device and transmits/receives information. For example, the communication I/F 110 may be connected to another device via wired communication or wireless communication. The communication I/F 110 may include a USB (Universal Serial Bus) connector or the like.

無線NIC111は、通信網30を介して端末20等の他の装置と通信するためのデバイスである。無線NIC111は、接続端子及び通信回路等を含んでもよい。 The wireless NIC 111 is a device for communicating with other devices such as the terminal 20 via the communication network 30. The wireless NIC 111 may include a connection terminal, a communication circuit, and the like.

<端末20のハードウェア構成>
端末20のハードウェア構成を説明する。図4は、実施の形態1に係る端末20のハードウェア構成の一例を示す図である。図4に示すように、端末20は、CPU201と、ROM202と、RAM203と、入力装置204と、ディスプレイ205と、無線NIC206と、通信I/F207と、メモリ208と、外部ストレージI/F209とを構成要素として含む。なお、これら構成要素の全てが必須ではない。また、上記構成要素はそれぞれ、例えばバスを介して互いに接続されているが、有線通信及び無線通信のいずれを介して接続されてもよい。
<Hardware configuration of terminal 20>
The hardware configuration of the terminal 20 will be described. FIG. 4 is a diagram showing an example of the hardware configuration of the terminal 20 according to the first embodiment. As shown in FIG. 4, the terminal 20 includes a CPU 201, a ROM 202, a RAM 203, an input device 204, a display 205, a wireless NIC 206, a communication I/F 207, a memory 208, and an external storage I/F 209. Include as a component. Note that not all of these constituent elements are essential. Further, although the above-described constituent elements are connected to each other via, for example, a bus, they may be connected to each other via wired communication or wireless communication.

CPU201、ROM202及びRAM203それぞれの構成は、CPU101、ROM102及びRAM103と同様である。CPU201は、端末20の各部の動作及び全体動作を制御する。ROM202は、端末20上で動作する各種プログラム等を記憶する。RAM203は、CPU201のワークエリアとして使用される。 The configurations of the CPU 201, the ROM 202, and the RAM 203 are similar to those of the CPU 101, the ROM 102, and the RAM 103. The CPU 201 controls the operation of each unit of the terminal 20 and the overall operation. The ROM 202 stores various programs operating on the terminal 20. The RAM 203 is used as a work area for the CPU 201.

メモリ208は、各種プログラムで利用されるデータ及び撮像装置10から取得された画像等の種々の情報を記憶する。メモリ208の構成は、メモリ107と同様である。 The memory 208 stores various information such as data used in various programs and images acquired from the imaging device 10. The configuration of the memory 208 is similar to that of the memory 107.

CPU201によって実現される機能は、CPU201等のプログラム実行部によって実現されてもよく、回路によって実現されてもよく、プログラム実行部及び回路の組み合わせによって実現されてもよい。 The function implemented by the CPU 201 may be implemented by a program execution unit such as the CPU 201, a circuit, or a combination of the program execution unit and the circuit.

無線NIC206は、通信網30を介して、撮像装置10等の他の装置と通信するためのデバイスである。無線NIC206は、接続端子及び通信回路等を含んでもよい。 The wireless NIC 206 is a device for communicating with other devices such as the imaging device 10 via the communication network 30. The wireless NIC 206 may include a connection terminal, a communication circuit, and the like.

通信I/F207は、他の装置又はデバイスと接続され、情報を送受信するためのインタフェースである。例えば、通信I/F207は、有線通信又は無線通信を介して他の装置と接続されてもよい。通信I/F207は、USBコネクタ等を含んでもよい。 The communication I/F 207 is an interface that is connected to another device or device and that transmits and receives information. For example, the communication I/F 207 may be connected to another device via wired communication or wireless communication. The communication I/F 207 may include a USB connector or the like.

外部ストレージI/F209には、記憶媒体等の外部ストレージが接続される。外部ストレージI/F209は、接続された記憶媒体に対する読み書きを制御する。 An external storage such as a storage medium is connected to the external storage I/F 209. The external storage I/F 209 controls reading and writing with respect to the connected storage medium.

入力装置204は、ユーザによる操作入力を受け付ける装置である。入力装置204は、ボタン、ダイヤル、キー、マウス、タッチパネル及び音声入力のためのマイク等の入力装置を含んでもよい。 The input device 204 is a device that receives an operation input by a user. The input device 204 may include input devices such as buttons, dials, keys, a mouse, a touch panel, and a microphone for voice input.

ディスプレイ205は、CPU201の制御に従って種々の画面を表示する。ディスプレイ205は、液晶パネル、有機EL(Electroluminescence)及び無機EL等のディスプレイであってもよい。ディスプレイ205は、音声出力のためのスピーカを含んでもよい。ディスプレイ205は、入力装置204を兼ねたタッチパネルであってもよい。 The display 205 displays various screens under the control of the CPU 201. The display 205 may be a liquid crystal panel, an organic EL (Electroluminescence) display, an inorganic EL display, or the like. The display 205 may include a speaker for audio output. The display 205 may be a touch panel that also serves as the input device 204.

<撮像装置10の機能的構成>
撮像装置10の機能的構成を説明する。図5は、実施の形態1に係る撮像装置10の機能的構成の一例を示すブロック図である。図5に示すように、撮像装置10は、撮像制御部11と、動画圧縮部12と、姿勢検出部13と、姿勢データ生成部14と、通信部15とを機能的構成要素として含む。
<Functional configuration of the imaging device 10>
The functional configuration of the imaging device 10 will be described. FIG. 5 is a block diagram showing an example of a functional configuration of the image pickup apparatus 10 according to the first embodiment. As shown in FIG. 5, the imaging device 10 includes an imaging control unit 11, a moving image compression unit 12, a posture detection unit 13, a posture data generation unit 14, and a communication unit 15 as functional components.

撮像制御部11の機能は、CPU101及び画像処理ブロック106等によって実現される。撮像制御部11は、第一撮像素子11ab及び第二撮像素子11bbを制御して撮像させ、第一撮像素子11ab及び第二撮像素子11bbによって撮像された画像フレームのデータを取得する。さらに、撮像制御部11は、第一撮像素子11ab及び第二撮像素子11bbによって同時刻又は近似する時刻に撮像された2つの画像フレームを合成し、全天球画像フレームを生成する。撮像制御部11は、生成された全天球画像フレームを動画圧縮部12に順次出力する。 The function of the imaging control unit 11 is realized by the CPU 101, the image processing block 106, and the like. The imaging control unit 11 controls the first imaging element 11ab and the second imaging element 11bb to capture an image, and acquires the data of the image frame captured by the first imaging element 11ab and the second imaging element 11bb. Furthermore, the imaging control unit 11 combines the two image frames imaged by the first imaging element 11ab and the second imaging element 11bb at the same time or at a similar time to generate a celestial sphere image frame. The imaging control unit 11 sequentially outputs the generated spherical image frames to the moving image compression unit 12.

動画圧縮部12の機能は、CPU101及び動画圧縮ブロック104等によって実現される。動画圧縮部12は、撮像制御部11から取得された全天球画像フレームを動画形式のデータに圧縮し、通信部15に出力する。ここで、動画圧縮部12は生成部の一例である。 The function of the moving picture compression unit 12 is realized by the CPU 101, the moving picture compression block 104, and the like. The moving image compression unit 12 compresses the omnidirectional image frame acquired from the imaging control unit 11 into moving image format data and outputs the data to the communication unit 15. Here, the moving image compression unit 12 is an example of a generation unit.

姿勢検出部13の機能は、CPU101等によって実現される。姿勢検出部13は、モーションセンサ109を制御し、モーションセンサ109から撮像装置10の姿勢情報を取得する。つまり、姿勢検出部13は、撮像装置10の姿勢を検出する。姿勢情報は、モーションセンサ109の各検出値の時系列データであってもよい。時系列データは、検出値とその検出時刻とを対応付けて含むデータである。例えば、姿勢検出部13は、時系列データから、第一撮像素子11ab及び第二撮像素子11bbによって全天球画像フレームが撮像されたタイミングでモーションセンサ109によって検出された検出値を取得してもよい。上記タイミングは、全天球画像フレームの撮像時刻又はその近傍の時刻であってもよい。 The function of the posture detection unit 13 is realized by the CPU 101 and the like. The posture detection unit 13 controls the motion sensor 109 and acquires the posture information of the imaging device 10 from the motion sensor 109. That is, the posture detection unit 13 detects the posture of the imaging device 10. The posture information may be time-series data of each detection value of the motion sensor 109. The time-series data is data that includes a detection value and its detection time in association with each other. For example, the posture detection unit 13 may obtain the detection value detected by the motion sensor 109 at the timing when the omnidirectional image frame is captured by the first image sensor 11ab and the second image sensor 11bb from the time-series data. Good. The above-mentioned timing may be the time at which the spherical image frame is captured or a time in the vicinity thereof.

姿勢データ生成部14の機能は、CPU101等によって実現される。姿勢データ生成部14は、姿勢検出部13から取得された姿勢情報を用いて、撮像装置10の姿勢を示す姿勢データとして、姿勢を示すパラメータを生成する。姿勢を示すパラメータの例は、ヨー角、ピッチ角及びロール角である。姿勢データ生成部14は、姿勢データを通信部15に出力する。 The function of the posture data generation unit 14 is realized by the CPU 101 and the like. The posture data generation unit 14 uses the posture information acquired from the posture detection unit 13 to generate a parameter indicating the posture as posture data indicating the posture of the imaging device 10. Examples of parameters indicating the attitude are yaw angle, pitch angle, and roll angle. The attitude data generation unit 14 outputs the attitude data to the communication unit 15.

通信部15の機能は、CPU101及び無線NIC111等によって実現される。通信部15は、動画形式のデータと撮像装置10の姿勢データとを対応付け、通信網30を介して端末20に送信する。このとき、通信部15は、動画形式のデータに含まれる各時間のフレームと、姿勢データに含まれる各時間のパラメータとを、時間に基づき対応付けてもよい。ここで、通信部15は送信部の一例である。 The function of the communication unit 15 is realized by the CPU 101, the wireless NIC 111, and the like. The communication unit 15 associates the moving image format data with the attitude data of the imaging device 10, and transmits the data to the terminal 20 via the communication network 30. At this time, the communication unit 15 may associate the frame of each time included in the moving image format data with the parameter of each time included in the posture data based on the time. Here, the communication unit 15 is an example of a transmission unit.

<端末20の機能的構成>
端末20の機能的構成を説明する。図6は、実施の形態1に係る端末20の機能的構成の一例を示すブロック図である。図6に示すように、端末20は、通信部21と、動画展開部22と、表示用画像生成部23と、姿勢データ取得部24と、表示視点補正部25と、表示制御部26とを機能的構成要素として含む。
<Functional configuration of terminal 20>
The functional configuration of the terminal 20 will be described. FIG. 6 is a block diagram showing an example of a functional configuration of terminal 20 according to the first embodiment. As shown in FIG. 6, the terminal 20 includes a communication unit 21, a moving image expansion unit 22, a display image generation unit 23, a posture data acquisition unit 24, a display viewpoint correction unit 25, and a display control unit 26. Included as a functional component.

通信部21の機能は、CPU201及び無線NIC206等によって実現される。通信部21は、撮像装置10の通信部15によって送信される動画形式のデータと撮像装置10の姿勢データとを受信する、つまり取得する。通信部21は、動画形式のデータを動画展開部22に出力し、姿勢データを姿勢データ取得部24に出力する。ここで、通信部21は取得部の一例である。 The function of the communication unit 21 is realized by the CPU 201, the wireless NIC 206, and the like. The communication unit 21 receives, that is, acquires the moving image format data transmitted by the communication unit 15 of the imaging device 10 and the attitude data of the imaging device 10. The communication unit 21 outputs the data in the moving image format to the moving image developing unit 22 and outputs the posture data to the posture data acquisition unit 24. Here, the communication unit 21 is an example of an acquisition unit.

動画展開部22の機能は、CPU201等によって実現される。動画展開部22は、圧縮されている動画形式のデータを、表示可能な画像フレームのデータに展開し、表示用画像生成部23に出力する。つまり、動画展開部22は、動画形式のデータを個別の画像フレームのデータに展開する。ここで、動画展開部22は展開部の一例である。 The function of the moving image developing unit 22 is realized by the CPU 201 and the like. The moving image decompression unit 22 decompresses the compressed moving image format data into displayable image frame data and outputs the data to the display image generation unit 23. That is, the moving image expanding unit 22 expands the moving image format data into individual image frame data. Here, the moving image developing unit 22 is an example of a developing unit.

姿勢データ取得部24の機能は、CPU201等によって実現される。姿勢データ取得部24は、通信部21を介して、撮像装置10の姿勢データを取得し、表示視点補正部25に出力する。 The function of the posture data acquisition unit 24 is realized by the CPU 201 and the like. The attitude data acquisition unit 24 acquires the attitude data of the imaging device 10 via the communication unit 21 and outputs it to the display viewpoint correction unit 25.

表示用画像生成部23の機能は、CPU201等によって実現される。表示用画像生成部23は、動画形式のデータから展開された画像フレームのデータを、当該画像フレームを仮想的な球体表面に貼り付けた形のデータに変換する。つまり、表示用画像生成部23は、正距円筒図法で表現されている全天球画像フレームを、球面に貼り付けて三次元モデルに変換する。表示用画像生成部23は、球面に貼り付けた全天球画像フレームのデータを表示視点補正部25に出力する。 The function of the display image generation unit 23 is realized by the CPU 201 and the like. The display image generation unit 23 converts the image frame data developed from the moving image data into the data in which the image frame is pasted on the surface of the virtual sphere. That is, the display image generation unit 23 attaches the spherical image frame represented by the equirectangular projection to the spherical surface and converts it into a three-dimensional model. The display image generation unit 23 outputs the data of the omnidirectional image frame attached to the spherical surface to the display viewpoint correction unit 25.

図7Aは、実施の形態1に係る表示用画像生成部23によって、全天球画像フレームから三次元モデルの球面に貼り付けた画像フレームに変換される一例を示す図である。図7Bは、図7Aの球面の全天球画像フレームにおける光軸中心LA上の画像の一例を示す図である。この画像の一例は、球面に貼り付けられた三次元モデルを、透視投影処理をすることにより得られる。 FIG. 7A is a diagram showing an example of conversion from a spherical image frame to an image frame attached to a spherical surface of a three-dimensional model by the display image generating unit 23 according to the first embodiment. 7B is a diagram showing an example of an image on the optical axis center LA in the spherical spherical image frame of FIG. 7A. An example of this image is obtained by performing perspective projection processing on the three-dimensional model attached to the spherical surface.

図7Aに示すように、動画形式のデータから展開された平面的な全天球画像フレームは、撮像装置10を中心とする仮想的な立体球CSの球面に貼り付けられた、つまり投影された球面の画像フレームに変換される。このとき、例えば、表示用画像生成部23は、撮像装置10に設定されたXYZ軸からなる3次元座標系(カメラ座標系)と、立体球CSに設定されたXsYsZs軸からなる3次元座標系とが対応する、つまり、各軸が一致するように、変換してもよい。XsYsZs軸からなる3次元座標系は、世界座標系である。世界座標系は、撮像装置10の姿勢に関係なく固定された座標系である。Zs軸方向は、重力方向つまり鉛直方向であり、Xs軸方向及びYs軸方向は、水平方向である。 As shown in FIG. 7A, the planar spherical image frame developed from the moving image format data is pasted, that is, projected onto the spherical surface of a virtual solid sphere CS centered on the imaging device 10. Converted to a spherical image frame. At this time, for example, the display image generation unit 23 includes a three-dimensional coordinate system (camera coordinate system) including the XYZ axes set in the imaging device 10 and a three-dimensional coordinate system including the XsYsZs axes set in the solid sphere CS. May be converted so that and correspond to each other, that is, the axes match. The three-dimensional coordinate system including the XsYsZs axes is the world coordinate system. The world coordinate system is a fixed coordinate system irrespective of the posture of the imaging device 10. The Zs axis direction is the gravity direction, that is, the vertical direction, and the Xs axis direction and the Ys axis direction are the horizontal directions.

このような球面の画像フレームにおいて、撮像装置10の光軸中心LAと球面との交点を中心とする領域Tの画像は、図7Bに示すような画像として表される。立体球CSの中心を通る全ての軸について、当該軸と球面との交点を中心とする領域の画像は、同様に表される。 In such a spherical image frame, an image of a region T 0 centered on the intersection of the optical axis center LA of the image pickup device 10 and the spherical surface is represented as an image shown in FIG. 7B. For all axes passing through the center of the solid sphere CS, an image of a region centered on the intersection of the axis and the spherical surface is similarly represented.

表示視点補正部25の機能は、CPU201等によって実現される。表示視点補正部25は、姿勢データに基づき、球面の画像フレームにおける光軸中心の方向を補正する。さらに、表示視点補正部25は、補正後の光軸中心を中心として、球面の画像フレームを正距円筒図法等で展開した平面的な画像フレームである全天球画像フレームを形成し、表示制御部26に出力する。ここで、表示視点補正部25は補正部の一例である。 The function of the display viewpoint correction unit 25 is realized by the CPU 201 and the like. The display viewpoint correction unit 25 corrects the direction of the optical axis center in the spherical image frame based on the posture data. Further, the display viewpoint correction unit 25 forms a celestial sphere image frame which is a planar image frame obtained by developing a spherical image frame around the corrected optical axis center by an equidistant cylindrical projection method, and the display control is performed. It is output to the unit 26. Here, the display viewpoint correction unit 25 is an example of a correction unit.

表示制御部26の機能は、CPU201等によって実現される。表示制御部26は、表示視点補正部25から取得された画像フレームをディスプレイ205に表示させる。例えば、表示制御部26は、動画を構成する複数の画像フレームを順に表示し、動画を表示する。ここで、表示制御部26は表示部の一例である。 The function of the display control unit 26 is realized by the CPU 201 and the like. The display control unit 26 causes the display 205 to display the image frame acquired from the display viewpoint correction unit 25. For example, the display control unit 26 sequentially displays a plurality of image frames forming a moving image and displays the moving image. Here, the display control unit 26 is an example of a display unit.

表示視点補正部25の詳細を説明する。例えば、端末20のディスプレイ205に表示される撮像装置10が撮影した全天球画像の画面上において、ユーザによって、入力装置204を用いて点又は領域等の表示部分が指定される。このとき、表示視点補正部25は、画面上における表示部分の位置を維持する全天球画像を表示するように、球面の画像フレームを補正する。撮像装置10が回転されて光軸中心LAの方向が変化した場合でも、表示視点補正部25は、画面に表示される全天球画像に対する表示部分の位置を維持する。よって、表示視点補正部25は、表示部分への視点位置を維持する。なお、表示部分の指定方法は、点及び領域に限定されず、いかなる方法でもよい。 Details of the display viewpoint correction unit 25 will be described. For example, on the screen of the omnidirectional image captured by the imaging device 10 displayed on the display 205 of the terminal 20, the user uses the input device 204 to specify a display portion such as a point or a region. At this time, the display viewpoint correction unit 25 corrects the spherical image frame so that the spherical image that maintains the position of the display portion on the screen is displayed. Even when the imaging device 10 is rotated and the direction of the optical axis center LA is changed, the display viewpoint correction unit 25 maintains the position of the display portion with respect to the spherical image displayed on the screen. Therefore, the display viewpoint correction unit 25 maintains the viewpoint position to the display portion. The method of designating the display portion is not limited to points and areas, and any method may be used.

ディスプレイ205の画面上において表示部分として矩形状の指定領域Tが指定された場合を説明する。この場合、表示視点補正部25は、指定領域Tを図7Aに示すような立体球CSの球面に投影する。さらに、表示視点補正部25は、立体球CSの球面上において、投影された指定領域Tの中心点CPの位置を算出する。 A case where a rectangular designation area T is designated as a display portion on the screen of the display 205 will be described. In this case, the display viewpoint correction unit 25 projects the designated area T on the spherical surface of the solid sphere CS as shown in FIG. 7A. Further, the display viewpoint correction unit 25 calculates the position of the center point CP of the projected designated area T on the spherical surface of the solid sphere CS.

図8は、実施の形態1に係る指定領域の一例を示す図である。図9は、実施の形態1に係る指定領域の中心点の一例を示す図である。図9は、立体球CS上の球面の画像フレームの一部を示す。 FIG. 8 is a diagram showing an example of the designated area according to the first embodiment. FIG. 9 is a diagram showing an example of the center point of the designated area according to the first embodiment. FIG. 9 shows a part of a spherical image frame on the solid sphere CS.

図8に示すように、指定領域Tを視野とし且つ立体球CSの中心に位置する仮想カメラICが、想定される。仮想カメラICの光軸IAと立体球CSの球面との交点が、指定領域Tの中心点CPとされる。具体的には、図9に示すように、指定領域Tの対角線画角2Lに対する仮想カメラICの視野角はαである。そして、中心点CPは、視野角αの二等分線である光軸IAと対角線画角2Lに対応する指定領域Tの対角線との交点である。 As shown in FIG. 8, a virtual camera IC that envisions the designated area T and is located at the center of the solid sphere CS is assumed. The intersection of the optical axis IA of the virtual camera IC and the spherical surface of the solid sphere CS is the center point CP of the designated area T. Specifically, as shown in FIG. 9, the viewing angle of the virtual camera IC with respect to the diagonal line angle of view 2L of the designated area T is α. The center point CP is the intersection of the optical axis IA, which is a bisector of the viewing angle α, and the diagonal line of the designated area T corresponding to the diagonal line angle of view 2L.

例えば、撮像装置10が移動することにより、撮像装置10の姿勢が、ロール角θr、ピッチ角θp及びヨー角θy変化した場合、撮像装置10の光軸中心LAの方向は、同様に変化する。変化後の光軸中心LAを光軸中心LA1とする。光軸IAの方向及び中心点CPの位置も、光軸中心LAと同様に変化する。変化後の光軸IAを光軸IA1とする。中心点CPは、光軸IA1と立体球CSとの交点CP1に移動する。 For example, when the posture of the image pickup apparatus 10 changes by the roll angle θr, the pitch angle θp, and the yaw angle θy due to the movement of the image pickup apparatus 10, the direction of the optical axis center LA of the image pickup apparatus 10 also changes. The optical axis center LA after the change is referred to as an optical axis center LA1. The direction of the optical axis IA and the position of the center point CP also change similarly to the optical axis center LA. The changed optical axis IA is referred to as an optical axis IA1. The center point CP moves to the intersection point CP1 between the optical axis IA1 and the solid sphere CS.

表示視点補正部25は、姿勢変化の前後で立体球CS上における中心点CPの位置が変化しないように、球面の画像フレームを立体球CS上で回転させる。具体的には、表示視点補正部25は、中心点CP1を中心点CPに移動させるように、姿勢変化後の球面の画像フレームを立体球CSの中心を中心として回転させる。このとき、表示視点補正部25は、光軸IA1を光軸IAと一致させてもよく、光軸中心LA1を光軸中心LAと一致させてもよい。 The display viewpoint correction unit 25 rotates the spherical image frame on the solid sphere CS so that the position of the center point CP on the solid sphere CS does not change before and after the posture change. Specifically, the display viewpoint correction unit 25 rotates the image frame of the spherical surface after the posture change about the center of the solid sphere CS so as to move the center point CP1 to the center point CP. At this time, the display viewpoint correction unit 25 may match the optical axis IA1 with the optical axis IA, or may match the optical axis center LA1 with the optical axis center LA.

例えば、表示視点補正部25は、光軸IA1を光軸IAに移動させる座標変換を行うことによって、姿勢変化後の球面の画像フレームの各パラメータを補正する。座標変換後の球面の画像フレームにおいて、立体球CS上における中心点CP1の位置は、姿勢変化前の中心点CPと同じである。 For example, the display viewpoint correction unit 25 corrects each parameter of the spherical image frame after the posture change by performing coordinate conversion to move the optical axis IA1 to the optical axis IA. In the spherical image frame after coordinate conversion, the position of the center point CP1 on the solid sphere CS is the same as the center point CP before the posture change.

このように、表示視点補正部25は、撮像装置10の姿勢変化を示すロール角θr、ピッチ角θp及びヨー角θyに基づく座標変換を、姿勢変化後の球面の画像フレームに行うことによって、立体球CS上での指定領域Tの位置を維持し、指定領域Tへの視線を維持する。よって、表示視点補正部25は、撮像装置10の姿勢の情報、つまり姿勢データと、表示部分である指定領域Tの情報とに基づき、姿勢変化後の球面の画像フレームを、表示部分が写し出されるように補正する。そして、表示視点補正部25は、撮像装置10の姿勢変化に関係なく、表示部分の位置を維持する。 In this way, the display viewpoint correction unit 25 performs coordinate conversion based on the roll angle θr, the pitch angle θp, and the yaw angle θy indicating the attitude change of the image pickup apparatus 10 on the spherical image frame after the attitude change, and thereby the stereoscopic image is obtained. The position of the designated area T on the sphere CS is maintained, and the line of sight to the designated area T is maintained. Therefore, the display viewpoint correction unit 25 projects the image portion of the spherical surface after the posture change on the display portion based on the posture information of the image pickup apparatus 10, that is, the posture data and the information on the designated area T which is the display portion. To correct. Then, the display viewpoint correction unit 25 maintains the position of the display portion regardless of the posture change of the imaging device 10.

例えば、図10は、実施の形態1に係る撮像装置10の姿勢変化前後における端末20の表示画像の一例を示す図である。図10に示すように、端末20が表示する画像20aにおいて、ユーザによって領域Tが指定される。その後、例えば、撮像装置10がZ軸を中心に回転された場合、端末20は、回転中及び回転後において、領域Tの中心点CPの位置が同じ位置に維持された画像20aを表示する。つまり、端末20は同じ視点の画像20aを表示し続ける。なお、ユーザによって点CPが指定されてもよい。この場合も、端末20は、回転中及び回転後において、点CPの位置が同じ位置に維持された画像20aを表示する。なお、同じ視点の画像とは、姿勢変化前後で、ユーザによって指定された領域Tが、画面上で互いの重複が少なくとも75%以上含まれていれば良いことを意味する。 For example, FIG. 10 is a diagram showing an example of display images of the terminal 20 before and after the posture change of the imaging device 10 according to the first embodiment. As shown in FIG. 10, in the image 20a displayed by the terminal 20, the region T is designated by the user. After that, for example, when the imaging device 10 is rotated around the Z axis, the terminal 20 displays the image 20a in which the position of the center point CP of the region T is maintained at the same position during and after the rotation. That is, the terminal 20 continues to display the image 20a of the same viewpoint. The point CP may be designated by the user. Also in this case, the terminal 20 displays the image 20a in which the position of the point CP is maintained at the same position during and after the rotation. In addition, the image of the same viewpoint means that the regions T designated by the user before and after the posture change may include at least 75% or more of mutual overlap on the screen.

<撮像システム1000の画像配信動作>
撮像システム1000において、撮像装置10が端末20に画像データを配信する動作を説明する。図11は、実施の形態1に係る撮像システム1000における画像データの配信動作の一例を示すシーケンス図である。以下において、端末20が、ディスプレイ205に表示している画像において、ユーザから表示部分として領域Tの指定を受けている場合を説明する。
<Image distribution operation of imaging system 1000>
In the imaging system 1000, an operation in which the imaging device 10 distributes image data to the terminal 20 will be described. FIG. 11 is a sequence diagram showing an example of an image data distribution operation in the imaging system 1000 according to the first embodiment. The case where the terminal 20 receives the designation of the region T as a display portion from the user in the image displayed on the display 205 will be described below.

図11に示すように、撮像装置10は、動画を撮像することで、各フレームの画像を取得する(ステップS1)。このとき、撮像装置10は、第一撮像素子11ab及び第二撮像素子11bbから取得される画像フレームを合成し、全天球画像フレームを生成する。 As shown in FIG. 11, the imaging device 10 acquires an image of each frame by capturing a moving image (step S1). At this time, the imaging device 10 combines the image frames acquired from the first imaging element 11ab and the second imaging element 11bb to generate a celestial sphere image frame.

また、撮像装置10は、モーションセンサ109を介して撮像装置10の姿勢データを取得する(ステップS2)。例えば、撮像装置10は、時系列データである姿勢データから、各全天球画像フレームの撮像のタイミング(より具体的には、2つの撮像素子で取得された画像フレームのタイミング)で検出された姿勢データを取得し、当該姿勢データと当該全天球画像フレームとを関連付ける。つまり、撮像装置10は、同じタイミングで取得された全天球画像フレームと姿勢データとを関連付ける。全天球画像フレームと姿勢データとを関連付ける情報は、全天球画像フレームに含められてもよく、姿勢データに含められてもよく、両方に含められてもよい。なお、タイミングは、ある時刻と同じ時刻、及び当該時刻に近似する時刻を含む。 Further, the imaging device 10 acquires the attitude data of the imaging device 10 via the motion sensor 109 (step S2). For example, the imaging device 10 detects the attitude data, which is time-series data, at the timing of imaging each spherical image frame (more specifically, the timing of the image frame acquired by the two imaging elements). The attitude data is acquired and the attitude data is associated with the spherical image frame. That is, the imaging device 10 associates the spherical image frame acquired at the same timing with the attitude data. The information associating the spherical image frame with the posture data may be included in the spherical image frame, may be included in the posture data, or may be included in both. Note that the timing includes the same time as a certain time and a time approximate to the time.

次いで、撮像装置10は、全天球画像フレームを動画形式のデータに圧縮するエンコードを行う(ステップS3)。次いで、撮像装置10は、動画形式のデータと姿勢データとを関連付けて、端末20に送信する、つまり配信する(ステップS4)。 Next, the imaging device 10 performs encoding for compressing the omnidirectional image frame into moving image format data (step S3). Next, the imaging device 10 associates the moving image format data with the posture data, and transmits, that is, distributes to the terminal 20 (step S4).

次いで、端末20は、動画形式のデータ及び姿勢データを受信し、動画形式のデータを表示可能な画像フレームのデータに展開するデコードを行う(ステップS5)。さらに、端末20は、動画形式のデータから展開された画像フレームのデータを、三次元モデルの球面に貼り付ける画像フレームに変換する。 Next, the terminal 20 receives the moving image format data and the attitude data, and performs decoding to expand the moving image format data into displayable image frame data (step S5). Further, the terminal 20 converts the image frame data expanded from the moving image data into an image frame to be attached to the spherical surface of the three-dimensional model.

そして、端末20は、ディスプレイ205の画面に表示される画像上においてユーザによって指定された表示部分である視点の情報(視点位置や指定領域ともいう)を取得する(ステップS6)。視点の情報は、当該表示画像上において、ユーザによって指定された点又は領域の位置及び大きさを含み、世界座標系の座標値を含むデータとして示される、その他、全天球画像上の座標値であってもよい。本例では、領域Tが指定されている。指定は、画面上において入力装置204の一例であるマウスによるポイント・アンド・クリック又はドラッグ等により行われてもよい。 Then, the terminal 20 acquires information on a viewpoint (also referred to as a viewpoint position or a designated area) which is a display portion designated by the user on the image displayed on the screen of the display 205 (step S6). The viewpoint information includes the position and size of the point or area designated by the user on the display image, and is shown as data including the coordinate value of the world coordinate system. May be In this example, the area T is designated. The designation may be performed by point-and-click or dragging with a mouse, which is an example of the input device 204, on the screen.

また、端末20は、姿勢データと指定領域Tの情報とに基づき、球面の画像フレームの表示領域を順次補正する(ステップS7)。具体的には、端末20は、姿勢データが示す撮像装置10の姿勢変化にかかわらず、端末20の表示画面内で表示される指定領域Tの位置が変化しないように、球面の画像フレームの光軸中心の向きを補正する。 Further, the terminal 20 sequentially corrects the display area of the spherical image frame based on the posture data and the information of the designated area T (step S7). Specifically, the terminal 20 uses the light of the spherical image frame so that the position of the designated area T displayed on the display screen of the terminal 20 does not change regardless of the change in the attitude of the imaging device 10 indicated by the attitude data. Correct the orientation of the axis center.

次いで、端末20は、補正後の球面に貼り付けた全天球画像フレームを、透視投影変換の処理などの射影変換を実施して、平面的な全天球画像フレームに順次変換し、ディスプレイ205に表示させる(ステップ8)。 Next, the terminal 20 performs projective transformation such as perspective projection transformation on the corrected spherical surface image frame to sequentially convert it into a planar spherical image frame, and the display 205 Is displayed (step 8).

<撮像装置10の動作>
撮像装置10の動作を説明する。図12は、実施の形態1に係る撮像装置10の動作の一例を示すフローチャートである。以下において、1フレームの画像データに対する撮像装置10の処理を説明する。
<Operation of Imaging Device 10>
The operation of the imaging device 10 will be described. FIG. 12 is a flowchart showing an example of the operation of the image pickup apparatus 10 according to the first embodiment. Hereinafter, the processing of the imaging device 10 for one frame of image data will be described.

図12に示すように、撮像装置10の第一撮像素子11ab及び第二撮像素子11bbは撮像を開始し、撮像制御部11は、第一撮像素子11ab及び第二撮像素子11bbそれぞれによって撮像された1フレーム分の画像データである画像フレームを取得する、つまり取り込む(ステップS101)。 As shown in FIG. 12, the first image pickup device 11ab and the second image pickup device 11bb of the image pickup apparatus 10 start image pickup, and the image pickup control unit 11 is picked up by the first image pickup device 11ab and the second image pickup device 11bb, respectively. An image frame that is image data for one frame is acquired, that is, captured (step S101).

次いで、撮像制御部11は、取得された画像データに対して画像処理を行う(ステップS102)。具体的には、撮像制御部11は、第一撮像素子11ab及び第二撮像素子11bbによって撮像された2つの画像フレームを合成し、全天球画像フレームを生成する。 Next, the imaging control unit 11 performs image processing on the acquired image data (step S102). Specifically, the imaging control unit 11 combines the two image frames imaged by the first imaging element 11ab and the second imaging element 11bb to generate a spherical image frame.

次いで、姿勢検出部13は、撮像装置10の姿勢を検出する(ステップS103)。具体的には、姿勢検出部13は、モーションセンサ109の検出値から、全天球画像フレームが撮像されたタイミングに検出された検出値を取得する。さらに、姿勢データ生成部14は、姿勢検出部13によって取得された検出値を用いて、撮像装置10の姿勢を示すパラメータを姿勢データとして生成する。 Next, the posture detection unit 13 detects the posture of the imaging device 10 (step S103). Specifically, the posture detection unit 13 acquires, from the detection value of the motion sensor 109, the detection value detected at the timing when the spherical image frame is captured. Further, the posture data generation unit 14 uses the detection value acquired by the posture detection unit 13 to generate a parameter indicating the posture of the imaging device 10 as posture data.

次いで、動画圧縮部12は、1フレーム分の画像データを動画形式の画像データに圧縮する(ステップS104)。具体的には、動画圧縮部12は、全天球画像フレームを動画形式のデータに圧縮する。ここで、1フレーム毎に動画形式に画像データを圧縮しているが、所定のフレーム数毎に動画形式に圧縮する、または、撮影終了後に全てのフレームを動画形式に圧縮するなど、圧縮の方式や形態はいずれであってもよい。 Next, the moving picture compression unit 12 compresses one frame of image data into moving picture image data (step S104). Specifically, the moving picture compression unit 12 compresses the spherical image frame into moving picture format data. Here, the image data is compressed into a moving image format every frame, but it is compressed into a moving image format every predetermined number of frames, or all frames are compressed into a moving image format after shooting is finished. Any form may be used.

次いで、通信部15は、動画形式の画像データを端末20に送信する(ステップS105)。 Next, the communication unit 15 transmits the moving image format image data to the terminal 20 (step S105).

同様に、通信部15は、撮像装置10の姿勢データを端末20に送信する(ステップS106)。このとき、通信部15は、動画形式の画像データと、当該動画形式の画像データの撮像のタイミングで検出された姿勢データとを、関連付ける。通信部15は、動画形式の画像データと姿勢データとを関連付ける情報を、動画形式の画像データに含めてもよく、姿勢データに含めてもよく、両方に含めてもよい。その他に、動画形式の画像データのメタデータとして姿勢データを付加して、関連付けてもよい。また、メタデータとして姿勢データを付加する場合は、ステップS106のように姿勢データを端末20に送信することに代えて、ステップS104で動画形式データに圧縮する際に、それぞれの画像フレームに対応する姿勢データをメタデータとして付加し、動画形式データに圧縮してもよい。 Similarly, the communication unit 15 transmits the attitude data of the imaging device 10 to the terminal 20 (step S106). At this time, the communication unit 15 associates the moving image format image data with the posture data detected at the timing of capturing the moving image format image data. The communication unit 15 may include information associating the image data in the moving image format with the attitude data in the image data in the moving image format, in the attitude data, or in both. In addition, orientation data may be added and associated as metadata of moving image format image data. Further, when the posture data is added as the metadata, instead of transmitting the posture data to the terminal 20 as in step S106, when the posture data is compressed into moving image format data in step S104, it corresponds to each image frame. The posture data may be added as metadata and compressed into moving image format data.

次いで、撮像制御部11は、第一撮像素子11ab及び第二撮像素子11bbによる撮像が終了し、全ての画像フレームに対する処理が終了している場合(ステップS107でYes)、一連の処理を終了し、未処理の画像フレームがある場合(ステップS107でNo)、ステップS101に戻る。 Next, when the image pickup by the first image pickup device 11ab and the second image pickup device 11bb is finished and the process for all the image frames is finished (Yes in step S107), the image pickup control unit 11 finishes the series of processes. If there is an unprocessed image frame (No in step S107), the process returns to step S101.

<端末20の動作>
端末20の動作を説明する。図13は、実施の形態1に係る端末20の動作の一例を示すフローチャートである。以下において、撮像装置10から配信される画像を端末20がディスプレイ205に表示しているときに、ユーザによって入力装置204を介して視点位置(指定領域)が指定された後の端末20の動作を説明する。
<Operation of terminal 20>
The operation of the terminal 20 will be described. FIG. 13 is a flowchart showing an example of operation of terminal 20 according to the first exemplary embodiment. In the following, when the terminal 20 is displaying the image distributed from the imaging device 10 on the display 205, the operation of the terminal 20 after the viewpoint position (specified region) is specified by the user via the input device 204 will be described. explain.

図13に示すように、端末20は、表示している画像上において、ユーザから視点位置の指定を受け付ける(ステップS201)。例えば、視点位置は、入力装置204への入力を介して画像上で指定される点又は領域を世界座標系の座標値を含んで示される情報である。 As shown in FIG. 13, the terminal 20 receives the designation of the viewpoint position from the user on the displayed image (step S201). For example, the viewpoint position is information indicating a point or region designated on the image via the input to the input device 204, including coordinate values in the world coordinate system.

次いで、通信部21は、撮像装置10から、動画形式のデータである1フレーム分の画像データを受信する(ステップS202)。 Next, the communication unit 21 receives one frame of image data, which is moving image format data, from the imaging device 10 (step S202).

同様に、通信部21は、撮像装置10から撮像装置10の姿勢データを受信する(ステップS203)。なお、先に示したように、姿勢データを動画形式データのメタデータとして受信する場合は、当該ステップS203は省略される。そして、姿勢データ取得部24は、受信された姿勢データを取得する。 Similarly, the communication unit 21 receives the attitude data of the imaging device 10 from the imaging device 10 (step S203). Note that, as described above, when the posture data is received as the metadata of the moving image format data, the step S203 is omitted. Then, the posture data acquisition unit 24 acquires the received posture data.

次いで、動画展開部22は、動画形式の1フレーム分の画像データをRAM103に展開する(ステップS204)。具体的には、動画展開部22は、動画形式の画像データを、表示可能な画像フレームのデータに展開する。 Next, the moving image expanding unit 22 expands one frame of image data in the moving image format in the RAM 103 (step S204). Specifically, the moving image expanding unit 22 expands the image data in the moving image format into the data of the displayable image frame.

次いで、表示用画像生成部23は、表示可能な画像フレームのデータを、3次元モデルの球面に投影した画像フレームに変換する。つまり、表示用画像生成部23は、表示用の画像フレームを生成する(ステップS205)。ここで、例えば、全天球画像フレームを、平面画像に出力する際には、透視投影変換を実施する。 Next, the display image generation unit 23 converts the displayable image frame data into an image frame projected on the spherical surface of the three-dimensional model. That is, the display image generation unit 23 generates an image frame for display (step S205). Here, for example, when outputting the omnidirectional image frame to a plane image, perspective projection conversion is performed.

次いで、表示視点補正部25は、姿勢データに基づき、球面の画像フレームにおける表示視点を補正する(ステップS206)。このとき、表示視点補正部25は、姿勢データの検出タイミングと、球面の画像フレームを構成する画像の撮像タイミングとが同じである姿勢データ及び球面の画像フレームを関連付けて、補正を行う。そして、表示視点補正部25は、姿勢データが示す撮像装置10の姿勢の変化に起因して、ステップS201で指定された視点位置が端末20の画面上で変化しないように、球面の画像フレームの向き、つまり、光軸中心LAの向きを補正する。よって、表示視点補正部25は、撮像装置10の姿勢変化により変化し得る視点位置を、姿勢変化前の位置にするように補正する。さらに、表示視点補正部25は、補正後の光軸中心を中心として、3次元モデルの球面に全天球画像フレームを形成する。 Next, the display viewpoint correction unit 25 corrects the display viewpoint in the spherical image frame based on the posture data (step S206). At this time, the display viewpoint correction unit 25 performs correction by associating the posture data and the spherical image frame, which have the same detection timing of the posture data and the imaging timing of the image forming the spherical image frame. Then, the display viewpoint correction unit 25 changes the spherical image frame so that the viewpoint position specified in step S201 does not change on the screen of the terminal 20 due to the change in the attitude of the imaging device 10 indicated by the attitude data. The direction, that is, the direction of the optical axis center LA is corrected. Therefore, the display viewpoint correction unit 25 corrects the viewpoint position, which may change due to the change in the attitude of the imaging device 10, to the position before the change in the attitude. Furthermore, the display viewpoint correction unit 25 forms a spherical image frame on the spherical surface of the three-dimensional model with the corrected optical axis center as the center.

次いで、表示制御部26は、表示視点補正部25から取得された補正後の画像フレームをディスプレイ205に表示させる。つまり、表示制御部26は、補正後の視点での領域Tを表示する(ステップS207)。よって、ディスプレイ205には、撮像装置10の姿勢が変化しても、同じ視点位置の画像が表示される。 Next, the display control unit 26 causes the display 205 to display the corrected image frame acquired from the display viewpoint correction unit 25. That is, the display control unit 26 displays the area T at the corrected viewpoint (step S207). Therefore, the image of the same viewpoint position is displayed on the display 205 even if the posture of the imaging device 10 changes.

次いで、表示制御部26は、撮像装置10から送信される全ての画像フレームのディスプレイ205への表示が終了すると(ステップS208でYes)、一連の処理を終了し、終了していない場合(ステップS208でNo)、ステップS201に戻る。 Next, when the display control unit 26 finishes displaying all the image frames transmitted from the imaging device 10 on the display 205 (Yes in step S208), the series of processes ends, and if not finished (step S208). No), the process returns to step S201.

ステップS201では、端末20は、ユーザから視点位置の変更を受け付けると、変更後の視点位置を用いて、ステップS202以降の処理に進む。端末20は、ユーザから視点位置の変更を受け付けていない場合、現在設定されている視点位置を用いて、ステップS202以降の処理に進む。端末20は、ユーザから視点位置の取り消しを受け付けると、ステップS208に進む。 In step S201, when the terminal 20 receives the change in the viewpoint position from the user, the terminal 20 uses the changed viewpoint position and proceeds to the processing in step S202 and subsequent steps. When the terminal 20 has not received the change of the viewpoint position from the user, the terminal 20 proceeds to the processing of step S202 and subsequent steps using the viewpoint position currently set. Upon receiving the cancellation of the viewpoint position from the user, the terminal 20 proceeds to step S208.

<効果等>
上述のような実施の形態1に係る撮像システム1000は、画像を撮像する撮像部11Aと、撮像部11Aの姿勢を検出する姿勢検出部13と、撮像部11Aの姿勢と、画像に指定される表示部分とに基づき、撮像部11Aによって撮像された画像を、当該表示部分を写し出すように補正する補正部としての表示視点補正部25と、補正後の画像を表示する表示部としての表示制御部26とを備える。
<Effects>
In the imaging system 1000 according to the first embodiment as described above, the imaging unit 11A that captures an image, the attitude detection unit 13 that detects the attitude of the imaging unit 11A, the attitude of the imaging unit 11A, and the image are designated. A display viewpoint correction unit 25 as a correction unit that corrects the image captured by the imaging unit 11A based on the display portion so as to project the display portion, and a display control unit that serves as the display unit that displays the corrected image. And 26.

上記構成によると、撮像システム1000は、撮像部11Aの姿勢が変化しても、表示部分を写し出す画像を表示する。例えば、撮像部11Aの姿勢が変化し撮像方向が変化した場合であっても、撮像システム1000は、表示される画像に表示部分を写し出す。よって、撮像システム1000は、撮像部11Aの姿勢に依らず所望の表示対象を写し出すことができる。 According to the above configuration, the imaging system 1000 displays an image showing the display portion even if the attitude of the imaging unit 11A changes. For example, even when the orientation of the imaging unit 11A changes and the imaging direction changes, the imaging system 1000 projects the display portion in the displayed image. Therefore, the imaging system 1000 can project a desired display target regardless of the posture of the imaging unit 11A.

また、実施の形態1に係る撮像システム1000において、表示視点補正部25は、撮像部11Aの姿勢の変化に関係なく、画像に対する表示部分の位置を維持するように、撮像部11Aによって撮像された画像を補正してもよい。上記構成によると、撮像システム1000は、表示される画像において、表示部分を同じ位置で写し出すことができる。これにより、ユーザは、画像において表示部分を探す必要がなく、視点を変えずに表示部分を視認することができる。よって、表示部分の視認が容易になる。 Further, in the image pickup system 1000 according to the first embodiment, the display viewpoint correction unit 25 is imaged by the image pickup unit 11A so as to maintain the position of the display portion with respect to the image regardless of the change in the posture of the image pickup unit 11A. The image may be corrected. According to the above configuration, the imaging system 1000 can display the display portion at the same position in the displayed image. With this, the user does not need to search for the display portion in the image, and can visually recognize the display portion without changing the viewpoint. Therefore, it becomes easy to visually recognize the display portion.

また、実施の形態1に係る撮像システム1000において、撮像部11Aの姿勢は、撮像部11Aのヨーイング、ピッチング及びローリングの方向の姿勢を含んでもよい。上記構成により、撮像部11Aの姿勢の検出精度が向上する。よって、撮像システム1000は、表示部分を写し出すための画像の補正を高精度で行うことができる。 Further, in the imaging system 1000 according to the first embodiment, the attitude of the imaging unit 11A may include the attitudes of the imaging unit 11A in the yawing, pitching, and rolling directions. With the above configuration, the accuracy of detecting the posture of the image capturing unit 11A is improved. Therefore, the imaging system 1000 can accurately correct the image for displaying the display portion.

また、実施の形態1に係る撮像システム1000は、撮像装置10と端末20とを備えてもよい。そして、撮像装置10は、撮像部11Aと、撮像部11Aによって撮像された複数の画像から動画データを生成する生成部としての動画圧縮部12と、姿勢検出部13と、動画データ及び撮像部11Aの姿勢を端末20に送る送信部としての通信部15とを有してもよい。また、端末20は、動画データを個別の画像に展開する展開部としての動画展開部22と、表示視点補正部25と、表示制御部26とを有してもよい。上記構成によると、撮像システム1000は、撮像装置10から端末20に動画を配信し、配信された動画において表示部分を写し出すことができる。 Moreover, the imaging system 1000 according to the first embodiment may include the imaging device 10 and the terminal 20. Then, the imaging device 10 includes the imaging unit 11A, the moving image compression unit 12 as a generation unit that generates moving image data from the plurality of images captured by the imaging unit 11A, the posture detection unit 13, the moving image data and the imaging unit 11A. The communication unit 15 may be included as a transmission unit that sends the posture of the above to the terminal 20. Further, the terminal 20 may include a moving image developing unit 22 as a developing unit that develops moving image data into individual images, a display viewpoint correcting unit 25, and a display control unit 26. According to the above configuration, the imaging system 1000 can deliver a moving image from the imaging device 10 to the terminal 20, and display a display portion in the delivered moving image.

また、実施の形態1に係る端末20は、撮像部11Aによって撮像された画像及び撮像部11Aの姿勢の情報を取得する取得部としての通信部21と、撮像部11Aの姿勢と、画像に指定される表示部分とに基づき、通信部21によって取得された画像を、表示部分を写し出すように補正する表示視点補正部25と、補正後の画像を表示する表示制御部26とを備える。上記構成によると、端末20は、上記撮像システム1000と同様の効果を奏することができる。 Further, the terminal 20 according to the first embodiment specifies the image captured by the imaging unit 11A and the communication unit 21 as an acquisition unit that acquires information on the orientation of the imaging unit 11A, the orientation of the imaging unit 11A, and the image. The display viewpoint correction unit 25 that corrects the image acquired by the communication unit 21 so as to project the display portion based on the display portion that is displayed, and the display control unit 26 that displays the corrected image. According to the above configuration, the terminal 20 can achieve the same effect as that of the imaging system 1000.

(実施の形態2)
実施の形態2に係る撮像システムでは、ディスプレイ205に表示される画像に対する視点位置を保持するための処理が、実施の形態1と異なる。以下、実施の形態2について、実施の形態1と異なる点を中心に説明し、実施の形態1と同様の点の説明を適宜省略する。
(Embodiment 2)
In the imaging system according to the second embodiment, the processing for holding the viewpoint position for the image displayed on the display 205 is different from that of the first embodiment. Hereinafter, the second embodiment will be described focusing on the points different from the first embodiment, and the description of the same points as the first embodiment will be appropriately omitted.

実施の形態2に係る撮像装置及び端末のハードウェア構成及び機能的構成は、実施の形態1と同様であるため、その説明を省略する。さらに、実施の形態2において、各構成要素の符号は、実施の形態1と同じとする。 The hardware configurations and functional configurations of the imaging device and the terminal according to the second embodiment are the same as those in the first embodiment, and thus the description thereof will be omitted. Furthermore, in the second embodiment, the reference numerals of the respective constituent elements are the same as those in the first embodiment.

本実施の形態では、端末20のディスプレイ205に表示される画像上において、表示部分である視点の位置と画像の向きとが、ユーザによって入力装置204を介して指定される。指定方法は、視点の位置と画像の向きとを指定することができれば、いかなる指定方法であってもよい。例えば、視点の位置を示す点と画像の向きを示すラインとが、指定されてもよい。又は、多角形の枠を用いて領域が指定されてもよい。多角形の中心と1つの辺とから、視点の位置と画像の向きとの特定が可能である。 In the present embodiment, on the image displayed on display 205 of terminal 20, the position of the viewpoint, which is the display portion, and the orientation of the image are specified by the user via input device 204. The designation method may be any designation method as long as the position of the viewpoint and the orientation of the image can be designated. For example, a point indicating the position of the viewpoint and a line indicating the orientation of the image may be designated. Alternatively, the area may be designated using a polygonal frame. The position of the viewpoint and the orientation of the image can be identified from the center of the polygon and one side.

視点の位置を示す点と画像の向きを示すラインとが、指定されるケースを説明する。図14は、実施の形態2に係る指定点及び指定方向の一例を示す図である。図14は、図9と同様に、立体球CS上の球面の画像フレームの一部を示す。図14に示すように、点CPaが指定点として指定され、点CPaから延びるラインDaが指定方向を示すラインとして指定される。ラインDaにおける点CPaと反対側の点は、点CPbである。この指定された内容も世界座標系の座標値を含む形で指定されるが、その他、全天球画像上の座標値であってもよい。 A case where a point indicating the position of the viewpoint and a line indicating the orientation of the image are designated will be described. FIG. 14 is a diagram showing an example of designated points and designated directions according to the second embodiment. Similar to FIG. 9, FIG. 14 shows a part of a spherical image frame on the solid sphere CS. As shown in FIG. 14, the point CPa is designated as the designated point, and the line Da extending from the point CPa is designated as the line indicating the designated direction. The point on the opposite side of the point CPa on the line Da is the point CPb. This specified content is also specified in a form that includes coordinate values in the world coordinate system, but it may also be coordinate values on the spherical image.

そして、撮像装置10の姿勢が変化すると、点CPaとラインDaとが一緒に移動する。端末20の表示視点補正部25は、姿勢変化の前後で立体球CS上における点CPaの位置とラインDaの方向とが変化しないように、球面の画像フレームを立体球CS上で回転させることで、球面の画像フレームの各パラメータを補正する。 Then, when the posture of the imaging device 10 changes, the point CPa and the line Da move together. The display viewpoint correction unit 25 of the terminal 20 rotates the spherical image frame on the solid sphere CS so that the position of the point CPa and the direction of the line Da on the solid sphere CS do not change before and after the posture change. , Correct each parameter of the spherical image frame.

例えば、撮像装置10の姿勢が、ロール角θr、ピッチ角θp及びヨー角θy変化した場合、点CPaを通る仮想カメラICの光軸IAaは、光軸IAa1に変化し、点CPaは、光軸IAa1上の点CPa1に移動する。さらに、ラインDaの方向を示す方向ベクトルVaは、方向ベクトルVa1に変化する。方向ベクトルVaは、点CPaと点CPbとにより形成されるベクトルであってもよい。 For example, when the attitude of the imaging device 10 changes by the roll angle θr, the pitch angle θp, and the yaw angle θy, the optical axis IAa of the virtual camera IC passing through the point CPa changes to the optical axis IAa1 and the point CPa changes. Move to point CPa1 on IAa1. Further, the direction vector Va indicating the direction of the line Da changes to the direction vector Va1. The direction vector Va may be a vector formed by the points CPa and CPb.

よって、表示視点補正部25は、点CPa1を点CPaに移動させ且つ方向ベクトルVa1の方向を方向ベクトルVaの方向と一致させるように、姿勢変化後の球面の画像フレームを、立体球CSの中心を中心として回転させる。つまり、表示視点補正部25は、姿勢変化後の球面の画像フレームに対して、点CPa1を点CPaに移動させ且つ方向ベクトルVa1の方向を方向ベクトルVaの方向と一致させる座標変換を行う。座標変換後の球面の画像フレームにおいて、立体球CS上における点CPa1の位置は、点CPaと同じであり、方向ベクトルVa1は、方向ベクトルVaと平行である。 Therefore, the display viewpoint correction unit 25 moves the spherical image frame after the posture change to the center of the solid sphere CS so that the point CPa1 is moved to the point CPa and the direction vector Va1 matches the direction vector Va. Rotate around. That is, the display viewpoint correction unit 25 performs coordinate conversion on the spherical image frame after the posture change to move the point CPa1 to the point CPa and match the direction of the direction vector Va1 with the direction of the direction vector Va. In the spherical image frame after the coordinate conversion, the position of the point CPa1 on the solid sphere CS is the same as the point CPa, and the direction vector Va1 is parallel to the direction vector Va.

例えば、図15は、実施の形態2に係る撮像装置10の姿勢変化前後における端末20の表示画像の一例を示す図である。図15に示すように、端末20が表示する画像20aにおいて、ユーザによって点CPa及びラインDaが指定される。その後、例えば、撮像装置10がY軸を中心に回転された場合、端末20は、回転中及び回転後において、点CPaの位置が同じ位置に維持され且つラインDaの方向が同じ方向に維持された画像20aを表示する。つまり、端末20は同じ視点及び傾斜の画像20aを表示し続ける。 For example, FIG. 15 is a diagram showing an example of display images of the terminal 20 before and after the posture change of the imaging device 10 according to the second embodiment. As shown in FIG. 15, in the image 20a displayed by the terminal 20, the point CPa and the line Da are designated by the user. Then, for example, when the imaging device 10 is rotated around the Y axis, the terminal 20 keeps the position of the point CPa in the same position and the direction of the line Da in the same direction during and after the rotation. The displayed image 20a is displayed. That is, the terminal 20 continues to display the image 20a with the same viewpoint and inclination.

また、実施の形態2に係る撮像システムのその他の構成及び動作は、実施の形態1と同様であるため、その説明を省略する。そして、上述のような実施の形態2に係る撮像システムによると、実施の形態1と同様の効果が得られる。 Further, other configurations and operations of the imaging system according to the second embodiment are similar to those of the first embodiment, and thus the description thereof will be omitted. Then, according to the imaging system according to the second embodiment as described above, the same effect as that of the first embodiment can be obtained.

さらに、実施の形態2に係る撮像システムにおいて、端末20の表示視点補正部25は、撮像部11Aの姿勢と、画像に指定される表示部分及び表示方向とに基づき、撮像部11Aによって撮像された画像を、当該表示方向で当該表示部分を写し出すように補正してもよい。上記構成によると、端末20は、撮像部11Aの姿勢が変化しても、指定された表示方向で表示部分を写し出す画像を表示することができる。よって、端末20は、撮像部11Aの姿勢に依らず所望の表示対象を所望の向きで写し出すことができる。 Further, in the imaging system according to the second embodiment, the display viewpoint correction unit 25 of the terminal 20 is imaged by the imaging unit 11A based on the attitude of the imaging unit 11A and the display portion and the display direction specified in the image. The image may be corrected to project the display portion in the display direction. According to the above configuration, the terminal 20 can display the image showing the display portion in the designated display direction even if the attitude of the imaging unit 11A changes. Therefore, the terminal 20 can project a desired display target in a desired orientation regardless of the posture of the imaging unit 11A.

また、実施の形態2に係る撮像システムにおいて、端末20の表示視点補正部25は、撮像部11Aによって撮像された画像の鉛直方向軸が天頂方向となるように、撮像部11Aによって撮像された画像を補正してもよい。なお、撮像部11Aによって撮像された画像の鉛直方向軸は、撮像部11Aに設定される鉛直方向軸に対応してもよい。 In the imaging system according to the second embodiment, the display viewpoint correction unit 25 of the terminal 20 causes the image captured by the image capturing unit 11A so that the vertical axis of the image captured by the image capturing unit 11A is the zenith direction. May be corrected. The vertical axis of the image captured by the image capturing unit 11A may correspond to the vertical axis set in the image capturing unit 11A.

例えば、撮像部11Aに設定される鉛直方向軸を、Z軸としてもよい。このとき、表示視点補正部25は、ユーザによって指定されるラインDaの代わりに、Z軸に対応する画像の鉛直方向軸を用いてもよい。そして、表示視点補正部25は、ユーザによって指定される点CPaと画像の鉛直方向軸とを用いて、点CPaの位置が同じ位置に維持され且つ画像の鉛直方向軸の方向が天頂方向に維持されるように、撮像部11Aによって撮像される画像を補正してもよい。天頂方向は、世界座標のZs軸方向である。撮像部11Aの姿勢から、Zs軸に対する撮像部11AのZ軸の傾斜方向及び傾斜角の検出が可能である。よって、表示視点補正部25は、実施の形態2において上述した処理と同様に、補正を行うことができる。 For example, the vertical axis set in the imaging unit 11A may be the Z axis. At this time, the display viewpoint correction unit 25 may use the vertical axis of the image corresponding to the Z axis, instead of the line Da designated by the user. Then, the display viewpoint correction unit 25 uses the point CPa designated by the user and the vertical axis of the image to maintain the position of the point CPa at the same position and maintains the direction of the vertical axis of the image in the zenith direction. As described above, the image captured by the image capturing unit 11A may be corrected. The zenith direction is the Zs axis direction in world coordinates. The tilt direction and tilt angle of the Z axis of the imaging unit 11A with respect to the Zs axis can be detected from the attitude of the imaging unit 11A. Therefore, the display viewpoint correction unit 25 can perform the correction similarly to the processing described above in the second embodiment.

上記構成により、端末20は、実際の上下方向である天頂方向で、指定された表示部分を写し出す画像を表示することができる。 With the above configuration, the terminal 20 can display an image showing the designated display portion in the zenith direction which is the actual vertical direction.

また、表示視点補正部25が、画像の鉛直方向軸が天頂方向となるように、画像を補正する天頂補正機能は、選択可能であってもよい。例えば、端末20の入力装置204を介して、ユーザによって、天頂補正機能の実行、つまり、ONの指令が入力されると、表示視点補正部25は、天頂補正を行ってもよい。さらに、入力装置204を介して、ユーザによって、天頂補正機能の停止、つまり、OFFの指令が入力されると、表示視点補正部25は、天頂補正を行わなくてもよい。 Further, the display viewpoint correction unit 25 may be capable of selecting a zenith correction function for correcting the image so that the vertical axis of the image is the zenith direction. For example, when the user executes the zenith correction function, that is, an ON command is input via the input device 204 of the terminal 20, the display viewpoint correction unit 25 may perform the zenith correction. Furthermore, when the user inputs a command to stop the zenith correction function, that is, an OFF command through the input device 204, the display viewpoint correction unit 25 does not have to perform the zenith correction.

また、実施の形態2に係る撮像システムにおいて、端末20の表示視点補正部25は、撮像部11Aの姿勢と、画像で指定される表示方向(ユーザによって指定されるラインDa)とに基づき、撮像部11Aによって撮像された画像を、当該表示方向で写し出すように補正してもよい。これにより、端末20は、撮像部11Aの姿勢が変化しても、指定された表示方向で写し出す画像を表示することができ、撮像部11Aの姿勢に依らず所望の向きで写し出すことができる。 Further, in the imaging system according to the second embodiment, the display viewpoint correction unit 25 of the terminal 20 performs imaging based on the orientation of the imaging unit 11A and the display direction (line Da designated by the user) designated by the image. The image captured by the unit 11A may be corrected so as to be displayed in the display direction. As a result, the terminal 20 can display the image projected in the designated display direction even when the orientation of the image capturing unit 11A changes, and can project the image in a desired orientation regardless of the orientation of the image capturing unit 11A.

(その他の実施の形態)
以上、本発明の実施の形態の例について説明したが、本発明は、上記実施の形態に限定されない。すなわち、本発明の範囲内で種々の変形及び改良が可能である。例えば、各種変形を実施の形態に施したもの、及び、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
(Other embodiments)
Although the example of the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment. That is, various modifications and improvements are possible within the scope of the present invention. For example, various modifications of the embodiment and forms constructed by combining the constituent elements of different embodiments are also included in the scope of the present invention.

例えば、実施の形態に係る撮像システムにおいて、端末20の表示視点補正部25は、画像において指定される表示部分の一例である指定領域T又は点CPaの位置が、撮像装置10の姿勢の変化に依らず、画像上で同じ位置に維持されるように、全天球画像フレームを補正したが、これに限定されない。 For example, in the imaging system according to the embodiment, the display viewpoint correction unit 25 of the terminal 20 causes the position of the designated area T or the point CPa, which is an example of the display portion designated in the image, to change in the posture of the imaging device 10. However, the spherical image frame is corrected so as to be maintained at the same position on the image, but is not limited thereto.

例えば、表示視点補正部25は、撮像装置10の姿勢が変化しても、指定領域T又は点CPaが、画像上における所定の表示領域内に収まる場合、全天球画像フレームを補正せず、収まらない場合、全天球画像フレームを補正してもよい。例えば、所定の領域は、ユーザによって指定されたときの指定領域T又は点CPaの位置を中心とする領域であってもよい。これにより、ユーザは、視点を大きく変えずに、指定領域T又は点CPaを視認することができる。 For example, if the designated area T or the point CPa falls within a predetermined display area on the image even if the posture of the imaging device 10 changes, the display viewpoint correction unit 25 does not correct the spherical image frame, If it does not fit, the spherical image frame may be corrected. For example, the predetermined region may be a region centered on the position of the designated region T or the point CPa designated by the user. As a result, the user can visually recognize the designated area T or the point CPa without significantly changing the viewpoint.

又は、表示視点補正部25は、撮像装置10の姿勢が変化しても、指定領域T又は点CPaの位置を、画像の中心等の所定の位置に維持するように、全天球画像フレームを補正してもよい。画像の中心は、光軸中心の位置であってもよい。 Alternatively, the display viewpoint correction unit 25 changes the spherical image frame so as to maintain the position of the designated area T or the point CPa at a predetermined position such as the center of the image even when the posture of the imaging device 10 changes. You may correct. The center of the image may be the position of the center of the optical axis.

また、実施の形態に係る撮像システムにおいて、端末20の表示視点補正部25は、指定領域T又は点CPa等の指定された表示部分について、撮像部11Aの姿勢の変化による画像上での表示部分の揺動を抑えるように、撮像部11Aによって撮像された画像を補正してもよい。 Further, in the image pickup system according to the embodiment, the display viewpoint correction unit 25 of the terminal 20 displays the designated display portion such as the designated area T or the point CPa on the image due to the change in the attitude of the image pickup unit 11A. The image captured by the image capturing unit 11A may be corrected so as to suppress the swing of the image.

例えば、端末20の姿勢データ取得部24は、撮像装置10の姿勢データから、撮像装置10の姿勢が変化する方向が変わる周期(以下、「姿勢変化周期」とも呼ぶ)と、姿勢の変化方向それぞれでの撮像装置10の姿勢の変化量を検出してもよい。そして、表示視点補正部25は、姿勢変化周期が第一閾値以下であり且つ当該周期における姿勢の変化量が第二閾値以下である場合、画像における表示部分の位置を維持するように、画像を補正してもよい。この場合、撮像装置10が、撮像装置10を把持するユーザの手振れにより振動していると見なすことができる。また、表示視点補正部25は、姿勢変化周期が第一閾値超であり且つ当該周期における姿勢の変化量が第二閾値以下である場合、画像を補正しなくてもよい。また、表示視点補正部25は、姿勢変化周期における姿勢の変化量が第二閾値超である場合、画像における表示部分の位置を維持するように、画像を補正してもよい。 For example, the posture data acquisition unit 24 of the terminal 20 uses the posture data of the imaging device 10 to change the direction in which the posture of the imaging device 10 changes (hereinafter, also referred to as “posture change period”) and change the posture in each direction. The amount of change in the posture of the image pickup apparatus 10 may be detected. Then, when the posture change cycle is less than or equal to the first threshold and the amount of change in posture in the cycle is less than or equal to the second threshold, the display viewpoint correction unit 25 displays the image so as to maintain the position of the display portion in the image. You may correct. In this case, it can be considered that the imaging device 10 is vibrating due to the shaking of the user who holds the imaging device 10. Further, the display viewpoint correction unit 25 may not correct the image when the posture change cycle is greater than the first threshold and the change amount of the posture in the cycle is less than or equal to the second threshold. Further, the display viewpoint correction unit 25 may correct the image so as to maintain the position of the display portion in the image when the amount of change in the posture in the posture change cycle exceeds the second threshold.

上記構成によると、端末20は、撮像装置10を把持するユーザの手振れ等に起因する画面の揺れを抑制しつつ、撮像装置10の姿勢に依らず所望の表示対象を写し出すことができる。 According to the above configuration, the terminal 20 can project a desired display target regardless of the posture of the imaging device 10 while suppressing the screen shake caused by the shaking of the user who holds the imaging device 10.

また、表示視点補正部25が、撮像部11Aの姿勢の変化による画像上での表示部分の揺動を抑えるように、画像を補正する揺動抑止機能は、選択可能であってもよい。例えば、端末20の入力装置204を介して、ユーザによって、揺動抑止機能の実行、つまり、ONの指令が入力されると、表示視点補正部25は、揺動を抑止する上記補正を行ってもよい。さらに、入力装置204を介して、ユーザによって、揺動抑止機能の停止、つまり、OFFの指令が入力されると、表示視点補正部25は、揺動を抑止する上記補正を行わなくてもよい。 Further, the rocking prevention function for correcting the image may be selectable so that the display viewpoint correction unit 25 suppresses the rocking of the display portion on the image due to the change of the posture of the imaging unit 11A. For example, when the user executes the rocking suppression function, that is, an ON command is input via the input device 204 of the terminal 20, the display viewpoint correction unit 25 performs the above-described correction for suppressing the rocking. Good. Furthermore, when the user inputs a command to stop the rocking suppression function, that is, an OFF command through the input device 204, the display viewpoint correction unit 25 does not have to perform the above-described correction for suppressing the rocking. ..

また、実施の形態に係る撮像システムにおいて、撮像装置10の撮像制御部11は、第一撮像素子11ab及び第二撮像素子11bbによって撮像された2つの画像フレームを合成して全天球画像フレームを生成したが、これに限定されず、全天球画像フレームに合成しなくてもよい。例えば、撮像制御部11は、当該2つの画像フレームを合成せずに動画圧縮部12に出力し、動画圧縮部12は、当該2つの画像フレームそれぞれから2つの動画形式のデータを生成し、通信部15を介して端末20に送信してもよい。この場合、撮像装置10は、カメラ11a及び11bそれぞれに設定されている光軸中心の向き及び撮像方向等を含むカメラ情報を端末20に送信してもよい。そして、端末20は、2つの動画形式のデータそれぞれを展開して得られ且つ同時刻又は近似する時刻に撮像された画像フレームを、カメラ情報等に基づき合成し、全天球画像フレームを生成してもよい。又は、端末20は、2つの動画形式のデータそれぞれから得られる画像フレームを合成せず、2つの画像をディスプレイ205に表示してもよい。 In addition, in the imaging system according to the embodiment, the imaging control unit 11 of the imaging device 10 combines two image frames imaged by the first imaging element 11ab and the second imaging element 11bb to form a omnidirectional image frame. Although it is generated, the present invention is not limited to this and may not be combined with the spherical image frame. For example, the imaging control unit 11 outputs the two image frames to the moving image compression unit 12 without combining them, and the moving image compression unit 12 generates two moving image format data from each of the two image frames and performs communication. It may be transmitted to the terminal 20 via the unit 15. In this case, the imaging device 10 may transmit camera information including the orientation of the optical axis center and the imaging direction set for each of the cameras 11a and 11b to the terminal 20. Then, the terminal 20 synthesizes the image frames obtained by expanding each of the two moving image data and captured at the same time or at a similar time based on the camera information or the like to generate a celestial sphere image frame. May be. Alternatively, the terminal 20 may display the two images on the display 205 without combining the image frames obtained from the two pieces of moving image format data.

さらにまた、実施の形態に係る撮像システムにおいて、撮像装置10の撮像制御部11は、第一撮像素子11ab及び第二撮像素子11bbによって撮像された2つの画像フレームを合成して全天球画像フレームを生成したが、これに限定されず、全天球画像フレームに合成しなくてもよい。例えば、撮像制御部11は、当該2つの画像フレームを、いわゆるデュアルフィッシュアイ画像として動画圧縮部12に出力し、動画圧縮部12は、当該デュアルフィッシュアイ画像を動画形式のデータを生成し、通信部15を介して端末20に送信してもよい。この場合、撮像装置10は、カメラ11a及び11bそれぞれに設定されている光軸中心の向き及び撮像方向等を含むカメラ情報を端末20に送信してもよい。そして、端末20は、デュアルフィッシュアイの動画形式のデータを展開して得られ且つ同時刻又は近似する時刻に撮像された画像フレームを、カメラ情報等に基づき合成し、全天球画像フレームを生成してもよい。又は、端末20は、2つの動画形式のデータそれぞれから得られる画像フレームを合成せず、2つの画像をディスプレイ205に表示してもよい。 Furthermore, in the image pickup system according to the embodiment, the image pickup control unit 11 of the image pickup apparatus 10 synthesizes two image frames picked up by the first image pickup element 11ab and the second image pickup element 11bb to generate a spherical image frame. However, the present invention is not limited to this and may not be combined with the spherical image frame. For example, the imaging control unit 11 outputs the two image frames to the moving image compression unit 12 as a so-called dual fisheye image, and the moving image compression unit 12 generates the moving image format data of the dual fisheye image and performs communication. It may be transmitted to the terminal 20 via the unit 15. In this case, the imaging device 10 may transmit camera information including the orientation of the optical axis center and the imaging direction set for each of the cameras 11a and 11b to the terminal 20. Then, the terminal 20 synthesizes the image frames obtained by expanding the data of the dual fisheye moving image format and captured at the same time or at an approximate time based on the camera information and the like to generate a spherical image frame. You may. Alternatively, the terminal 20 may display the two images on the display 205 without combining the image frames obtained from the two pieces of moving image format data.

また、実施の形態に係る撮像システムにおいて、撮像装置10によって撮像された画像は、通信網30を介して端末20に送信されていたが、これに限定されない。撮像装置10から端末20への画像の送信は、いかなる有線通信又は無線通信を介して行われてもよい。また、撮像装置10から記憶媒体に画像が記憶され、端末20が当該記憶媒体から画像を読み出すことで、端末20が画像を取得してもよい。記憶媒体は、メモリカード及びフラッシュメモリ等の不揮発性記憶媒体であってもよい。 Further, in the imaging system according to the embodiment, the image captured by the imaging device 10 is transmitted to the terminal 20 via the communication network 30, but the image is not limited to this. The image transmission from the imaging device 10 to the terminal 20 may be performed via any wired communication or wireless communication. Further, the image may be stored in the storage medium from the imaging device 10, and the terminal 20 may read the image from the storage medium so that the terminal 20 acquires the image. The storage medium may be a non-volatile storage medium such as a memory card and a flash memory.

また、実施の形態に係る撮像システムにおいて、端末20の表示用画像生成部23及び表示視点補正部25の機能は、撮像装置10に備えられてもよい。撮像装置10は、動画圧縮部12での処理の前に、表示用画像生成部23及び表示視点補正部25と同様の処理を行ってもよい。このとき、補正後の画像が、撮像装置10から端末20に送信される。 Further, in the imaging system according to the embodiment, the functions of the display image generation unit 23 and the display viewpoint correction unit 25 of the terminal 20 may be included in the imaging device 10. The imaging device 10 may perform the same processing as the display image generation unit 23 and the display viewpoint correction unit 25 before the processing in the moving image compression unit 12. At this time, the corrected image is transmitted from the imaging device 10 to the terminal 20.

また、実施の形態に係る撮像システムは、通信網30に接続されたサーバ装置を備えてもよい。撮像装置10は、サーバ装置に画像を送信し、サーバ装置は、通信網30に接続された1つ以上の端末20に、画像を同時に配信する、つまりブロードキャストしてもよい。この場合、端末20の表示用画像生成部23及び表示視点補正部25の機能は、撮像装置10、サーバ装置、及び各端末20のいずれに備えられてもよい。 Further, the imaging system according to the embodiment may include a server device connected to the communication network 30. The imaging device 10 may transmit the image to the server device, and the server device may simultaneously deliver, that is, broadcast the image to one or more terminals 20 connected to the communication network 30. In this case, the functions of the display image generation unit 23 and the display viewpoint correction unit 25 of the terminal 20 may be provided in any of the imaging device 10, the server device, and each terminal 20.

サーバ装置に備えられる場合、各端末20において指定される表示部分の指令は、当該端末20からサーバ装置に送信されてもよい。サーバ装置は、表示用画像生成部23及び表示視点補正部25と同様の処理を行うことで、各表示部分についての補正後の画像を生成し、各端末20に対して、指令された表示部分に対応する補正後の画像を配信してもよい。又は、サーバ装置は、各表示部分についての補正後の画像を集約した画像を生成し、集約後の画像を各端末20に配信してもよい。この場合、1つの画像に全ての表示部分の画像が含まれる。 When provided in the server device, the command for the display portion designated in each terminal 20 may be transmitted from the terminal 20 to the server device. The server device performs the same processing as the display image generation unit 23 and the display viewpoint correction unit 25 to generate a corrected image for each display portion, and instructs each terminal 20 to display the instructed display portion. The corrected image corresponding to may be distributed. Alternatively, the server device may generate an image in which the corrected images of the respective display portions are aggregated and deliver the aggregated image to each terminal 20. In this case, one image includes the images of all display parts.

また、撮像装置10に備えられる場合、各端末20の表示部分の指令は、当該端末20からサーバ装置に送信されてもよい。サーバ装置は、各端末20の表示部分の情報を集約して撮像装置10に送信してもよい。撮像装置10は、表示用画像生成部23及び表示視点補正部25と同様の処理を行うことで、各表示部分についての補正後の画像を生成し、サーバ装置に送信してもよい。そして、サーバ装置は、各端末20に対して、指令された表示部分に対応する補正後の画像を配信してもよい。又は、撮像装置10は、各表示部分についての補正後の画像を集約した画像を生成し、サーバ装置に送信してもよい。 Further, when provided in the imaging device 10, the command for the display portion of each terminal 20 may be transmitted from the terminal 20 to the server device. The server device may collect the information of the display portion of each terminal 20 and transmit the information to the imaging device 10. The imaging device 10 may generate the corrected image for each display portion by performing the same processing as the display image generation unit 23 and the display viewpoint correction unit 25, and may transmit the corrected image to the server device. Then, the server device may deliver the corrected image corresponding to the instructed display portion to each terminal 20. Alternatively, the imaging device 10 may generate an image in which the corrected images of the respective display portions are aggregated and transmit the image to the server device.

また、各端末20に備えられる場合、撮像装置10によって撮像された画像は、サーバ装置を介して各端末20に送信されてもよい。各端末20は、当該端末20において指定される表示部分についての補正後の画像を生成してもよい。 Further, when provided in each terminal 20, the image captured by the imaging device 10 may be transmitted to each terminal 20 via the server device. Each terminal 20 may generate a corrected image of the display portion designated on the terminal 20.

また、実施の形態に係る撮像システムの端末20において、入力装置204を介して、ユーザによって1つの表示部分が指定され、表示視点補正部25は、当該1つの表示部分の位置が維持されるように、画像を補正したが、これに限定されない。例えば、入力装置204を介して、複数の表示部分が指定されてもよい。この場合、表示視点補正部25は、複数の表示部分それぞれについて、当該表示部分の位置が維持される複数の補正画像を生成してもよい。表示制御部26は、ディスプレイ205に、複数の補正画像を順番に表示させてもよく、複数の補正画像のうちの少なくとも2つを同時に表示させてもよい。 Further, in the terminal 20 of the imaging system according to the embodiment, the user specifies one display portion via the input device 204, and the display viewpoint correction unit 25 maintains the position of the one display portion. The image has been corrected, but is not limited to this. For example, a plurality of display parts may be designated via the input device 204. In this case, the display viewpoint correction unit 25 may generate, for each of the plurality of display portions, a plurality of corrected images in which the position of the display portion is maintained. The display control unit 26 may cause the display 205 to sequentially display a plurality of corrected images, or may display at least two of the plurality of corrected images at the same time.

また、撮像装置10にGPS(Global Positioning System)が備えられていてもよい。GPSが備えられている場合は、端末20へ送信する画像データのメタデータ内にGPS情報が組み込まれ、端末20では、別途に設けられている地図情報と関連づけながら、画像データの表示と、地図上での位置を連動させて表示させてもよい。この構成によれば、視聴者は撮像装置10の位置も確認することができる。 Further, the imaging device 10 may be equipped with a GPS (Global Positioning System). When the GPS is provided, the GPS information is incorporated in the metadata of the image data to be transmitted to the terminal 20, and the terminal 20 displays the image data and the map in association with the separately provided map information. The above position may be displayed in conjunction with each other. With this configuration, the viewer can also confirm the position of the imaging device 10.

また、本発明は、プログラムであってもよく、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。 Further, the present invention may be a program or a non-transitory computer-readable recording medium in which the program is recorded. Further, it goes without saying that the above program can be distributed via a transmission medium such as the Internet.

例えば、本発明の一実施形態に係るプログラムは、端末のコンピュータに実行させるプログラムであって、撮像部によって撮像された画像及び前記撮像部の姿勢の情報を取得する処理と、前記撮像部の姿勢と、画像に指定される表示部分とに基づき、取得された前記画像を、前記表示部分を写し出すように補正する処理と、補正後の前記画像を表示する処理とを含む。このプログラムによれば、上記端末20と同様の効果が得られる。 For example, a program according to an embodiment of the present invention is a program to be executed by a computer of a terminal, and includes a process of acquiring an image captured by an image capturing unit and information about the orientation of the image capturing unit, And a process of correcting the acquired image based on the display part designated by the image so as to project the display part, and a process of displaying the corrected image. According to this program, the same effect as the terminal 20 can be obtained.

また、上記プログラムは、前記補正する処理では、前記撮像部の姿勢と、画像に指定される前記表示部分及び表示方向とに基づき、前記取得された画像を、前記表示方向で前記表示部分を写し出すように補正してもよい。 Further, in the correction processing, the program projects the acquired image in the display direction from the acquired image based on the attitude of the imaging unit and the display portion and the display direction specified in the image. May be corrected as follows.

また、上記プログラムは、前記補正する処理では、前記取得された画像の鉛直方向軸が天頂方向となるように、前記取得された画像を補正し、前記鉛直方向軸は、前記撮像部に設定される鉛直方向軸に対応してもよい。 Further, the program corrects the acquired image in the correction process so that the vertical axis of the acquired image is the zenith direction, and the vertical axis is set in the imaging unit. It may correspond to the vertical axis.

また、上記プログラムは、前記補正する処理では、前記撮像部の姿勢の変化による画像上での前記表示部分の揺動を抑えるように、前記取得された画像を補正してもよい。 Further, the program may correct the acquired image in the correction process so as to suppress the swing of the display portion on the image due to the change in the attitude of the imaging unit.

また、上記プログラムは、前記補正する処理では、前記撮像部の姿勢の変化に関係なく、画像に対する前記表示部分の位置を維持するように、前記取得された画像を補正してもよい。 Further, the program may correct the acquired image in the correction process so as to maintain the position of the display portion with respect to the image regardless of the change in the posture of the imaging unit.

また、上記プログラムにおいて、前記撮像部の姿勢は、前記撮像部のヨーイング、ピッチング及びローリングの方向の姿勢を含んでもよい。 Further, in the above program, the attitude of the imaging unit may include attitudes of the imaging unit in the yawing, pitching, and rolling directions.

また、上記で用いた序数、数量等の数字は、全て本発明の技術を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。また、構成要素間の接続関係は、本発明の技術を具体的に説明するために例示するものであり、本発明の機能を実現する接続関係はこれに限定されない。 Moreover, all the numbers such as ordinal numbers and quantities used above are examples for specifically explaining the technique of the present invention, and the present invention is not limited to the exemplified numbers. Further, the connection relationship between the constituent elements is an example for specifically explaining the technique of the present invention, and the connection relationship for realizing the function of the present invention is not limited to this.

また、機能ブロック図におけるブロックの分割は一例であり、複数のブロックを一つのブロックとして実現する、一つのブロックを複数に分割する、及び/又は、一部の機能を他のブロックに移してもよい。また、類似する機能を有する複数のブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Further, the block division in the functional block diagram is an example, and even if a plurality of blocks are realized as one block, one block is divided into a plurality of blocks, and/or a part of the functions is transferred to another block. Good. Also, the functions of a plurality of blocks having similar functions may be processed in parallel or in time division by a single piece of hardware or software.

10 撮像装置
11A 撮像部
11a,11b カメラ
12 動画圧縮部(生成部の一例)
13 姿勢検出部
15 通信部(送信部の一例)
20 端末
21 通信部(取得部の一例)
22 動画展開部(展開部の一例)
25 表示視点補正部(補正部の一例)
26 表示制御部(表示部の一例)
30 通信網
1000 撮像システム
10 Imaging Device 11A Imaging Units 11a and 11b Camera 12 Video Compression Unit (Example of Generation Unit)
13 Attitude Detection Unit 15 Communication Unit (Example of Transmission Unit)
20 terminal 21 communication unit (an example of acquisition unit)
22 Video expansion unit (an example of expansion unit)
25 Display viewpoint correction unit (an example of correction unit)
26 Display Control Unit (Example of Display Unit)
30 communication network 1000 imaging system

特許第5843033号公報Japanese Patent No. 5843033

Claims (19)

画像を撮像する撮像部と、
前記撮像部の姿勢を検出する検出部と、
前記撮像部の姿勢と、画像に指定される表示部分とに基づき、前記撮像部によって撮像された画像を、前記表示部分を写し出すように補正する補正部と、
補正後の前記画像を表示する表示部とを備える
撮像システム。
An image capturing unit for capturing an image,
A detection unit that detects the attitude of the imaging unit;
A correction unit that corrects the image captured by the image capturing unit based on the attitude of the image capturing unit and the display unit designated in the image so that the display unit is displayed.
An image pickup system, comprising: a display unit that displays the corrected image.
前記補正部は、前記撮像部の姿勢と、画像に指定される前記表示部分及び表示方向とに基づき、前記撮像部によって撮像された画像を、前記表示方向で前記表示部分を写し出すように補正する
請求項1に記載の撮像システム。
The correction unit corrects the image captured by the image capturing unit based on the attitude of the image capturing unit and the display portion and the display direction specified in the image so that the display portion is projected in the display direction. The imaging system according to claim 1.
前記補正部は、前記撮像部によって撮像された画像の鉛直方向軸が天頂方向となるように、前記撮像部によって撮像された画像を補正し、
前記鉛直方向軸は、前記撮像部に設定される鉛直方向軸に対応する
請求項2に記載の撮像システム。
The correction unit corrects the image captured by the image capturing unit such that the vertical axis of the image captured by the image capturing unit is the zenith direction,
The imaging system according to claim 2, wherein the vertical axis corresponds to a vertical axis set in the imaging unit.
前記補正部は、前記撮像部の姿勢の変化による画像上での前記表示部分の揺動を抑えるように、前記撮像部によって撮像された画像を補正する
請求項1〜3のいずれか一項に記載の撮像システム。
The correction unit corrects the image captured by the image capturing unit so as to suppress the swinging of the display portion on the image due to a change in the attitude of the image capturing unit. The imaging system described.
前記補正部は、前記撮像部の姿勢の変化に関係なく、画像に対する前記表示部分の位置を維持するように、前記撮像部によって撮像された画像を補正する
請求項1〜4いずれか一項に記載の撮像システム。
The correction unit corrects the image captured by the imaging unit so as to maintain the position of the display portion with respect to the image regardless of a change in the attitude of the imaging unit. The imaging system described.
前記撮像部の姿勢は、前記撮像部のヨーイング、ピッチング及びローリングの方向の姿勢を含む
請求項1〜5のいずれか一項に記載の撮像システム。
The imaging system according to any one of claims 1 to 5, wherein the attitude of the imaging unit includes attitudes of the imaging unit in yawing, pitching, and rolling directions.
撮像装置と端末とを備え、
前記撮像装置は、
前記撮像部と、
前記撮像部によって撮像された複数の画像から動画データを生成する生成部と、
前記検出部と、
前記動画データ及び前記撮像部の姿勢を前記端末に送る送信部とを有し、
前記端末は、
前記動画データを個別の画像に展開する展開部と、
前記補正部と、
前記表示部とを有する
請求項1〜6のいずれか一項に記載の撮像システム。
An imaging device and a terminal are provided,
The imaging device is
The imaging unit;
A generating unit that generates moving image data from a plurality of images captured by the image capturing unit;
The detection unit;
A transmitting unit that sends the moving image data and the attitude of the imaging unit to the terminal,
The terminal is
A development unit that develops the moving image data into individual images,
The correction unit,
The imaging system according to claim 1, further comprising: the display unit.
撮像部によって撮像された画像及び前記撮像部の姿勢の情報を取得する取得部と、
前記撮像部の姿勢と、画像に指定される表示部分とに基づき、前記取得部によって取得された画像を、前記表示部分を写し出すように補正する補正部と、
補正後の前記画像を表示する表示部とを備える
端末。
An acquisition unit that acquires an image captured by the image capturing unit and information about the orientation of the image capturing unit;
A correction unit that corrects the image acquired by the acquisition unit based on the attitude of the image capturing unit and the display portion specified in the image so that the display portion is projected.
A terminal that includes a display unit that displays the corrected image.
前記補正部は、前記撮像部の姿勢と、画像に指定される前記表示部分及び表示方向とに基づき、前記取得部によって取得された画像を、前記表示方向で前記表示部分を写し出すように補正する
請求項8に記載の端末。
The correction unit corrects the image acquired by the acquisition unit based on the attitude of the imaging unit and the display portion and the display direction specified in the image so that the display portion is projected in the display direction. The terminal according to claim 8.
前記補正部は、前記取得部によって取得された画像の鉛直方向軸が天頂方向となるように、前記取得部によって取得された画像を補正し、
前記鉛直方向軸は、前記撮像部に設定される鉛直方向軸に対応する
請求項9に記載の端末。
The correction unit corrects the image acquired by the acquisition unit such that the vertical axis of the image acquired by the acquisition unit is the zenith direction,
The terminal according to claim 9, wherein the vertical axis corresponds to the vertical axis set in the imaging unit.
前記補正部は、前記撮像部の姿勢の変化による画像上での前記表示部分の揺動を抑えるように、前記取得部によって取得された画像を補正する
請求項8〜10のいずれか一項に記載の端末。
The correction unit corrects the image acquired by the acquisition unit so as to suppress rocking of the display portion on the image due to a change in the attitude of the imaging unit. The listed terminal.
前記補正部は、前記撮像部の姿勢の変化に関係なく、画像に対する前記表示部分の位置を維持するように、前記取得部によって取得された画像を補正する
請求項8〜11のいずれか一項に記載の端末。
The correction unit corrects the image acquired by the acquisition unit so as to maintain the position of the display portion with respect to the image regardless of a change in the posture of the imaging unit. The terminal described in.
前記撮像部の姿勢は、前記撮像部のヨーイング、ピッチング及びローリングの方向の姿勢を含む
請求項8〜12のいずれか一項に記載の端末。
The terminal according to any one of claims 8 to 12, wherein the attitude of the imaging unit includes attitudes of the imaging unit in the yawing, pitching, and rolling directions.
端末のコンピュータに実行させるプログラムであって、
撮像部によって撮像された画像及び前記撮像部の姿勢の情報を取得する処理と、
前記撮像部の姿勢と、画像に指定される表示部分とに基づき、取得された前記画像を、前記表示部分を写し出すように補正する処理と、
補正後の前記画像を表示する処理とを含む
プログラム。
A program to be executed by a terminal computer,
A process of acquiring an image captured by the image capturing unit and information on the attitude of the image capturing unit;
A process of correcting the acquired image based on a posture of the image capturing unit and a display portion designated in the image so as to project the display portion;
A program including a process of displaying the corrected image.
前記補正する処理では、前記撮像部の姿勢と、画像に指定される前記表示部分及び表示方向とに基づき、前記取得された画像を、前記表示方向で前記表示部分を写し出すように補正する
請求項14に記載のプログラム。
In the correction processing, the acquired image is corrected based on the attitude of the imaging unit and the display portion and the display direction specified in the image so that the display portion is projected in the display direction. 14. The program according to 14.
前記補正する処理では、前記取得された画像の鉛直方向軸が天頂方向となるように、前記取得された画像を補正し、
前記鉛直方向軸は、前記撮像部に設定される鉛直方向軸に対応する
請求項15に記載のプログラム。
In the correction process, the acquired image is corrected so that the vertical axis of the acquired image is the zenith direction,
The program according to claim 15, wherein the vertical axis corresponds to a vertical axis set in the imaging unit.
前記補正する処理では、前記撮像部の姿勢の変化による画像上での前記表示部分の揺動を抑えるように、前記取得された画像を補正する
請求項14〜16のいずれか一項に記載のプログラム。
The correction process corrects the acquired image so as to suppress the swing of the display portion on the image due to the change in the attitude of the imaging unit. program.
前記補正する処理では、前記撮像部の姿勢の変化に関係なく、画像に対する前記表示部分の位置を維持するように、前記取得された画像を補正する
請求項14〜17のいずれか一項に記載のプログラム。
The processing for correcting corrects the acquired image so as to maintain the position of the display portion with respect to the image regardless of the change in the attitude of the imaging unit. Program of.
前記撮像部の姿勢は、前記撮像部のヨーイング、ピッチング及びローリングの方向の姿勢を含む
請求項14〜18のいずれか一項に記載のプログラム。
The program according to any one of claims 14 to 18, wherein the attitude of the imaging unit includes attitudes of yawing, pitching, and rolling of the imaging unit.
JP2019099746A 2018-11-21 2019-05-28 Imaging system, terminal and program Active JP7234802B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/654,011 US10897573B2 (en) 2018-11-21 2019-10-16 Image capturing system, terminal and computer readable medium which correct images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018218671 2018-11-21
JP2018218671 2018-11-21

Publications (2)

Publication Number Publication Date
JP2020088843A true JP2020088843A (en) 2020-06-04
JP7234802B2 JP7234802B2 (en) 2023-03-08

Family

ID=70909160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019099746A Active JP7234802B2 (en) 2018-11-21 2019-05-28 Imaging system, terminal and program

Country Status (1)

Country Link
JP (1) JP7234802B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007306353A (en) * 2006-05-12 2007-11-22 Opt Kk Method for displaying moving picture, moving picture display system and imaging apparatus for wide angle moving picture
JP2016048856A (en) * 2014-08-27 2016-04-07 株式会社リコー Image display system, image display device, image display method, and program
JP2017085466A (en) * 2015-10-30 2017-05-18 キヤノン株式会社 Imaging apparatus and its control method
JP6356928B1 (en) * 2016-11-02 2018-07-11 楽天株式会社 Image providing apparatus, image providing method, program, and non-transitory computer-readable information recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007306353A (en) * 2006-05-12 2007-11-22 Opt Kk Method for displaying moving picture, moving picture display system and imaging apparatus for wide angle moving picture
JP2016048856A (en) * 2014-08-27 2016-04-07 株式会社リコー Image display system, image display device, image display method, and program
JP2017085466A (en) * 2015-10-30 2017-05-18 キヤノン株式会社 Imaging apparatus and its control method
JP6356928B1 (en) * 2016-11-02 2018-07-11 楽天株式会社 Image providing apparatus, image providing method, program, and non-transitory computer-readable information recording medium

Also Published As

Publication number Publication date
JP7234802B2 (en) 2023-03-08

Similar Documents

Publication Publication Date Title
US11659282B2 (en) Image processing system and image processing method
CN106464804B (en) Imaging system, imaging device, computer program and system
US10897573B2 (en) Image capturing system, terminal and computer readable medium which correct images
JP6927382B2 (en) Imaging systems, methods, programs, video display devices and image processing devices.
US20200296284A1 (en) Image communication system, image capturing device, communication terminal, and mode switching method
JP6677098B2 (en) Spherical video shooting system and program
JP2018201123A (en) Image processing device, image processing method, and program
US11006042B2 (en) Imaging device and image processing method
JP2017208619A (en) Image processing apparatus, image processing method, program and imaging system
EP3991132B1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
JP7031280B2 (en) Image processing equipment, image processing systems and programs
US11102448B2 (en) Image capturing apparatus, image processing system, image processing method, and recording medium
JP6724659B2 (en) Imaging device, method and program
JP2021117924A (en) Image processing apparatus, image processing system, imaging apparatus, image processing method, and program
US11128814B2 (en) Image processing apparatus, image capturing apparatus, video reproducing system, method and program
US11928775B2 (en) Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
JP7234802B2 (en) Imaging system, terminal and program
JP2020174363A (en) Photographing system, method, and program
JP2020078065A (en) Imaging apparatus, information processing apparatus, correction amount setting method, and program
JP2020136850A (en) Imaging apparatus, imaging method, program, and imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230206

R151 Written notification of patent or utility model registration

Ref document number: 7234802

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151