JPWO2019026919A1 - Image processing system, image processing method, and program - Google Patents
Image processing system, image processing method, and program Download PDFInfo
- Publication number
- JPWO2019026919A1 JPWO2019026919A1 JP2019534539A JP2019534539A JPWO2019026919A1 JP WO2019026919 A1 JPWO2019026919 A1 JP WO2019026919A1 JP 2019534539 A JP2019534539 A JP 2019534539A JP 2019534539 A JP2019534539 A JP 2019534539A JP WO2019026919 A1 JPWO2019026919 A1 JP WO2019026919A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- display
- moving image
- identification information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 102
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000013500 data storage Methods 0.000 claims abstract description 18
- 238000003384 imaging method Methods 0.000 claims description 52
- 238000001514 detection method Methods 0.000 claims description 44
- 239000000463 material Substances 0.000 abstract description 6
- 230000004044 response Effects 0.000 abstract description 3
- 230000009471 action Effects 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 78
- 230000008569 process Effects 0.000 description 50
- 238000010586 diagram Methods 0.000 description 31
- 238000004891 communication Methods 0.000 description 20
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 210000003128 head Anatomy 0.000 description 7
- 238000003825 pressing Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 238000013404 process transfer Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Studio Devices (AREA)
Abstract
従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成ことができる画像処理システム等を提供する。画像処理システムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、所定のトリガーに応じて、撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するマーキング処理部と、撮影部により生成された動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成する画像処理部と、画像処理部により生成された画像データを記憶する画像データ記憶部とを備える。Image processing that can generate data that causes an event according to a user's operation or action when displaying an image using an image obtained by shooting a subject as a material without requiring more time and effort than before Provide the system etc. The image processing system includes a photographing unit that generates image data of a moving image or a still image by photographing a subject, and, in response to a predetermined trigger, provides identification information to a frame or a still image included in the moving image generated by the photographing unit. Based on the marking processing unit to give, the image data of the moving image or the still image generated by the photographing unit, the image processing unit that generates the image data of the moving image or the still image, and the image processing unit generated. An image data storage unit that stores image data.
Description
本発明は、被写体を撮影して得られた画像を表示する画像処理システム、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing system, an image processing method, and a program for displaying an image obtained by shooting a subject.
近年、観光業や不動産業などのビジネス分野では、観光地や不動産物件を撮影して得られた画像を様々な技術を用いて加工し、顧客に閲覧させるサービスが行われている。例えば、撮影地点の周囲360°の被写体が写った画像(全天球画像とも呼ばれる)を、ヘッドマウントディスプレイ(以下、「HMD」とも記す)と呼ばれるメガネ型又はゴーグル型の表示装置に表示させ、HMDを装着したユーザの頭の動きに合わせて、画像の表示範囲を変化させることにより、ユーザはあたかも、表示された画像の空間内に入り込んだような感覚を得ることができる。このように、仮想ではあるが現実のような感覚を体験させる技術は、仮想現実(ヴァーチャルリアリティ:VR)とも呼ばれ、VRにより3次元(3D)的に認識される仮想的な空間は、VR空間とも呼ばれる。 2. Description of the Related Art In recent years, in business fields such as tourism and real estate, a service is provided in which an image obtained by photographing a tourist spot or a real estate property is processed using various techniques and is browsed by a customer. For example, an image (also referred to as a celestial sphere image) showing a subject at 360 ° around the shooting point is displayed on a glasses-type or goggles-type display device called a head mounted display (hereinafter, also referred to as “HMD”), By changing the display range of the image in accordance with the movement of the head of the user wearing the HMD, the user can feel as if he / she entered the space of the displayed image. As described above, the technique of making a virtual but real-like feeling experience is also called virtual reality (VR), and a virtual space recognized in a three-dimensional (3D) manner by VR is VR. Also called space.
VRに関連する技術として、例えば特許文献1には、3次元都市VR情報表示を行う都市VR表示部と、2次元地図情報表示を行う地図表示部とを備え、都市VR空間の中で視点位置に関する情報を地図上に、また、表示された地図上の視点を動かすことで都市VR空間に関連する情報をそれぞれリアルタイムに映し出す表示装置が開示されている。
As a technique related to VR, for example,
また、特許文献2には、球面全方位カメラにより撮像された球面全方位動画を、ジャイロセンサを有する画像再生装置により再生する際の画像再生方法であって、再生中に、視聴者の視線に応じて、視線先に映像に対応したイベントを起動する画像再生方法が開示されている。 Further, Patent Document 2 discloses an image reproducing method for reproducing a spherical omnidirectional moving image captured by a spherical omnidirectional camera by an image reproducing device having a gyro sensor, and a viewer's line of sight during the reproduction. Accordingly, an image reproduction method for activating an event corresponding to a video at the gaze point is disclosed.
ところで、3D空間を表現するための画像をCG(コンピュータグラフィックス)技術により作成しようとすると、レンダリングなど演算コストの高い画像処理を行わなければならない。従って、そのような画像処理を実行できる高スペックな専用の機器が必要となってしまう。 By the way, when an image for expressing a 3D space is to be created by a CG (computer graphics) technique, image processing such as rendering, which requires a high calculation cost, must be performed. Therefore, a high-specification dedicated device capable of performing such image processing is required.
これに対し、被写体を撮影して得られた静止画や動画を素材として画像を加工し、人の両眼の視差を利用して立体視させることにより疑似的に3D空間を表現する技術も知られている。或いは、2次元画像を球面上に配置されているように表示(パノラマ表示)することにより、ユーザに3D空間に囲まれているような感覚にさせる技術も知られている。これらのような技術を用いる場合、画像の加工に要する演算コストを大幅に抑制することができる。 On the other hand, there is also known a technology that expresses a 3D space in a pseudo manner by processing an image using a still image or a moving image obtained by shooting a subject as a material and stereoscopically utilizing the parallax of both eyes of a person. Has been. Alternatively, there is also known a technique in which a two-dimensional image is displayed (panoramic display) as if it is arranged on a spherical surface so that the user feels as if he or she were surrounded by a 3D space. When such a technique is used, the calculation cost required for processing an image can be significantly suppressed.
しかしながら、HMD等に3D空間を表示又はパノラマ表示させ、その間になされた操作やユーザの動作に応じて何らかのイベントを発生させるためには、予め画像データに特定の情報を埋め込んでおかなければならない。そのため、被写体を撮影して得られた静止画や動画を素材として用いる場合には、撮影後に、必要な情報を画像データに埋め込むための編集作業が必要となり、多くの時間及び作業コストを要してしまう。 However, in order to display the 3D space or the panorama display on the HMD or the like and generate some event in accordance with the operation performed or the user's operation during that, specific information must be embedded in the image data in advance. Therefore, when a still image or a moving image obtained by shooting a subject is used as a material, an editing work for embedding necessary information in the image data is required after shooting, which requires a lot of time and work cost. Will end up.
本発明は上記に鑑みてなされたものであって、従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成することができる画像処理システム、画像処理方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above, and requires less time and effort than before, and an image obtained by shooting a subject is used as a material for operation and operation by a user when displaying an image. An object is to provide an image processing system, an image processing method, and a program capable of creating data that causes a corresponding event.
上記課題を解決するために、本発明の一態様である画像処理システムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するマーキング処理部と、前記撮影部により生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成する画像処理部と、前記画像処理部により生成された画像データを記憶する画像データ記憶部と、を備えるものである。 In order to solve the above-mentioned problems, an image processing system according to an aspect of the present invention includes a photographing unit that generates image data of a moving image or a still image by photographing a subject, and the photographing unit according to a predetermined trigger. A marking processing unit that adds identification information to a frame or a still image included in the moving image generated by the above, and a moving image or a still image for display based on the image data of the moving image or the still image generated by the photographing unit. And an image data storage unit for storing the image data generated by the image processing unit.
上記画像処理システムは、1種類以上の識別情報を記憶するマーキングリスト記憶部と、外部からなされる操作に従って、前記1種類以上の識別情報の中から1つの識別情報を選択する操作入力部と、をさらに備え、前記マーキング処理部は、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記操作入力部により選択された識別情報を付与しても良い。 The image processing system includes a marking list storage unit that stores one or more types of identification information, and an operation input unit that selects one identification information from the one or more types of identification information according to an operation performed from the outside. Further, the marking processing unit may add the identification information selected by the operation input unit to the frame or the still image generated by the imaging unit at a timing according to the trigger.
上記画像処理システムは、前記撮影部の位置を検出して位置情報を出力する位置検出部をさらに備え、前記マーキング処理部は、前記トリガーに応じたタイミングで前記位置検出部から出力された位置情報を、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記識別情報として付与しても良い。 The image processing system further includes a position detection unit that detects the position of the imaging unit and outputs position information, and the marking processing unit is the position information output from the position detection unit at a timing according to the trigger. May be added as the identification information to the frame or the still image generated by the imaging unit at a timing according to the trigger.
上記画像処理システムにおいて、前記トリガーは、動画の撮影中になされる所定の操作手段への操作であっても良い。 In the image processing system described above, the trigger may be an operation on a predetermined operation unit performed while shooting a moving image.
上記画像処理システムにおいて、前記トリガーは、静止画を撮影する際に操作される操作手段への操作であっても良い。 In the image processing system described above, the trigger may be an operation on an operation unit that is operated when capturing a still image.
上記画像処理システムは、前記画像データ記憶部に記憶された画像データに基づいて、動画又は静止画を表示可能な表示部と、前記表示部における画像表示を制御する表示制御部と、外部からなされる操作を検出する操作検出部と、をさらに備え、前記表示制御部は、前記表示部に表示中の動画のフレーム又は静止画に識別情報が付与されている場合に、該識別情報が付与されている旨を示す情報を前記表示部に表示させ、前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替えても良い。 The image processing system includes an external display unit capable of displaying a moving image or a still image based on the image data stored in the image data storage unit, a display control unit controlling image display on the display unit, and an external display unit. The display control unit further includes an operation detection unit configured to detect an operation to be performed, and the identification information is added to the display control unit when the identification information is added to a frame or a still image of a moving image being displayed on the display unit. Information indicating that the information is displayed on the display unit, and when the operation detection unit detects an operation of selecting the information, the image display on the display unit is added to the frame or still image of the moving image being displayed. You may switch to the frame of a moving image or the still image to which the same identification information as the identification information currently provided is added.
上記画像処理システムにおいて、前記画像データ記憶部は、複数の動画の画像データを記憶し、前記複数の動画の各々は、同じ識別情報が付与されたフレームを含み、前記表示制御部は、前記複数の動画の間で前記表示部における画像表示を切り替えても良い。 In the image processing system, the image data storage unit stores image data of a plurality of moving images, each of the plurality of moving images includes a frame to which the same identification information is added, and the display control unit includes a plurality of the plurality of moving images. The image display on the display unit may be switched between the moving images.
上記画像処理システムにおいて、前記動画は、互いに異なる時刻に生成され、同じ識別情報が付与された複数のフレームを含み、前記表示制御部は、前記複数のフレームの間で前記表示部における画像表示を切り替えても良い。 In the image processing system, the moving image includes a plurality of frames that are generated at different times and are provided with the same identification information, and the display control unit displays an image on the display unit between the plurality of frames. You may switch.
上記画像処理システムにおいて、前記動画は、前記静止画に付与された識別情報と同じ識別情報が付与されたフレームを含み、前記表示制御部は、前記静止画と、前記同じ識別情報が付与されたフレームとの間で前記表示部における画像表示を切り替えても良い。 In the image processing system, the moving image includes a frame having the same identification information as the identification information given to the still image, and the display control unit has the same identification information as the still image. The image display on the display unit may be switched between frames.
上記画像処理システムにおいて、前記画像処理部は、さらに、前記撮影部により生成された前記動画又は静止画の画像データをもとに、3次元的なモデルの画像データを構築すると共に、前記マーキング処理部により前記動画又は静止画に付与された識別情報をもとに、前記モデルの各所に当該位置を表す情報を付与し、前記表示制御部は、前記モデルの各所に付与された前記情報と、前記動画又は静止画に付与された識別情報とに基づき、前記モデルと前記動画又は静止画との間で前記表示部における画像表示を切り替えても良い。 In the above image processing system, the image processing unit may further construct image data of a three-dimensional model based on the image data of the moving image or still image generated by the photographing unit, and perform the marking process. Based on the identification information given to the moving image or the still image by the unit, the information indicating the position is given to each place of the model, the display control unit, the information given to each place of the model, The image display on the display unit may be switched between the model and the moving image or the still image based on the identification information given to the moving image or the still image.
上記画像処理システムは、前記撮影部により生成された前記動画又は静止画の画像データをもとに、3次元的に表示される動画又は静止画の画像データを生成する第2の画像処理部をさらに備えても良い。 The image processing system includes a second image processing unit that generates image data of a moving image or a still image displayed three-dimensionally based on the image data of the moving image or the still image generated by the photographing unit. You may prepare further.
本発明の別の態様である画像処理方法は、被写体を撮影することにより動画又は静止画の画像データを生成するステップ(a)と、所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するステップ(b)と、ステップ(a)において生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成するステップ(c)と、ステップ(c)において生成された画像データを記憶するステップ(d)と、を含むものである。 An image processing method according to another aspect of the present invention includes a step (a) of generating image data of a moving image or a still image by photographing a subject, and a moving image generated by the photographing unit according to a predetermined trigger. Image data of a moving image or a still image for display based on the image data of the moving image or the still image generated in step (a) And a step (d) of storing the image data generated in step (c).
本発明のさらに別の態様であるプログラムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、記憶部と、外部からなされる操作を受け付ける操作入力部と、を備える撮影装置に実行させるプログラムであって、前記記憶部は、1種類以上の識別情報を予め記憶し、前記操作入力部に対する操作に応じて、前記1種類以上の識別情報の中から1つの識別情報を選択するステップと、所定のトリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記1つの識別情報を付与するステップと、を実行させるものである。 A program that is still another aspect of the present invention includes a photographing unit that generates image data of a moving image or a still image by photographing a subject, a storage unit, and an operation input unit that receives an operation performed from the outside. A program to be executed by an imaging device, wherein the storage section stores in advance one or more types of identification information, and one identification information is selected from the one or more types of identification information according to an operation on the operation input section. And a step of assigning the one piece of identification information to the frame or still image generated by the photographing unit at a timing according to a predetermined trigger.
本発明のさらに別の態様であるプログラムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、前記撮影部の位置を検出して位置情報を出力する位置検出部と、を備える撮影装置に実行させるプログラムであって、所定のトリガーに応じたタイミングで前記位置検出部からに位置情報を出力させるステップと、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記位置情報を識別情報として付与するステップと、を実行させるものである。 A program according to yet another aspect of the present invention includes a photographing unit that generates image data of a moving image or a still image by photographing a subject, and a position detection unit that detects the position of the photographing unit and outputs position information. And a step of causing the position detection unit to output position information at a timing according to a predetermined trigger, and the program generated by the imaging unit at a timing according to the trigger. The step of adding the position information as identification information to a frame or a still image is executed.
本発明のさらに別の態様であるプログラムは、動画又は静止画を表示可能な表示部と、前記表示部における画像表示を制御する表示制御部と、外部からなされる操作を検出する操作検出部と、を備える表示装置に実行させるプログラムであって、前記表示部に表示中の動画のフレーム又は静止画に所定の識別情報が付与されている場合に、該所定の識別情報が付与されている旨を示す情報を前記表示部に表示させるステップと、前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている前記所定の識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替えるステップと、を実行させるものである。 A program that is still another aspect of the present invention includes a display unit that can display a moving image or a still image, a display control unit that controls image display on the display unit, and an operation detection unit that detects an operation performed from the outside. A program to be executed by a display device including, when predetermined identification information is added to a frame or still image of a moving image being displayed on the display unit, the predetermined identification information is added Is displayed on the display unit, and when the operation detection unit detects an operation of selecting the information, the image display on the display unit is added to the frame or still image of the moving image being displayed. And a step of switching to a frame of a moving image or a still image to which the same identification information as the predetermined identification information is added.
本発明によれば、被写体を撮影しながら動画又は静止画に識別情報を付与するとともに、これらの動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成するので、画像データに必要な情報を埋め込むための編集作業を別途行う必要がなくなる。従って、従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成することが可能となる。 According to the present invention, identification information is added to a moving image or a still image while shooting a subject, and image data of the moving image or the still image for display is generated based on the image data of the moving image or the still image. Therefore, it is not necessary to separately perform the editing work for embedding necessary information in the image data. Therefore, it is possible to create data for generating an event corresponding to a user's operation or action at the time of displaying an image, using an image obtained by shooting a subject as a material without requiring more time and effort than before. It will be possible.
以下、本発明の実施形態に係る画像処理システム、画像処理方法、及びプログラムについて、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。 Hereinafter, an image processing system, an image processing method, and a program according to embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to these embodiments. In the description of each drawing, the same parts are denoted by the same reference numerals.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像処理システムの概略構成を示すブロック図である。本実施形態に係る画像処理システム1は、被写体を撮影することにより画像を生成し、これらの画像を用いて3次元的な空間を仮想的に表示するシステムである。(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of an image processing system according to the first embodiment of the present invention. The
以下においては、画像処理システム1により撮影する対象(被写体)として、個人の住宅やオフィスビル等の不動産の内部を例示するが、被写体の例はこれに限定されない。例えば、観光地、秘境、大型家具の販売店、建築物の模型など、一般的なデジタル式の光学カメラによって撮影可能な被写体であれば、画像処理システム1における被写体とすることができる。
In the following, as an object (subject) to be imaged by the
図1に示すように画像処理システム1は、被写体を撮影して画像データを生成する撮影装置10と、画像データを格納するサーバ20と、被写体の画像を表示する表示装置30とを備える。これらの撮影装置10と、サーバ20と、表示装置30とは、通信ネットワークNを介して接続されている。
As shown in FIG. 1, the
通信ネットワークNとしては、例えばインターネット回線や電話回線、LAN、専用線、移動体通信網、WiFi(Wireless Fidelity)、ブルートゥース(登録商標)等の通信回線、又はこれらの組み合わせが用いられる。通信ネットワークNは、有線、無線、又はこれらの組み合わせのいずれであっても良い。 As the communication network N, for example, an Internet line, a telephone line, a LAN, a dedicated line, a mobile communication network, a communication line such as WiFi (Wireless Fidelity), Bluetooth (registered trademark), or a combination thereof is used. The communication network N may be wired, wireless, or a combination thereof.
撮影装置10は、被写体を撮影して画像データを生成する機器であり、デジタルカメラや、専用のアプリケーションをインストールしたスマートフォン等によって実現することができる。本実施形態においては、撮影装置10としてスマートフォンを使用するものとする。詳細には、撮影装置10は、通信部11と、撮影部12と、操作入力部13と、表示部14と、位置検出部15と、記憶部16と、プロセッサ17とを備える。
The
通信部11は、撮影装置10を通信ネットワークNに接続し、通信ネットワークNに接続された他の機器との間で情報の送受信を行う。通信部11は、例えばソフトモデム、ケーブルモデム、無線モデム、ADSLモデム等を用いて構成される。
The
ここで、撮影装置10としてデジタルカメラを用いる場合、機種によっては通信機能が設けられていないことがある。そのような場合には、撮影装置10において生成された画像データを、ケーブルを介してパーソナルコンピュータ(PC)に一旦転送し、このPCから通信ネットワークNを介して画像データをサーバ20等にアップロードすれば良い。或いは、撮影装置10から表示装置30に、ケーブルを介して画像データを直接転送しても良い。
Here, when a digital camera is used as the photographing
撮影部12は、スマートフォンに内蔵され、静止画及び動画の撮影が可能なカメラである。撮影部12に、市販の広角レンズ(又は超広角レンズ)や魚眼レンズを取り付けることにより、画角の広い(例えば180°以上)の画像を取得することも可能である。
The
或いは、撮影部12として、スマートフォンと有線又は無線により外付けされるカメラを用いても良い。例えば、画角が180°以上の2つの超広角レンズを備えた、所謂全天球カメラを撮影部12として用いることにより、撮影装置10の周囲360°の被写体が写った全天球画像を取得することができる。
Alternatively, as the
操作入力部13は、操作ボタンや、表示部14上に設けられたタッチセンサ等の入力デバイスであり、外部からなされる操作を受け付け、該操作に応じた信号をプロセッサ17に入力する。
表示部14は、液晶又は有機EL(エレクトロルミネッセンス)によって形成された表示パネル及び駆動部を含むディスプレイである。
位置検出部15は、GPSモジュールを含み、撮影装置10の位置を検出して位置情報を出力する。The
The
The
記憶部16は、例えばROMやRAMといった半導体メモリ等のコンピュータ読取可能な記憶媒体である。記憶部16は、オペレーティングシステムプログラム及びドライバプログラムに加えて、各種機能を実行するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶する。詳細には、記憶部16は、各種プログラムを記憶するプログラム記憶部161と、画像データを記憶する画像データ記憶部162と、マーキングリストを記憶するマーキングリスト記憶部163とを含む。
The
ここで、マーキングリストとは、画像のコンテンツを識別するための識別情報として画像データに付与されるタグの名称をリスト化して記録したものである。例えば、不動産物件を撮影する場合、「玄関」、「キッチン」、「ベッドルーム」などがタグの名称として用いられる。 Here, the marking list is a list of the names of tags added to the image data as identification information for identifying the content of the image and recorded. For example, when photographing a real estate property, "entrance", "kitchen", "bedroom", etc. are used as the tag names.
プロセッサ17は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部161に記憶された各種プログラムを読み込むことにより、撮影装置10の各部を統括的に制御すると共に、撮影部12により撮影された画像を表示装置30で表示させるための各種処理を実行する。詳細には、プロセッサ17が実行する機能部には、撮影制御部171と、画像処理部172と、マーキングリスト登録部173と、マーキング処理部174とが含まれる。
The
撮影制御部171は、操作入力部13から入力される信号に従って、撮影部12における撮影動作を制御する。
画像処理部172は、撮影部12により生成された画像データに対してデモザイキング、ホワイトバランス処理、ガンマ補正等の画像処理を施すことにより、表示用の画像データを生成する。The photographing control unit 171 controls the photographing operation in the photographing
The
マーキングリスト登録部173は、操作入力部13から入力される信号に従って、撮影部12により生成される画像データに識別情報として付与されるタグの名称を、マーキングリストに登録する。
The marking
マーキング処理部174は、操作入力部13から入力される信号をトリガーとして、マーキングリストに登録されたタグの中から選択されたタグを画像データに付与する処理(以下、マーキング処理という)を実行する。
The marking
このような撮影装置10は、被写体を撮影することにより、静止画又は動画の画像データを生成しつつ、所定のトリガーに応じて画像データにタグを付与し、所定のファイル形式で画像データ記憶部162に記憶させる。画像データ記憶部162に蓄積された画像ファイルは、ユーザの操作により、サーバ20に送信される。
Such an
サーバ20は、演算処理能力の高いホストコンピュータによって構成され、そのホストコンピュータにおいて所定のサーバ用プログラムが動作することにより、サーバ機能を発現する。詳細には、サーバ20は、当該サーバ20を通信ネットワークNに接続し、通信ネットワークNに接続された他の機器との間で情報の送受信を行う通信部21と、サーバ20の動作を統括的に制御するプロセッサ22と、撮影装置10からアップロードされた画像データ(動画及び静止画の画像ファイル)を格納する画像データ記憶部23と、被写体である不動産物件に関する情報(不動産物件名や所在地等の情報)を格納する物件情報データベース24とを備える。
The
プロセッサ22は、画像データ記憶部23に格納された画像データに対して所定の画像処理を行う画像処理部221を有しても良い。具体的には、画像処理部221は、撮影装置10からアップロードされた動画又は静止画の画像データをもとに、3次元的に表示される動画又は静止画の画像データを生成する処理を行う。具体的には、視差を利用した立体視用の画像データを生成する。もっとも、このような画像処理は、必ずしもサーバ20において行う必要はなく、撮影装置10や、後述する表示装置30や、別途設けた画像処理用のコンピュータにおいて行っても良い。
The
サーバ20は、撮影装置10からアップロードされた画像に対して必要に応じて画像処理を施し、物件情報と関連付けて記憶すると共に、表示装置30からの要求に従って、画像ファイルを表示装置30に送信する。
The
表示装置30は、2次元の静止画又は動画を表示することにより、3次元的な仮想空間をユーザに認識させる機器である。表示装置30としては、ユーザの頭部に直接装着して用いられるゴーグル型の専用装置(所謂ヘッドマウントディスプレイ(HMD))を用いても良いし、汎用のスマートフォンに専用のアプリケーションをインストールしたものをゴーグル型のホルダーに取り付けて用いても良い。
The
表示装置30は、通信部31と、操作入力部32と、表示部33と、向き及び姿勢検出部34と、記憶部35と、プロセッサ36とを備える。通信部31、操作入力部32、表示部33、記憶部35、及びプロセッサ36のハードウェアの構成は、撮影装置10の通信部11、操作入力部13、表示部14、記憶部16、及びプロセッサ17とそれぞれ同様である。
The
向き及び姿勢検出部34は、ジャイロセンサ及び加速度センサ等の各種センサを含み、表示装置30の向きや姿勢(鉛直軸に対する傾き)を検出する。
The orientation /
記憶部35は、各種プログラム及びプログラムの実行中に使用される各種パラメータ等を記憶するプログラム記憶部351と、サーバ20からダウンロードした画像データ(動画及び静止画の画像ファイル)を記憶する画像データ記憶部352とを含む。
The
プロセッサ36は、プログラム記憶部351に記憶された各種プログラムを読み込むことにより、表示装置30の各部を統括的に制御すると共に、画像データ記憶部352に記憶された画像データを表示部33に表示させるための各種処理を実行する。プロセッサ36が実行する機能部には、表示制御部361及び操作検出部362が含まれる。
The
表示制御部361は、画像データ記憶部352に記憶された画像データに基づいて、表示部33に動画又は静止画を表示させる。また、表示制御部361は、操作検出部362による検出結果に基づいて、表示部33に表示させる画像の範囲を変化させる制御や、表示部33に表示させる画像を切り替える制御などを行う。
The
操作検出部362は、操作入力部32から入力される信号や、向き及び姿勢検出部34から出力される検出信号に従って、表示装置30を装着したユーザが行った操作を検出する。例えば、操作検出部362は、向き及び姿勢検出部34から出力された検出信号に基づいて、表示装置30を装着したユーザの頭部の向きを検出することにより、ユーザが、表示中の画像内のどのオブジェクトに対して視線を向けているのか、或いは、そのオブジェクトに対して所定時間以上視線を向けているかといったことを判別する。
The
図2は、表示装置30をユーザに装着させた状態を示す模式図である。図3は、表示部33に表示される画面の一例を示す模式図である。表示装置30としてスマートフォンを用いる場合、表示部33が設けられた側をユーザに向けてホルダー37に取り付けることにより、ユーザはハンズフリーで表示部33を見ることができる。ホルダー37の内部には、ユーザの左右の眼に対応する位置に2つのレンズがそれぞれ取り付けられている。ユーザに画像を立体視させる場合には、図3に示すように、表示部33内の2つの領域33a、33bに、視差が設けられた2つの画像をそれぞれ表示させる。ユーザは、ホルダー37内の2つのレンズを通して領域33a、33bを見ることにより、領域33a、33bに映った画像を3次元的に認識することができる。
FIG. 2 is a schematic diagram showing a state in which the user is wearing the
次に、画像処理システム1の動作について説明する。
図4は、本発明の第1の実施形態における撮影装置10の動作を示すフローチャートである。図5は、本発明の第1の実施形態における撮影手順の一例を説明するための模式図である。図6〜図9は、撮影装置10の表示部14に表示される画面を例示する模式図である。このうち、図6はマーキングリスト登録画面を示し、図7は撮影モードの選択画面を示し、図8は動画の撮影画面を示し、図9は静止画の撮影画面を示す。図10A及び図10Bは、撮影装置10による撮影手順の別の例を説明するための模式図である。Next, the operation of the
FIG. 4 is a flowchart showing the operation of the
以下においては、一例として、図5に示す物件(マンションの1室)を撮影するものとして説明する。撮影する順序は特に限定されないが、ここでは、ユーザが、動画撮影ルートR1〜R4に沿って移動しながら4回動画撮影を行い、静止画撮影ポイントP1〜P11において11回静止画を撮影するものとする。
In the following, as an example, it is assumed that the property (one room in the apartment) shown in FIG. 5 is photographed. The order of shooting is not particularly limited, but here, the user shoots a moving image four times while moving along the moving image shooting routes R1 to R4, and shoots a
撮影装置10において撮影部12を起動することにより、図6に示すマーキングリスト登録画面が表示部14に表示され、以下に説明する一連の撮影動作が開始される。
By activating the
まず、ステップS100において、撮影装置10は、操作入力部13から入力される信号に従って、マーキングリストを登録する。詳細には、例えば図5に示す不動産物件を撮影する場合、撮影を行うユーザは、間取り図を参照し、図6に示す入力欄14aに、各部屋の名称(例えば、玄関、キッチン、ベッドルーム等)をテキストで入力し、OKボタン14bをタップする。撮影装置10は、OKボタン14bに対する操作を検知すると、入力欄14aに入力されたテキストをタグの名称としてマーキングリスト14cに登録する。なお、タグの名称として入力するテキストは、部屋の名称に限定されない。要は、撮影を行うユーザ自身が、被写体(不動産物件)のどの位置(部分)を撮影しているのかを識別できる情報であれば良い。
First, in step S100, the
続くステップS101において、撮影装置10は、撮影モードが動画に設定されているか否かを判断する。詳細には、図7に示す撮影モード選択画面において、撮影モードを示すアイコン14eのうち、「写真(静止画)」と「動画」のいずれが選択されているかを判断する。「動画」のアイコンが選択されている場合、撮影モードは動画に設定されており(ステップS101:Yes)、処理はステップS102に移行する。
In subsequent step S101, the
ステップS102において、撮影装置10は、マーキングリスト14cに対する選択操作があったか否かを判定する。詳細には、図7に示すマーキングリスト14cに表示されたタグの名称のいずれかに対して所定の操作(例えばタップ操作)がなされたか否かを判定する。
In step S102, the
マーキングリスト14cに対する選択操作を検知しない場合(ステップS102:No)、処理はステップS101に戻る。他方、マーキングリスト14cに対する選択操作を検知した場合(ステップS102:Yes)、撮影装置10は、選択されたタグを、動画撮影開始時点におけるタグとして登録する(ステップS103)。
When the selection operation on the marking
なお、動画撮影開始時点におけるタグの登録は、動画撮影開始直後に手動で行っても良い(後述するステップS105〜S107参照)。その場合には、ステップS102、S103を省略しても良い。 Note that the tag registration at the start of moving image shooting may be manually performed immediately after the start of moving image shooting (see steps S105 to S107 described later). In that case, steps S102 and S103 may be omitted.
続くステップS104において、撮影装置10は、操作入力部13に対する所定の操作(例えば撮影ボタンへの操作)に応じて動画撮影を開始する。これにより、図8に例示する動画撮影画面が表示部14に表示され、撮影部12により取り込まれた画像14dが動画として記録される。ユーザは、動画を撮影しながら、不動産物件内を移動する。
In subsequent step S104, the
ステップS105において、撮影装置10は、マーキングリスト14cに対する選択操作があったか否かを判定する(ステップS105)。詳細には、図8に示すマーキングリスト14cに表示されたタグの名称のいずれかに対して所定の操作(例えばタップ操作)がなされたか否かを判定する。
In step S105, the
マーキングリスト14cに対する選択操作を検知しない場合(ステップS105:No)、撮影装置10はそのまま待機する。他方、マーキングリスト14cに対する選択操作を検知した場合(ステップS105:Yes)、撮影装置10は続いて、登録ボタン14fへの操作(例えばタップ操作)を検知したか否かを判定する(ステップS106)。図8は、「ベッドルーム」のタグが選択されている状態を示している。登録ボタン14fへの操作を検知しない場合(ステップS106:No)、処理はステップS105に戻る。
When the selection operation on the marking
他方、登録ボタン14fへの操作を検知した場合(ステップS106:Yes)、撮影装置10は、マーキング処理を行う(ステップS107)。即ち、登録ボタン14fが操作されたタイミングで生成されたフレームの画像データに対して、ステップS105において選択されたタグを付与する。タグを付与するフレームは、登録ボタン14fが操作されている間に生成されたフレームのみであっても良いし、登録ボタン14fが操作されている間に生成されたフレームを含む所定範囲のフレームであっても良い。
On the other hand, when the operation on the
ユーザは、動画撮影を行いながら随時マーキング処理(タグの選択及び付与)を行う。それにより、動画撮影ルートR1の複数箇所で撮影されたフレームに、選択されたタグT1〜T8が付与される。 The user performs marking processing (selection and addition of tags) at any time while shooting a moving image. As a result, the selected tags T1 to T8 are added to the frames captured at a plurality of points on the moving image capturing route R1.
ここで、ユーザは、マーキング処理を行うタグを、マーキングリストの中から任意に選択することができる。そのため、互いに異なる動画を構成するフレーム同士や、同じ動画の中でも撮影した位置(時刻)が異なるフレーム同士に、同じタグが付与されることがある。例えば、図5に示すように、動画撮影ルートR1においてタグT3(例えば、「廊下」のタグ)を選択してマーキング処理を行い、別の動画撮影ルートR4において同じタグT3を選択してマーキング処理を行うと、2つの動画の中に、同じタグT3が付与されたフレームが存在することになる。このように、同じタグT3が付与されたフレーム同士は、付与されたタグT3をキーとして紐付けられる。 Here, the user can arbitrarily select the tag to be subjected to the marking process from the marking list. Therefore, the same tag may be given to frames that form different moving images or to frames that have different shooting positions (time) even in the same moving image. For example, as shown in FIG. 5, a tag T3 (for example, a “corridor” tag) is selected in the moving image shooting route R1 to perform marking processing, and the same tag T3 is selected in another moving image shooting route R4 to perform marking processing. By doing so, a frame with the same tag T3 exists in the two moving images. In this way, the frames to which the same tag T3 is attached are linked with the attached tag T3 as a key.
続くステップS108において、撮影装置10は、動画撮影の終了操作(例えば撮影ボタンの再押下操作)を検知したか否かを判定する。動画撮影の終了操作を検知しない場合(ステップS108:No)、処理はステップS105に戻る。他方、動画撮影の終了操作を検知した場合(ステップS108:Yes)、処理は後述するステップS109に移行する。例えば、図5に示すように、動画撮影ルートR1の撮影が終了し、次の動画撮影ルートR2で撮影を行うときには、動画撮影ルートR1の終点(リビング)において動画撮影を一旦終了し(ステップS108:Yes)、動画撮影ルートR2の始点(キッチンの入口)に移動して動画撮影を再開する(ステップS109:No、S101:Yes)。なお、動画の撮影順はこれに限定されず、任意の順序で行って良い。
In subsequent step S108, the
ステップS109において、撮影装置10は、動画又は静止画の撮影動作を終了するか否かを判定する。例えば、撮影装置10の電源がオフにされる、所定の終了操作がなされるといった場合、撮影動作はそのまま終了する(ステップS109:Yes)。他方、撮影動作を終了しない場合(ステップS109:No)、処理はステップS101に戻る。
In step S109, the
また、ステップS101において、撮影モードが動画に設定されていない場合(ステップS101:No)、即ち、撮影モードが静止画モードの場合、図9に例示する静止撮影画面が表示部14に表示される。
In step S101, when the shooting mode is not set to the moving image (step S101: No), that is, when the shooting mode is the still image mode, the still shooting screen illustrated in FIG. 9 is displayed on the
撮影装置10は、マーキングリスト14cへの選択操作を検知したか否かを判定する(ステップS111)。マーキングリスト14cに対する選択操作を検知しない場合(ステップS111:No)、処理はステップS109に移行する。
The
他方、マーキングリスト14cへの選択操作を検知した場合(ステップS111:Yes)、撮影装置10は続いて、登録ボタン14fへの操作(例えばタップ操作)を検知したか否かを判定する(ステップS112)。なお、静止画の撮影モードにおいては、登録ボタン14fが撮影ボタンを兼ねている。登録ボタン14f(撮影ボタン)への操作を検知しない場合(ステップS112:No)、処理はステップS109に移行する。
On the other hand, when the selection operation to the
他方、登録ボタン14f(撮影ボタン)への操作を検知した場合(ステップS112:Yes)、撮影装置10は、静止画を撮影すると共に、当該静止画にマーキング処理を行う。詳細には、登録ボタン14f(撮影ボタン)がタップ操作されたタイミングで撮影部12により取り込まれた画像14dを静止画として記録すると共に、その画像データに、選択されたタグを付与する。その後、処理はステップS109に移行する。
On the other hand, when the operation on the
ここで、ステップS111〜S113に示すように、静止画モードの場合、ユーザは、マーキングリストから任意のタグを選択しないと静止画を撮影することができない。言い換えると、全ての静止画にはいずれかのタグが付与されることになる。従って、全ての静止画は、動画を構成するいずれかのフレームと、同一のタグによって紐付けられる。例えば、動画撮影ルートR1の撮影中にタグT5(「ベランダ」のタグ)によるマーキング処理が行われ、その後、タグT5を選択して静止画撮影ポイントP6の静止画撮影が行われたとする。この場合、動画のうちタグT5が付与されたフレームと、タグT5が付与された静止画とが、同じタグT5をキーとして紐付けられる。 Here, as shown in steps S111 to S113, in the still image mode, the user cannot take a still image unless he or she selects any tag from the marking list. In other words, any tag is added to all still images. Therefore, all the still images are associated with one of the frames forming the moving image by the same tag. For example, it is assumed that the tag T5 (tag of "veranda") is subjected to the marking process during the shooting of the moving image shooting route R1, and then the tag T5 is selected to shoot the still image of the still image shooting point P6. In this case, the frame to which the tag T5 is added in the moving image and the still image to which the tag T5 is added are linked using the same tag T5 as a key.
このような撮影動作により生成された画像データは、画像データ記憶部162に一旦記憶された後、通信ネットワークNを介してサーバ20にアップロードされ、必要に応じて画像処理が施される。
The image data generated by such a shooting operation is once stored in the image
ここで、動画撮影ルートR1〜R4における動画の撮影順序と、静止画撮影ポイントP1〜P11における静止画の撮影順序は、特に限定されない。例えば、全ての動画の撮影が終わった後で、静止画の撮影を開始しても良いし、その逆であってもよい。或いは、動画の撮影と静止画の撮影を交互に行っても良い。例えば、動画撮影ルートR1における動画撮影が終了した後、静止画撮影ポイントP5、P6、P7の静止画撮影を行い、その後で、動画撮影ルートR2における動画撮影を行う、といった具合である。 Here, the shooting order of moving images on the moving image shooting routes R1 to R4 and the shooting order of still images at the still image shooting points P1 to P11 are not particularly limited. For example, the shooting of a still image may be started after the shooting of all moving images is completed, or vice versa. Alternatively, shooting of a moving image and shooting of a still image may be performed alternately. For example, after the moving image shooting on the moving image shooting route R1 is completed, the still image shooting at the still image shooting points P5, P6, and P7 is performed, and then the moving image shooting on the moving image shooting route R2 is performed.
上述したように、本実施形態においては、予めマーキングリストを登録し、登録ボタン14fに対する操作をトリガーとして、マーキングリストの中から選択されたタグを動画又は静止画の画像データに付与する。そのため、撮影順を気にすることなく動画及び静止画の撮影を行っても、撮影中に行われたマーキング処理により、動画内の所望のフレーム同士、又は動画内の所望のフレームと静止画とを紐付けることができる。従って、任意の画像(フレーム)同士の関係が整理された動画及び静止画の画像データを取得することができる。
As described above, in the present embodiment, the marking list is registered in advance, and the tag selected from the marking list is added to the image data of the moving image or the still image by using the operation of the
上記説明においては、動画撮影を複数回行ったが(図5参照)、動画撮影は1回のみであっても良い。例えば、図10Aに示すように、動画撮影ルートR20に沿って、一筆書きのように全ての部屋を巡りながら動画撮影を行い、随時マーキング処理を行う(タグT21〜T27参照)。その後、ユーザ所望の箇所で、静止画の撮影兼マーキング処理を行っても良い(静止画撮影ポイントP21〜P26及びタグT22〜T27参照)。 In the above description, the moving image shooting is performed a plurality of times (see FIG. 5), but the moving image shooting may be performed only once. For example, as shown in FIG. 10A, moving image shooting is performed along a moving image shooting route R20 while going around all the rooms like a single stroke, and marking processing is performed at any time (see tags T21 to T27). After that, the still image shooting / marking process may be performed at a place desired by the user (see still image shooting points P21 to P26 and tags T22 to T27).
ここで、動画撮影ルートR20中の異なる箇所に、同じタグによるマーキング処理が行われることがある。例えば図10Aにおいては、玄関からリビング&キッチンに入った直後に、タグT21によるマーキング処理が行われ、洋室(2)から再びリビング&キッチンに入ったところで、再度、タグT21によるマーキング処理が行われているため、撮影時刻が異なるフレームが互いに紐付けられていることになる。後で詳しく説明するが、タグは、表示装置30に表示された画像を切り替える際の目印として用いられる。従って、図10Aに示すように、動画撮影ルートR20に沿って撮影された動画において、同じタグT21が付与されたフレームが異なる箇所に存在するということは、図10Bに示すように、時系列順に動画を表示して方向Aに進むか、フレームをスキップして方向Bに進むかの選択肢が得られるということになる。
Here, marking processing using the same tag may be performed at different points in the moving image shooting route R20. For example, in FIG. 10A, the marking process by the tag T21 is performed immediately after entering the living room / kitchen from the entrance, and the marking process by the tag T21 is performed again when entering the living room / kitchen from the western room (2) again. Therefore, frames having different shooting times are linked to each other. As will be described later in detail, the tag is used as a mark when switching the images displayed on the
また、動画を撮影する際には、1つの動画撮影ルートを一度通るだけでなく、同じルートを往復しても良い。この場合、往路と復路とにおいて、同じ位置で同じタグによるマーキング処理を行うことにより、位置は同じであっても向きの異なる画像を取得することができる。つまり、視野の広い画像を得ることができる。従って、画角が180°以上の広角レンズを用い、同じルートを往復して動画撮影を行うことにより、全天球画像に相当する動画を取得することも可能である。 Further, when shooting a moving image, not only one moving image shooting route may be passed once but also the same route may be reciprocated. In this case, by performing marking processing with the same tag at the same position on the forward path and the return path, it is possible to acquire images in different directions even at the same position. That is, an image with a wide field of view can be obtained. Therefore, by using a wide-angle lens with an angle of view of 180 ° or more and reciprocating the same route to shoot a moving image, it is possible to obtain a moving image corresponding to a spherical image.
次に、撮影装置10により撮影された画像を表示装置30において表示する動作について説明する。以下においては、ある不動産物件において撮影された2つの動画IV1、IV2及び2つの静止画IS1、IS2を表示する場合を説明する。表示装置30において画像を表示する際には、これらの動画及び静止画の画像ファイルをサーバ20から順次、又はまとめてダウンロードする。画像ファイルを順次ダウンロードする場合には、画像表示を早く開始できるという利点がある。これに対し、全ての画像ファイルを予めダウンロードしておく場合には、画像の表示切替がスムーズになるという利点がある。いずれの方法にするかについては、通信環境その他の条件に応じて適宜選択すれば良い。本実施形態においては、前者とする。Next, the operation of displaying the image photographed by the photographing
図11A〜図11Cは、表示装置30における画像の表示切替動作を説明するための模式図である。図11A〜図11Cは、動画IV1、IV2及び静止画IS1の間における画像の表示切替動作を示している。11A to 11C are schematic diagrams for explaining the image display switching operation in the
図11A〜図11Cにおいては、動画IV1、IV2及び静止画IS1のいずれも、撮影装置10の周囲360°の被写体が写った全天球画像であるとしている。また、表示範囲Vは、これらの動画IV1、IV2及び静止画IS1のうち、表示装置30の表示部33(各表示領域33a、33b)に一度に表示される範囲を示している。動画IV1、IV2及び静止画IS1に対する表示範囲Vの位置は、向き及び姿勢検出部34の検出結果(即ち、表示装置30を装着したユーザの頭部の向きや姿勢)に応じて変化する。つまり、画像を鑑賞するユーザにとっては、頭部を動きに合わせて、視界に入る景色が変化することになる。In FIGS. 11A to 11C, it is assumed that all of the moving images I V1 , I V2 and the still image I S1 are spherical images in which a subject at 360 ° around the photographing
表示範囲Vは、一般的な人の視野角度を考慮して決定すると良い。例えば、静止している人の一般的な視野角度は左右に180°程度(片側90°程度)であるが、運動(例えば歩行)している場合には、視野の中心領域以外(左右の端部など)の視認性が低下する。そのため、動画の表示中には、180°よりも狭い範囲(例えば150°)を表示範囲Vとして設定し、静止画の表示中には、180°若しくはそれよりも広い範囲を表示範囲Vとして設定するなど、適宜調整しても良い。言い換えると、動画の場合には、撮影者の移動方向を中心とする所定範囲のみを撮影し、静止画の場合には、ユーザが立ち止まって振り返り、周りを見渡すといった動作を考慮して、全天球画像を撮影するなど、動画と静止画とで撮影方法を変えても良い。それにより、トータルの画像ファイルのサイズを抑制しつつ、ユーザにとって自然に画像を鑑賞することができるコンテンツを作成することができる。 The display range V may be determined in consideration of the viewing angle of a general person. For example, a general view angle of a person who is stationary is about 180 ° to the left and right (about 90 ° on one side), but when exercising (for example, walking), other than the central region of the view (left and right edges). Visibility of parts). Therefore, a range narrower than 180 ° (for example, 150 °) is set as the display range V while displaying a moving image, and 180 ° or a wider range is set as the display range V while displaying a still image. It may be adjusted as appropriate. In other words, in the case of a moving image, only a predetermined range centered on the moving direction of the photographer is photographed, and in the case of a still image, the user can stop, look back, and look around. The shooting method may be different between moving images and still images, such as shooting a spherical image. As a result, it is possible to create a content that allows the user to naturally view the image while suppressing the total size of the image file.
表示装置30は、動画IV1を表示部33に表示するときには、動画IV1の画像ファイルを読み込んで再生する一方(図11Aの実線参照)、動画IV2及び静止画IS1の画像ファイルは非表示にしておく(図11Aの破線参照)。その後、静止画IS1を表示するときには、静止画IS1の画像ファイルを読み込み、動画IV1の再生を一時停止して静止画IS1に表示を切り替える(図11B参照)。次に動画IV1の再生を再開するときには、動画IV1の一時停止を解除して、静止画ISを非表示にして、動画IV1に表示を切り替える(図11A参照)。これにより、先に動画IV1を一時停止したタイミングから動画IV1の表示を再開することができる。When displaying the moving image I V1 on the
また、動画IV1から動画IV2に表示を切り替えるときには、動画IV2の画像ファイルを読み込んで再生を開始すると共に(図11Cの実線参照)、動画IV1の再生を一時停止する。その後、動画IV1の画像ファイルを閉じる(図11Cの破線参照)。これは、ユーザが、動画IV1から動画IV2に表示を切り替えた後で、再び動画IV1の同じ箇所から再生させるとは限らないからである。Further, when switching the display from the video I V1 video I V2 is (see the solid line in FIG. 11C) starts the reproduction reads the image file of the moving image I V2, pause video playback I V1. Then, the image file of the moving image I V1 is closed (see the broken line in FIG. 11C). This is because the user does not always reproduce the same part of the moving picture I V1 after switching the display from the moving picture I V1 to the moving picture I V2 .
図12は、表示装置30の動作を示すフローチャートである。図13〜図15は、表示装置30における画像の表示例を示す模式図である。以下においては、表示装置30の表示部33に表示され、視差を利用した立体視により3次元的に認識される動画又は静止画のことを、VR動画又はVR静止画ともいう。表示部30においてVR動画又はVR静止画を表示することをVR表示ともいう。
FIG. 12 is a flowchart showing the operation of the
まず、ステップS200において、表示装置30は、サーバ20から読み込んだ動画の画像ファイルを開き、VR動画の再生を行う。例えば不動産物件の画像を表示する場合には、図13に例示するように、玄関に入ったシーンからスタートする動画(例えば図5に示す動画撮影ルートR1の動画)を最初に表示するなど、予め設定しておく。
First, in step S200, the
続くステップS201において、表示装置30は、動画の再生を開始してから現在に至るまでの時間(再生時間)、言い換えると、動画のフレーム番号を取得する。
In subsequent step S201, the
続くステップS202において、表示装置30は、現在の再生時間が、マーキングされたフレームの再生時間内であるか否かを判定する。つまり、現在表示しているフレームにタグが付与されているか否かを判定する。マーキングされたフレームの再生時間内でない場合(ステップS202:No)、処理はステップS219に移行する。
In subsequent step S202, the
ステップS219において、表示装置30は画像の表示を終了するか否かを判断する。例えば、表示装置30の電源がオフにされる、画像の表示を中止させるための所定の入力操作が行われる、表示中のVR動画が最終フレームに至るといった場合には、画像の表示を終了すると判断する。画像の表示を終了すると判断した場合(ステップS219:Yes)、表示装置30は画像の表示を終了する。他方、画像の表示を終了しないと判定した場合(ステップS219:No)、処理はステップS200に戻る。
In step S219, the
他方、現在の再生時間が、マーキングされたフレームの再生時間内である場合(ステップS202:Yes)、表示装置30は、表示中のフレームと紐付けられた画像(紐付き先の画像)を検索する(ステップS203)。つまり、表示中のフレームに付与されたタグと同じタグが付与された静止画、又は動画内のフレームを検索する。
On the other hand, when the current reproduction time is within the reproduction time of the marked frame (step S202: Yes), the
続くステップS204において、表示装置30は、紐付き先の画像が、現在表示中の画像(動画)ファイル内に含まれるか否かを判定する。紐付き先の画像が現在表示中の画像ファイル内に含まれない場合(ステップS204:No)、表示装置30は、紐付き先の画像を含む画像ファイルをサーバ20から読み込む(ステップS205)。
In subsequent step S204, the
続いて、表示装置30は、現在表示中の画像(フレーム)に付与されているタグを画面に表示する(ステップS206)。例えば図13は、「応接室」の名称を付けられたタグTが表示されているシーンを示している。或いは、テキストが記載されたタグTの代わりに、アイコン状のタグT’を表示しても良い。
Subsequently, the
続くステップS207において、表示装置30は、表示されたタグが選択されたか否かを判定する。例えば、操作検出部362により、ユーザがタグに対して所定時間以上視線を向けたことが検出された、或いは、操作入力部32に対して所定の操作(例えば操作ボタンの押下)が行われた、といった場合に、タグが選択されたと判定される。
In subsequent step S207,
表示されたタグが選択されなかった場合(ステップS207:No)、処理はステップS219に移行する。この場合、画像の表示を終了する判断がなされない限り(ステップS219:No)、処理はステップS200に戻り、動画が引き続き再生される。例えば、図13に示すシーンにおいて「応接室」のタグTが選択されなかった場合、VR動画はそのまま再生され続け、廊下の奥にあるリビングルーム(図14参照)までの道筋が連続的に表示される。 When the displayed tag is not selected (step S207: No), the process proceeds to step S219. In this case, unless it is determined that the display of the image should be ended (step S219: No), the process returns to step S200, and the moving image is continuously reproduced. For example, in the scene shown in FIG. 13, if the tag T of “reception room” is not selected, the VR video continues to be played back, and the route to the living room (see FIG. 14) in the back of the corridor is continuously displayed. To be done.
他方、表示されたタグが選択された場合(ステップS207:Yes)、表示装置30は、現在表示中のVR動画の再生を一時停止させる(ステップS208)。
On the other hand, when the displayed tag is selected (step S207: Yes), the
続くステップS209において、表示装置30は、ステップS205において読み込まれた画像ファイルが動画であるか否かを判定する。画像ファイルが動画でない場合、即ち静止画である場合(ステップS209:No)、表示装置30は、読み込まれた画像ファイルをもとに、表示部33にVR静止画を表示させる(ステップS210)。
In subsequent step S209,
続くステップS211において、表示装置30は、VR静止画が表示された画面に、終了タグを表示させ、終了タグが選択されたか否かを判定する(ステップS212)。タグが選択されたか否かの判定方法は、ステップS207と同様である。
In subsequent step S211, the
終了タグが選択されなかった場合(ステップS212:No)、処理はステップS210に戻る。この場合、同じVR静止画が表示され続ける。他方、終了タグが選択された場合(ステップS212:Yes)、表示装置30は、VR静止画を非表示とし(ステップS213)、処理はステップS219に移行する。この場合、画像の表示を終了する判断がなされない限り(ステップS219:No)、処理はステップS200に戻り、一時停止されていた動画(ステップS208参照)が引き続き再生される。
When the end tag is not selected (step S212: No), the process returns to step S210. In this case, the same VR still image continues to be displayed. On the other hand, when the end tag is selected (step S212: Yes), the
また、ステップS205で読み込まれた画像ファイルが動画である場合(ステップS209:Yes)、表示装置30は、読み込まれた画像ファイルのうち、ステップS207で選択されたタグと紐付けられたフレームにジャンプする(ステップS214)。そして、表示部33における表示を、紐付き先のVR動画に切り替える(ステップS215)。その後、処理はステップS219(ステップS219:No)を経てステップS200に戻り、ジャンプしたフレームからVR動画の再生が行われる。
If the image file read in step S205 is a moving image (step S209: Yes), the
また、ステップS204において、表示中のフレームの紐付き先の画像が、表示中の画像(動画)ファイルに含まれる場合(ステップS204:Yes)、表示装置30は、表示中の画像(フレーム)に付与されているタグを画面に表示する(ステップS216)。
Further, in step S204, when the image of the linked destination of the frame being displayed is included in the image (moving image) file being displayed (step S204: Yes), the
続くステップS217において、表示装置30は、表示されたタグが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、ステップS207と同様である。
In subsequent step S217,
タグが選択された場合(ステップS217:Yes)、表示装置30は、紐付き先のフレームにスキップする(ステップS218)。その後、処理はステップS200に移行し、スキップしたフレームからVR動画の再生が行われる。
When the tag is selected (step S217: Yes), the
以上説明した表示装置30の動作を、図16〜図18Bを参照しながら、より詳しく説明する。図16〜図18Bは、表示装置30における画像の表示切替タイミングを示すタイミングチャートである。
The operation of the
図16に示すように、動画IV1の再生開始後、時刻t1に至ると、タグM1が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM1は動画IV1とは異なる画像ファイル(静止画IS1)と紐付けられているため(ステップS204:No)、静止画IS1の画像ファイルの読み込みが行われる(ステップS205)。しかしながら、画面に表示されたタグM1が選択されない場合(ステップS206、S207:No)、そのまま動画IV1の表示が継続される(ステップS201)。As shown in FIG. 16, after the reproduction of the moving image I V1 is started, when the time t1 is reached, the reproduction time of the frame with the tag M1 is reached (step S202: Yes). Since this tag M1 is associated with an image file (still image I S1 ) different from the moving image I V1 (step S204: No), the image file of the still image I S1 is read (step S205). However, when the tag M1 displayed on the screen is not selected (steps S206 and S207: No), the display of the moving image I V1 is continued (step S201).
他方、動画IV1の再生開始後、時刻t2に至ると、タグM2が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM2は動画IV1とは異なる画像ファイル(静止画IS2)と紐付けられているため(ステップS204:No)、静止画IS2の画像ファイルの読み込みが行われる(ステップS205)。そして、画面に表示されたタグM2が選択されると(ステップS206、S207:Yes)、動画IV1の表示が一時停止される(ステップS208)。そして、ステップS205において読み込まれた画像ファイルが静止画IS2の画像ファイルであるため(ステップS209:No)、この静止画IS2のVR表示が行われる(ステップS210)。その後、画面に表示された終了タグが時刻t4において選択されると(ステップS211、S212:Yes)、それまで表示されていた静止画(静止画IS2)が非表示とされ(ステップS213)、動画IV1の表示が再開される(ステップS219:No、S200)。このとき、動画IV1は、時刻t3において一時停止された続きから再生される。On the other hand, when the time t2 is reached after the reproduction of the moving image I V1 is started, the reproduction time of the frame with the tag M2 is reached (step S202: Yes). Since this tag M2 is associated with an image file (still image I S2 ) different from the moving image I V1 (step S204: No), the image file of the still image I S2 is read (step S205). Then, when the tag M2 displayed on the screen is selected (steps S206 and S207: Yes), the display of the moving image I V1 is temporarily stopped (step S208). Then, since the image file read in step S205 is the image file of the still image I S2 (step S209: No), VR display of this still image I S2 is performed (step S210). Then, when the end tag displayed on the screen is selected at time t4 (steps S211, S212: Yes), the still image (still image I S2 ) that has been displayed until then is hidden (step S213), The display of the moving image I V1 is restarted (step S219: No, S200). At this time, the moving image I V1 is reproduced from the continuation paused at the time t3.
また、図17に示すように、動画IV1の再生開始後、時刻t5に至ると、タグM3が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM3は動画IV1とは異なる画像ファイル(動画IV2)と紐付けられているため(ステップS204:No)、動画IV2の画像ファイルの読み込みが行われる(ステップS205)。そして、画面に表示されたタグM3が選択されると(ステップS206、S207:Yes)、動画IV1の表示が停止され(ステップS208)、タグM3の紐付き先である動画IV2のフレームにジャンプする(ステップS209:Yes、S214)。そして、表示部33における表示が、動画IV2に切り替えられ、ジャンプしたフレームからVR動画の再生が行われる(ステップS219:No、S200)。この後、動画IV1の画像ファイルは一旦閉じられる。動画IV2の再生開始後、タグM4が付与されたフレームの再生時間に至った後の処理についても同様である。In addition, as shown in FIG. 17, after the reproduction of the moving image I V1 is started, when the time t5 is reached, the reproduction time of the frame with the tag M3 is reached (step S202: Yes). Since this tag M3 is associated with an image file (moving image I V2 ) different from the moving image I V1 (step S204: No), the image file of the moving image I V2 is read (step S205). Then, when the tag M3 displayed on the screen is selected (steps S206 and S207: Yes), the display of the moving image I V1 is stopped (step S208) and the frame of the moving image I V2 to which the tag M3 is linked is jumped to. (Step S209: Yes, S214). Then, the display on the
また、図18Aに示すように、動画IV1を構成するフレームに対し、時刻t6及びt9近傍のフレームにタグM5が付与され、時刻t7及びt8近傍のフレームにタグM6が付与されているとする。この場合、図18Bに示すように、動画IV1の再生開始後、時刻t6に至ると、タグM5が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM5は、同じ動画IV1の画像ファイル内のフレームと紐付けられている(ステップS204:Yes)。そのため、タグM5が表示され(ステップS216)、このタグM5が選択されると(ステップS217:Yes)、表示部33における表示が紐付き先のフレーム、即ち、同じタグM5が付与された時刻t9からのフレームにスキップし(ステップS218)、そこから動画IV1の再生が行われる(ステップS200)。Further, as shown in FIG. 18A, it is assumed that tags M5 are attached to frames near times t6 and t9 and tags M6 are attached to frames near times t7 and t8 with respect to the frames forming the moving image I V1. . In this case, as shown in FIG. 18B, when the time t6 is reached after the reproduction of the moving image I V1 is started, the reproduction time of the frame with the tag M5 is reached (step S202: Yes). This tag M5 is associated with the frame in the image file of the same moving image I V1 (step S204: Yes). Therefore, the tag M5 is displayed (step S216), and when this tag M5 is selected (step S217: Yes), the display on the
以上説明したように、本発明の第1の実施形態によれば、ユーザは、動画及び静止画によって構成される3次元的な空間内をリアルな感覚で移動することができる。 As described above, according to the first embodiment of the present invention, the user can move in a three-dimensional space composed of a moving image and a still image with a real feeling.
また、本発明の第1の実施形態によれば、従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成し、このデータに基づいて画像表示を行うことが可能となる。 Further, according to the first embodiment of the present invention, an image obtained by shooting a subject is used as a material and requires less time and effort than before, and can be operated or operated by a user when displaying an image. It is possible to create data for generating a corresponding event and display an image based on this data.
詳細には、本発明の第1の実施形態によれば、予め設定したタグによりマーキングしながら動画又は静止画を撮影するので、VR表示するための画像データを生成する際に、画像の表示切替等のイベントを発生させるために必要な情報を画像データに埋め込むための編集作業を改めて行う必要がなくなる。従って、従来よりも低い作業コストで、短時間に、VR表示のための画像データを生成することが可能となる。 More specifically, according to the first embodiment of the present invention, a moving image or a still image is captured while marking with a preset tag, so that when image data for VR display is generated, image display switching is performed. It becomes unnecessary to perform the editing work for embedding the information necessary for generating the event in the image data. Therefore, it is possible to generate image data for VR display in a short time at a lower work cost than the conventional one.
また、本発明の第1の実施形態によれば、予め設定したタグによりマーキングしながら被写体を撮影するので、画像の表示順序を考慮して撮影順序を決定したり、撮影後に時系列を整えるための編集作業を行ったりする必要がなくなる。つまり、ユーザは、所望の順序で、又はやり易い順序で被写体を撮影すれば良い。 Further, according to the first embodiment of the present invention, since the subject is photographed while marking with the preset tag, the photographing order is determined in consideration of the display order of the images, and the time series is adjusted after the photographing. There is no need to edit the file. That is, the user may shoot the subjects in a desired order or an order that is easy to perform.
また、本発明の第1の実施形態によれば、タグによって紐付けられた画像間で表示を切り替える際に、次に表示される可能性のある画像の画像ファイルの読み込みを開始した後で、画面にタグを表示するので、画像の切替えをスムーズに行うことができる。 Also, according to the first embodiment of the present invention, when switching the display between the images linked by the tags, after starting to read the image file of the image that may be displayed next, Since the tag is displayed on the screen, it is possible to switch images smoothly.
また、本発明の第1の実施形態によれば、被写体を撮影することによって得られた2次元の動画や静止画を用いて、3D空間をVR表示するための画像データを生成するので、3DCGを作成するときのような高度且つ演算コストの高い画像処理を行う必要がなくなる。従って、高スペックな機器を使用して長時間作業をする必要もなくなり、VR表示のための画像データを従来よりも低コスト且つ簡単に作成することが可能となる。 In addition, according to the first embodiment of the present invention, image data for VR display of the 3D space is generated using a two-dimensional moving image or a still image obtained by shooting a subject, and thus 3DCG is used. There is no need to perform high-level and high-cost image processing as in the case of creating. Therefore, it is not necessary to work for a long time using a high-spec device, and it is possible to easily create image data for VR display at a lower cost than before.
次に、本発明の第1の実施形態の変形例について説明する。図19は、第1の実施形態の変形例における表示装置30の動作を示すフローチャートである。図21は、本変形例における表示装置30での表示例を示す模式図である。上記第1の実施形態においては、一連の画像表示を行う際に、動画の表示から開始することとしたが、動画と静止画の表示の順はこれに限定されるものではない。
Next, a modification of the first embodiment of the present invention will be described. FIG. 19 is a flowchart showing the operation of the
まず、ステップS230において、表示装置30は、サーバ20から読み込んだ画像ファイルが、動画の画像ファイルであるか否かを判定する。画像ファイルが動画の画像ファイルである場合(ステップS230:Yes)、処理はステップS200に移行する。その後のステップS200〜S215及びS216〜S218は、上記第1の実施形態と同様である。ただし、ステップS209において、読み込んだ画像ファイルが静止画の画像ファイルである場合(ステップS209:No)、処理はステップS231に移行する。
First, in step S230, the
また、ステップS240において、表示装置30は、表示中のVR動画(ステップS202:No、ステップS207:No)、又は、表示切替(ステップS215参照)をしたVR動画が終了したか否か、即ち、最終フレームに至ったか否かを判定する。そして、VR動画がまだ終了していない場合(ステップS240:No)、処理はステップS200に移行する。他方、VR動画が終了した場合(ステップS240:Yes)、処理はステップS241に移行する。
In step S240, the
ステップS241において、表示装置30はさらに、画像の表示を終了するか否かを判断する。例えば、表示装置30の電源がオフにされる、或いは、画像の表示を中止させるための所定の入力操作が行われるといった場合、画像の表示を終了すると判断する。画像の表示を終了すると判断した場合(ステップS241:Yes)、表示装置30は画像の表示を終了する。他方、画像の表示を終了しないと判断した場合(ステップS241:No)、処理はステップS230に戻る。
In step S241, the
他方、サーバ20から読み込んだ画像ファイルが動画の画像ファイルでない場合(ステップS230:No)、即ち、静止画の画像ファイルである場合、表示装置30は、当該画像ファイルに基づき、静止画を画面に表示させる(ステップS231)。例えば、図20は、ある建物の入り口を入った所にある玄関ホールと、入口付近から見える3つの会議室のドアとが写った静止画を示している。
On the other hand, if the image file read from the
続く、ステップS232において、表示装置30は、VR静止画が表示された画面に、当該VR静止画の画像ファイルと紐付けられた画像ファイルにジャンプするためのタグを表示させる。例えば、図20に示す静止画の画像ファイルに対し、3つの会議室の内部をそれぞれ表す3つの画像ファイルが紐付けられている場合、表示装置30は、3つの会議室の名称(例えば、A会議室、B会議室、及びC会議室)をそれぞれ表すタグT(a)、T(b)、T(c)を画面に表示させる。なお、各会議室の内部を表す画像ファイルは、動画の画像ファイルであっても良いし、静止画の画像ファイルであっても良い。また、会議室の内部を表す画像ファイルに対し、上記第1の実施形態と同様にマーキング処理が施されていても良い。
Subsequently, in step S232, the
続くステップS233において、表示装置30は、画面に表示されたタグのうちのいずれかが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、ステップS207と同様である。
In subsequent step S233,
いずれのタグも選択されない場合(ステップS233:No)、表示装置30はVR静止画の表示を継続する(ステップS231)。他方、表示されたタグのいずれかが選択された場合(ステップS233:Yes)、表示装置30は、選択されたタグに対応する画像ファイルをサーバ20から読み込む(ステップS234)。その後、処理はステップS241に移行する。その後、画像の表示を終了しない場合(ステップS241:No)、表示装置30は、ステップS234において読み込んだ画像ファイルが動画の画像ファイルであるか否かを判定し(ステップS230)、判定結果に応じて、動画又は静止画を表示する(ステップS200、S231)。その後のステップは上述したとおりである。
When no tag is selected (step S233: No), the
以上説明したように本変形例によれば、ユーザは、静止画に表示されるタグを選択することにより、画像によって構成される3次元的な空間内の所望の場所に移動することができる。 As described above, according to this modification, the user can move to a desired place in a three-dimensional space formed by images by selecting a tag displayed on a still image.
なお、上記変形例においては、タグの選択後(ステップS233:Yes)に、選択されたタグに対応する画像ファイルを読み込むこととしたが、タグが選択される前に、表示された全てのタグに対応する画像ファイルを読み込むこととしても良い。この場合、タグが選択されてから、選択されたタグに対応する画像ファイルに基づく画像が表示されるまでの時間を短縮することが可能となる。 In the above modification, the image file corresponding to the selected tag is read after the tag is selected (step S233: Yes), but all the tags displayed before the tag is selected. The image file corresponding to may be read. In this case, it is possible to shorten the time from when the tag is selected until the image based on the image file corresponding to the selected tag is displayed.
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態に係る画像処理システムの構成は、全体として第1の実施形態と同様であり(図1参照)、撮影装置10の動作の一部が第1の実施形態と異なっている。(Second embodiment)
Next, a second embodiment of the present invention will be described. The configuration of the image processing system according to this embodiment is the same as that of the first embodiment as a whole (see FIG. 1), and a part of the operation of the
図21は、本発明の第2の実施形態における撮影装置10の動作を示すフローチャートである。図22は、撮影装置10の表示部14に表示される画面を例示する模式図である。
FIG. 21 is a flowchart showing the operation of the
まず、ステップS300において、撮影装置10は、撮影モードが動画に設定されているか否かを判断する。撮影モードが動画に設定されている場合(ステップS300:Yes)、撮影装置10は、操作入力部13に対する所定の操作(例えば撮影ボタンへの操作)に応じて動画撮影を開始する(ステップS301)。これにより、撮影部12により取り込まれた画像が動画として記録される。
First, in step S300, the
続くステップS302において、撮影装置10は、位置検出部15から出力された位置情報を取得し、動画撮影開始位置として登録する。
In subsequent step S302, the
続くステップS303において、撮影装置10は、登録ボタン14f(図22参照)への操作(例えばタップ操作)を検知したか否かを判定する(ステップS303)。登録ボタン14fへの操作を検知しない場合(ステップS303:No)、撮影装置10は動画の撮影を継続しながら登録ボタンへの操作を待機する。
In the following step S303, the
他方、登録ボタン14fへの操作を検知した場合(ステップS303:Yes)、撮影装置10は、位置検出部15から出力された位置情報を取得し、画像の識別情報として登録する(ステップS304)。詳細には、マーキング処理部174が、登録ボタン14fへの操作を検知したタイミングで生成されたフレームを識別する情報(例えばフレーム番号)と位置情報とを対応づけるリストを作成し、記憶部16に記憶させておく。或いは、生成されたフレームの画像データに対し、位置情報を直接埋め込んでも良い。ここで登録される位置情報は、ステップS302において登録された初期位置に対する相対位置としても良い。
On the other hand, when the operation to the
続くステップS305において、撮影装置10は、動画撮影の終了操作(例えば撮影ボタンの再押下操作)を検知したか否かを判定する。動画撮影の終了操作を検知しない場合(ステップS305:No)、処理はステップS303に戻る。他方、動画撮影の終了操作を検知した場合(ステップS305:Yes)、処理はステップS306に移行する。
In subsequent step S305, the
ステップS306において、撮影装置10は、位置検出部15から出力された位置情報を取得し、動画撮影終了位置として登録する。
In step S306, the
ステップS307において、撮影装置10は、動画又は静止画の撮影動作を終了するか否かを判定する。例えば、撮影装置10の電源がオフにされる、所定の終了操作がなされるといった場合、撮影動作はそのまま終了する(ステップS307:Yes)。他方、撮影動作を終了しない場合には(ステップS307:No)には、処理はステップS300に戻る。
In step S307, the
また、ステップS300において、撮影モードが動画に設定されていない場合(ステップS300:No)、即ち、撮影モードが静止画モードの場合、撮影装置10は、静止画の撮影ボタンへの操作を検知したか否かを判定する(ステップS311)。撮影ボタンへの操作を検知した場合(ステップS311:Yes)、撮影装置10は静止画撮影を行う(ステップ312)。これにより、撮影部12により取り込まれた画像が静止画として記録される。
Further, in step S300, when the shooting mode is not set to the moving image (step S300: No), that is, when the shooting mode is the still image mode, the
続くステップS313において、撮影装置10は、位置検出部15から出力された位置情報を取得し、画像の識別情報として登録する(ステップS313)。詳細には、マーキング処理部174が、ステップS312において撮影された静止画の画像データに対し、位置情報を付与する。このときの位置情報は、ステップS302において登録された初期値に対する相対位置としても良い。
その後、処理はステップS307に移行する。In the following step S313, the
After that, the process proceeds to step S307.
このようにして撮影された動画及び静止画は、それぞれの画像データに付与された位置情報を識別情報として、互いに紐付けられる。識別情報として用いる場合、位置情報はピンポイントである必要はなく、例えば、ある画像データに付与された位置情報を中心とする所定範囲(例えば数10cm〜数メートル)に、別の画像データの位置情報が含まれる場合、それらの画像には同じ識別情報が付与されているものと判断される。 The moving image and still image captured in this manner are linked to each other by using the position information given to each image data as identification information. When used as the identification information, the position information does not need to be pinpoint, and for example, the position of another image data is within a predetermined range (for example, several tens of cm to several meters) centered on the position information given to certain image data. When the information is included, it is determined that the images have the same identification information.
以上説明したように、本発明の第2の実施形態によれば、自動で検出された位置情報によって画像をマーキングするので、撮影時に手動でマーキング処理を行う手間を省くことができる。 As described above, according to the second embodiment of the present invention, the image is marked with the position information that is automatically detected, so that it is possible to save the trouble of manually performing the marking process at the time of shooting.
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態に係る画像処理システムの構成は、全体として第1の実施形態と同様であり(図1参照)、本実施形態においては、撮影装置10により生成した動画又は静止画の画像データをもとに、3Dモデルの画像データを構築する点で、上記第1及び第2の実施形態と異なっている。(Third Embodiment)
Next, a third embodiment of the present invention will be described. The configuration of the image processing system according to this embodiment is the same as that of the first embodiment as a whole (see FIG. 1), and in this embodiment, image data of a moving image or a still image generated by the
図23は、本発明の第3の実施形態における撮影装置10の動作を示すフローチャートであり、3Dモデルの画像データを構築するための画像を取得するための動作を示している。ただし、撮影装置10が生成する画像データは、第1及び第2の実施形態と同様、2次元的な動画又は静止画の画像データで良い。以下においては、動画を撮影する場合の動作を説明する。
FIG. 23 is a flowchart showing the operation of the
まず、ステップS401において、撮影装置10は、3D画像用の撮影を開始する。詳細には、撮影装置10は、操作入力部13に対する所定の操作(例えば撮影ボタンへの操作)に応じて動画撮影を開始する。
First, in step S401, the
続くステップS402において、撮影装置10は、位置検出部15から出力された位置情報を取得し、動画撮影開始位置として登録する。
In subsequent step S402, the
続くステップS403において、撮影装置10は、所定の登録ボタン(例えば図22に示す登録ボタン14f)への操作(例えばタップ操作)を検知したか否かを判定する。登録ボタン14fへの操作を検知しない場合(ステップS403:No)、撮影装置10は動画の撮影を継続しながら登録ボタンへの操作を待機する。
In subsequent step S403, the
他方、登録ボタンへの操作を検知した場合(ステップS403:Yes)、撮影装置10は、位置検出部15から出力された位置情報を取得し、画像の識別情報として登録する(ステップS404)。詳細には、マーキング処理部174が、撮影中の画像(フレーム)の画像データに対して、位置情報を付与ことによりマーキングを行う。このときの位置情報は、ステップS402において登録された初期位置に対する相対位置としても良い。
On the other hand, when the operation on the registration button is detected (step S403: Yes), the
続くステップS405において、撮影装置10は、撮影終了操作(例えば撮影ボタンの再押下操作)を検知したか否かを判定する。撮影終了操作を検知しない場合(ステップS405:No)、処理はステップS403に戻る。他方、撮影終了操作を検知した場合(ステップS405:Yes)、処理は終了する。
In the following step S405, the
このようにして生成された画像データは、サーバ20にアップロードされる。サーバ20は、第1及び第2の実施形態と同様に、アップロードされた画像データに対し、3D空間をVR表示するための画像処理を実行する。これに加えて、本実施形態において、サーバ20は、アップロードされた画像データをもとに3Dモデルの画像データを構築する。平面の画像から3Dモデルの画像データを構築する方法としては、公知の種々の手法を用いることができる。一例として、動画内の複数のフレームに写った共通のオブジェクトの動きを検出し、動いた距離が大きいほど手前に存在するという原理に基づいてオブジェクトの奥行きを推定することにより、3Dモデルを構築する手法が知られている。
The image data generated in this way is uploaded to the
図24は、撮影装置10により撮影された動画又は静止画の画像データをもとに構築された3Dモデルの表示例を示す模式図である。この3Dモデルの各所には、撮影時に画像データに付与された位置情報に対応するタグが埋め込まれている。これにより、3Dモデルの各所は、VR表示される動画又は静止画と紐付けられる。例えば、3Dモデルにおける玄関P30は、動画のうち玄関が写ったフレームと紐付けられ、3DモデルにおけるトイレP31は、動画のうちトイレが写ったフレームと紐付けられている。
FIG. 24 is a schematic diagram showing a display example of a 3D model constructed based on image data of a moving image or a still image captured by the
図25は、本発明の第3の実施形態における表示装置30の動作を示すフローチャートである。
まず、ステップS410において、表示装置30は、サーバ20から3Dモデルの画像データをダウンロードし、表示部33に表示させる。FIG. 25 is a flowchart showing the operation of the
First, in step S410, the
続くステップS411において、表示装置30は、ユーザの視野に現在入っている3Dモデルの位置情報を取得する。
In subsequent step S411, the
続くステップS412において、表示装置30は、ステップS411において取得された位置情報が、撮影時にマーキングされた範囲(図23のステップS404において位置情報が登録された範囲)内であるか否かを判定する。マーキングされた範囲内でない場合(ステップS412:No)、処理はステップS433に移行する。
In the following step S412, the
ステップS433において、表示装置30は動作を終了するか否かを判定する。この判定方法は、図12のステップS219と同様である。動作を終了すると判定した場合(ステップS433:Yes)、そのまま終了する。他方、動作を終了しないと判定した場合(ステップS433:No)、処理はステップS410に戻る。
In step S433, the
他方、ステップS411において取得された位置情報がマーキングされた範囲内である場合(ステップS412:Yes)、表示装置30は、取得された位置情報と紐付けられた紐付き先を検索する(ステップS413)。
On the other hand, when the position information acquired in step S411 is within the marked range (step S412: Yes), the
紐付き先が3Dモデル内に存在する場合(ステップS414:Yes)、表示装置30は、表示中の3Dモデルにタグを表示する(ステップS415)。例えば、図24の場合、玄関P30にタグT30が表示される。
When the linked destination exists in the 3D model (step S414: Yes), the
続くステップS416において、表示装置30は、表示されたタグが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、図12のステップS207と同様である。表示されたタグが選択された場合(ステップS416:Yes)、表示装置30は、ユーザの視野に表示させる領域を、選択されたタグと紐付けられた3Dモデル内の位置にジャンプさせる(ステップS417)。その後、処理はステップS410に移行する。この場合、ステップS410においては、ジャンプ先の領域の3Dモデルが表示される。例えば、図24において、玄関P30に表示されたタグT30が、廊下P32に埋め込まれたタグと紐付けられていた場合、3Dモデルの向きが変わり、廊下P32がユーザ側を向くように表示される。他方、ステップS416においてタグが選択されなかった場合(ステップS416:No)、処理はそのままステップS410に戻る。この場合、従前の3Dモデルが表示される。
In subsequent step S416,
また、ステップS414において、紐付き先が3Dモデル内に存在しない場合(ステップS414:No)、表示装置30は、紐付き先の静止画又は動画の画像ファイルをサーバ20から読み込む(ステップS418)。そして、表示装置30は、表示中の3Dモデルにタグを表示する(ステップS419)。
In addition, in step S414, when the linked destination does not exist in the 3D model (step S414: No), the
続くステップS420において、表示装置30は、表示されたタグが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、図12のステップS207と同様である。タグが選択されない場合(ステップS420:No)、処理はステップS433に移行する。
In subsequent step S420,
他方、表示されたタグが選択された場合(ステップS420:Yes)、表示装置30は続いて、ステップS418において読み込まれた画像ファイルが動画であるか否かを判定する(ステップS421)。
On the other hand, when the displayed tag is selected (step S420: Yes), the
画像ファイルが動画でない場合(ステップS421:No)、即ち静止画である場合、表示装置30は、読み込まれた画像ファイルをもとに、表示部33にVR静止画を表示させる(ステップS422)。
When the image file is not a moving image (step S421: No), that is, when it is a still image, the
続くステップS423において、表示装置30は、VR静止画が表示された画面に、終了タグを表示させ、終了タグが選択されたか否かを判定する(ステップS424)。タグが選択されたか否かの判定方法は、ステップS207と同様である。
In the following step S423, the
終了タグが選択されなかった場合(ステップS424:No)、処理はステップS422に戻る。この場合、VR静止画が表示され続ける。他方、終了タグが選択された場合(ステップS424:Yes)、表示装置30は、再び3Dモデルを表示すると共に(ステップS425)、VR静止画を非表示にする(ステップS426)。その後、処理はステップS433に移行する。
When the end tag is not selected (step S424: No), the process returns to step S422. In this case, the VR still image continues to be displayed. On the other hand, when the end tag is selected (step S424: Yes), the
他方、ステップS421で読み込まれた画像ファイルが動画である場合(ステップS421:Yes)、表示装置30は、読み込まれた画像ファイルのうち、ステップS420で選択されたタグと紐付けられたフレームにジャンプする(ステップS427)。そして、表示部33における表示を、紐付き先のVR動画に切り替え(ステップS428)、紐付き先のVR動画を再生する(ステップS429)。
On the other hand, when the image file read in step S421 is a moving image (step S421: Yes), the
ここで、VR動画の再生が開始された後は、第1の実施形態における表示動作と同様に、異なるVR動画内の紐付き先のフレームへのジャンプ、同一のVR画像内でのフレームのスキップ、紐付けされた静止画の表示/非表示などを行っても良い(図12参照)。 Here, after the reproduction of the VR moving image is started, similar to the display operation in the first embodiment, a jump to a frame to which a string is attached in a different VR moving image, a frame skip in the same VR image, The linked still image may be displayed / hidden (see FIG. 12).
その後、紐付き先のVR動画の再生が終了(又は一時停止)すると(ステップS430)、表示装置30は、再び3Dモデルを表示すると共に(ステップS431)、VR動画を非表示にする(ステップS432)。その後、処理はステップS433に移行する。
After that, when the playback of the VR video of the linked destination ends (or pauses) (step S430), the
以上説明したように、本発明の第3の実施形態によれば、撮影装置10により生成された動画又は静止画の画像データをもとに3Dモデルを構築すると共に、この3Dモデルに位置情報を埋め込み、VR表示される動画又は静止画と紐付けるので、被写体をより多様な形態で表示することができる。例えば、3Dモデルにより被写体(例えば不動産物件)の全容を直感的に把握し、VR動画により動線を確認し、VR静止画により被写体の詳細を確認するといった利用方法も可能である。
As described above, according to the third embodiment of the present invention, the 3D model is constructed based on the image data of the moving image or the still image generated by the
なお、本実施形態においては、3Dモデルの画像データをサーバ20において構築することとしたが、これに限定されない。例えば、撮影装置10の画像処理部172において3Dモデルの画像データを構築しても良いし、撮影装置10において生成した動画又は静止画の画像データを3Dモデル構築専用のコンピュータに転送し、このコンピュータにおいて3Dモデルの画像データを構築しても良い。
In the present embodiment, the image data of the 3D model is constructed in the
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。図26は、本発明の第4の実施形態に係る画像処理装置の概略構成を示すブロック図である。(Fourth Embodiment)
Next, a fourth embodiment of the present invention will be described. FIG. 26 is a block diagram showing the schematic arrangement of the image processing apparatus according to the fourth embodiment of the present invention.
図26に示す画像処理装置60は、被写体を撮影して動画又は静止画の画像データを生成する機能と、該画像データに基づいてVR表示を行う機能とを備えるものである。このような画像処理装置60は、図1に示す撮影装置10及び表示装置30と同様に、汎用のスマートフォン等を用いて構成することができる。図26に示す各部のうち、撮影部61、操作入力部62、表示部63、及び位置検出部65の構成及び動作は、図1に示す撮影部12、操作入力部13、表示部14、及び位置検出部15の構成及び動作とそれぞれ同様である。また、図26に示す向き及び姿勢検出部64の構成及び動作は、図1に示す向き及び姿勢検出部34の構成及び動作と同様である。図26に示す記憶部66は、図1に示す撮影装置10と同様に、プログラム記憶部661と、画像データ記憶部662と、マーキングリスト記憶部663とを有している。図26に示すプロセッサ67は、図1に示すプロセッサ17の各部と同様に機能する撮影制御部671、画像処理部672、マーキングリスト登録部673、及びマーキング処理部674と、図1に示すプロセッサ36の各部と同様に機能する表示制御部361及び操作検出部676とを有している。
The
このように、撮影装置10及び表示装置30がそれぞれ担う機能を同一の機器によって実現することで、サーバ20を介して画像データをアップロード及びダウンロードする手間が不要になると共に、紐付き先の画像にスムーズに表示切替をすることができるという利点も生じる。
In this way, by realizing the functions of the
以上説明した第1〜第4の実施形態及び変形例においては、動画、静止画、又は3Dモデルを、ユーザが頭部に装着して用いる表示装置30(又は画像処理装置60)において表示することとしたが、画像の表示形態はこれに限定されない。例えば、タブレット端末やパーソナルコンピュータ等の画面にこれらの画像を表示することとしても良い。この場合、画面に表示されたタグの選択は、例えば、マウス等のポインティングデバイスや、タッチパネルにより行っても良い。 In the first to fourth embodiments and the modified examples described above, a moving image, a still image, or a 3D model is displayed on the display device 30 (or the image processing device 60) that the user wears on the head. However, the display form of the image is not limited to this. For example, these images may be displayed on the screen of a tablet terminal, a personal computer, or the like. In this case, the tag displayed on the screen may be selected by using a pointing device such as a mouse or a touch panel.
また、上記第1〜第4の実施形態及び変形例においては、ユーザが頭部に装着して用いる表示装置30(又は画像処理装置60)に、動画又は静止画を3次元的に表示することとしたが、表示装置30(又は画像処理装置60)に、全天球画像の一部をパノラマ画像として表示しても良いし、平面的な2次元画像として表示しても良い。また、タブレット端末やパーソナルコンピュータ等に、パノラマ画像や平面的な2次元画像を表示することとしても良い。 In addition, in the first to fourth embodiments and the modified examples described above, a moving image or a still image is three-dimensionally displayed on the display device 30 (or the image processing device 60) that the user wears on his / her head. However, a part of the omnidirectional image may be displayed on the display device 30 (or the image processing device 60) as a panoramic image or may be displayed as a planar two-dimensional image. Also, a panoramic image or a two-dimensional planar image may be displayed on a tablet terminal, a personal computer, or the like.
本発明は、上記第1〜第4の実施形態及び変形例に限定されるものではなく、上記第1〜第4の実施形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上記第1〜第4の実施形態及び変形例に示した全構成要素からいくつかの構成要素を除外して形成しても良いし、上記第1〜第4の実施形態及び変形例に示した構成要素を適宜組み合わせて形成しても良い。 The present invention is not limited to the above-described first to fourth embodiments and modifications, but can be achieved by appropriately combining a plurality of constituent elements disclosed in the above-described first to fourth embodiments and modifications. , Various inventions can be formed. For example, some constituent elements may be formed by excluding all the constituent elements shown in the first to fourth embodiments and the modified examples, and in the first to fourth embodiments and the modified examples. It may be formed by appropriately combining the components shown.
1 画像処理システム
10 撮影装置
11、21、31 通信部
12、61 撮影部
13、32、62 操作入力部
14、33、63 表示部
15、65 位置検出部
16、35、66 記憶部
17、22、36、67 プロセッサ
20 サーバ
23 画像データ記憶部
24 物件情報データベース
30 表示装置
33a、33b 領域
34、64 向き及び姿勢検出部
37 ホルダー
60 画像処理装置
161、351、661 プログラム記憶部
162、352、662 画像データ記憶部
163、663 マーキングリスト記憶部
171、671 撮影制御部
172、221、672 画像処理部
173、673 マーキングリスト登録部
174、674 マーキング処理部
361、675 表示制御部
362、676 操作検出部
1
Claims (15)
所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するマーキング処理部と、
前記撮影部により生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成する画像処理部と、
前記画像処理部により生成された画像データを記憶する画像データ記憶部と、
を備える画像処理システム。A shooting unit that generates image data of a moving image or a still image by shooting a subject,
A marking processing unit that adds identification information to a frame or a still image forming a moving image generated by the photographing unit according to a predetermined trigger,
An image processing unit that generates image data of a moving image or a still image for display based on the image data of the moving image or the still image generated by the photographing unit,
An image data storage unit that stores the image data generated by the image processing unit;
An image processing system including.
外部からなされる操作に従って、前記1種類以上の識別情報の中から1つの識別情報を選択する操作入力部と、
をさらに備え、
前記マーキング処理部は、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記操作入力部により選択された識別情報を付与する、
請求項1に記載の画像処理システム。A marking list storage unit that stores one or more types of identification information,
An operation input unit for selecting one piece of identification information from the one or more kinds of identification information according to an operation made from the outside,
Further equipped with,
The marking processing unit adds the identification information selected by the operation input unit to the frame or still image generated by the imaging unit at a timing according to the trigger,
The image processing system according to claim 1.
前記マーキング処理部は、前記トリガーに応じたタイミングで前記位置検出部から出力された位置情報を、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記識別情報として付与する、
請求項1に記載の画像処理システム。Further comprising a position detection unit that detects the position of the imaging unit and outputs position information,
The marking processing unit, the position information output from the position detection unit at the timing according to the trigger, the identification information for the frame or still image generated by the imaging unit at the timing according to the trigger As,
The image processing system according to claim 1.
前記表示部における画像表示を制御する表示制御部と、
外部からなされる操作を検出する操作検出部と、
をさらに備え、
前記表示制御部は、前記表示部に表示中の動画のフレーム又は静止画に識別情報が付与されている場合に、該識別情報が付与されている旨を示す情報を前記表示部に表示させ、前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替える、
請求項1〜5のいずれか1項に記載の画像処理システム。A display unit capable of displaying a moving image or a still image based on the image data stored in the image data storage unit;
A display control unit for controlling image display on the display unit,
An operation detection unit that detects an operation performed from the outside,
Further equipped with,
The display control unit causes the display unit to display information indicating that the identification information is added when the frame or still image of the moving image being displayed on the display unit is provided with the identification information, When the operation detection unit detects an operation of selecting the information, the image display on the display unit is a moving image to which the same identification information as the identification information added to the frame or still image of the moving image being displayed is added. Switch to the frame or still image of
The image processing system according to claim 1.
前記複数の動画の各々は、同じ識別情報が付与されたフレームを含み、
前記表示制御部は、前記複数の動画の間で前記表示部における画像表示を切り替える、
請求項6項に記載の画像処理システム。The image data storage unit stores image data of a plurality of moving images,
Each of the plurality of moving images includes a frame to which the same identification information is added,
The display control unit switches image display on the display unit between the plurality of moving images,
The image processing system according to claim 6.
前記表示制御部は、前記複数のフレームの間で前記表示部における画像表示を切り替える、
請求項6に記載の画像処理システム。The moving image includes a plurality of frames that are generated at different times and have the same identification information,
The display control unit switches image display on the display unit between the plurality of frames,
The image processing system according to claim 6.
前記表示制御部は、前記静止画と、前記同じ識別情報が付与されたフレームとの間で前記表示部における画像表示を切り替える、
請求項6に記載の画像処理システム。The moving image includes a frame to which the same identification information as the identification information added to the still image is added,
The display control unit switches the image display on the display unit between the still image and a frame to which the same identification information is added,
The image processing system according to claim 6.
前記表示制御部は、前記モデルの各所に付与された前記情報と、前記動画又は静止画に付与された識別情報とに基づき、前記モデルと前記動画又は静止画との間で前記表示部における画像表示を切り替える、
請求項6に記載の画像処理システム。The image processing unit further constructs image data of a three-dimensional model on the basis of the image data of the moving image or still image generated by the photographing unit, and the marking processing unit causes the moving image or still image to be displayed. Based on the identification information given to the image, give information representing the position to each place of the model,
The display control unit, based on the information given to each part of the model and the identification information given to the moving image or the still image, an image in the display unit between the model and the moving image or the still image. Switch display,
The image processing system according to claim 6.
所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するステップ(b)と、
ステップ(a)において生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成するステップ(c)と、
ステップ(c)において生成された画像データを記憶するステップ(d)と、
を含む画像処理方法。Step (a) of generating image data of a moving image or a still image by shooting a subject,
A step (b) of adding identification information to a frame or a still image that constitutes the moving image generated by the image capturing unit according to a predetermined trigger;
Step (c) of generating image data of a moving image or a still image for display based on the image data of the moving image or the still image generated in step (a),
Storing step (d) the image data generated in step (c),
An image processing method including.
前記記憶部は、1種類以上の識別情報を予め記憶し、
前記操作入力部に対する操作に応じて、前記1種類以上の識別情報の中から1つの識別情報を選択するステップと、
所定のトリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記1つの識別情報を付与するステップと、
を実行させるプログラム。A program to be executed by a photographing device, comprising: a photographing unit that generates image data of a moving image or a still image by photographing a subject; a storage unit; and an operation input unit that receives an operation performed from the outside.
The storage unit stores one or more types of identification information in advance,
Selecting one piece of identification information from the one or more types of identification information according to an operation on the operation input unit;
A step of adding the one piece of identification information to the frame or still image generated by the photographing unit at a timing according to a predetermined trigger;
A program to execute.
所定のトリガーに応じたタイミングで前記位置検出部からに位置情報を出力させるステップと、
前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記位置情報を識別情報として付与するステップと、
を実行させるプログラム。A program to be executed by a photographing device, comprising: a photographing unit that generates moving image or still image data by photographing a subject; and a position detection unit that detects the position of the photographing unit and outputs position information. ,
A step of outputting position information from the position detection unit at a timing according to a predetermined trigger,
A step of adding the position information as identification information to the frame or still image generated by the image capturing unit at a timing according to the trigger;
A program to execute.
前記表示部に表示中の動画のフレーム又は静止画に所定の識別情報が付与されている場合に、該所定の識別情報が付与されている旨を示す情報を前記表示部に表示させるステップと、
前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている前記所定の識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替えるステップと、
を実行させるプログラム。A program executed by a display device, comprising: a display unit capable of displaying a moving image or a still image; a display control unit for controlling image display on the display unit; and an operation detection unit for detecting an operation performed from the outside. ,
When predetermined identification information is added to a frame or still image of the moving image being displayed on the display unit, a step of displaying information indicating that the predetermined identification information is added on the display unit,
When the operation detection unit detects an operation of selecting the information, the image display on the display unit is provided with the same identification information as the predetermined identification information given to the frame or still image of the moving image being displayed. The step of switching to the frame or still image of the recorded video,
A program to execute.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017149690 | 2017-08-02 | ||
JP2017149690 | 2017-08-02 | ||
PCT/JP2018/028704 WO2019026919A1 (en) | 2017-08-02 | 2018-07-31 | Image processing system, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6635573B2 JP6635573B2 (en) | 2020-01-29 |
JPWO2019026919A1 true JPWO2019026919A1 (en) | 2020-04-23 |
Family
ID=65232817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019534539A Active JP6635573B2 (en) | 2017-08-02 | 2018-07-31 | Image processing system, image processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6635573B2 (en) |
WO (1) | WO2019026919A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7029118B2 (en) * | 2020-06-12 | 2022-03-03 | 3D Nest株式会社 | Image display method, image display system, and image display program |
CN114945090A (en) * | 2022-04-12 | 2022-08-26 | 阿里巴巴达摩院(杭州)科技有限公司 | Video generation method and device, computer readable storage medium and computer equipment |
JP7343232B1 (en) * | 2022-09-13 | 2023-09-12 | 英晃 菊地 | Information processing method, information processing device, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011059951A (en) * | 2009-09-09 | 2011-03-24 | Toshiba Tec Corp | Trajectory editing method, device, and trajectory editing program |
JP2013156718A (en) * | 2012-01-27 | 2013-08-15 | National Institute Of Advanced Industrial & Technology | Person tracking attribute estimation device, person tracking attribute estimation method and program |
JP2013210843A (en) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | Image processing device |
JP2016018571A (en) * | 2014-07-07 | 2016-02-01 | 株式会社リコー | Image storage and reproduction control unit, image storage and reproduction control method, image storage and reproduction control system, and program |
JP2016194783A (en) * | 2015-03-31 | 2016-11-17 | 株式会社リコー | Image management system, communication terminal, communication system, image management method, and program |
-
2018
- 2018-07-31 WO PCT/JP2018/028704 patent/WO2019026919A1/en active Application Filing
- 2018-07-31 JP JP2019534539A patent/JP6635573B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011059951A (en) * | 2009-09-09 | 2011-03-24 | Toshiba Tec Corp | Trajectory editing method, device, and trajectory editing program |
JP2013156718A (en) * | 2012-01-27 | 2013-08-15 | National Institute Of Advanced Industrial & Technology | Person tracking attribute estimation device, person tracking attribute estimation method and program |
JP2013210843A (en) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | Image processing device |
JP2016018571A (en) * | 2014-07-07 | 2016-02-01 | 株式会社リコー | Image storage and reproduction control unit, image storage and reproduction control method, image storage and reproduction control system, and program |
JP2016194783A (en) * | 2015-03-31 | 2016-11-17 | 株式会社リコー | Image management system, communication terminal, communication system, image management method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2019026919A1 (en) | 2019-02-07 |
JP6635573B2 (en) | 2020-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7344974B2 (en) | Multi-virtual character control method, device, and computer program | |
JP6348741B2 (en) | Information processing system, information processing apparatus, information processing program, and information processing method | |
KR101690955B1 (en) | Method for generating and reproducing moving image data by using augmented reality and photographing apparatus using the same | |
US9392248B2 (en) | Dynamic POV composite 3D video system | |
JP2001008232A (en) | Omnidirectional video output method and apparatus | |
US9509907B2 (en) | Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method | |
JP2010010936A (en) | Image recording apparatus, image recording method, image processing apparatus, image processing method, and program | |
JP6635573B2 (en) | Image processing system, image processing method, and program | |
WO2020042494A1 (en) | Method for screenshot of vr scene, device and storage medium | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
JP5800569B2 (en) | Information processing system, information processing method, information processing program | |
JP5831764B2 (en) | Image display apparatus and program | |
JPWO2018168823A1 (en) | Image processing device and electronic equipment | |
JP2013254151A (en) | Image processing apparatus and image processing method | |
JP2009230635A (en) | Image data generating device, image data generating method and image data generating program | |
JP2019101563A (en) | Information processing apparatus, information processing system, information processing method, and program | |
WO2020017600A1 (en) | Display control device, display control method and program | |
JP5003358B2 (en) | Display device, electronic camera, and control program | |
US20220394178A1 (en) | Communication terminal, image communication system, and method of displaying image | |
JP2020057329A (en) | Guide system | |
JP2008191751A (en) | Arrangement simulation system | |
JP2021168461A (en) | Photographer terminal, information processing unit, information processing method, and computer program | |
JP2013037476A (en) | Observation device, observation method and imaging apparatus | |
JP2020204973A (en) | Information processing device, program, and information processing system | |
JP2019012536A (en) | Information providing method, program, and information providing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190822 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190822 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190822 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6635573 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |