[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPWO2019026919A1 - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JPWO2019026919A1
JPWO2019026919A1 JP2019534539A JP2019534539A JPWO2019026919A1 JP WO2019026919 A1 JPWO2019026919 A1 JP WO2019026919A1 JP 2019534539 A JP2019534539 A JP 2019534539A JP 2019534539 A JP2019534539 A JP 2019534539A JP WO2019026919 A1 JPWO2019026919 A1 JP WO2019026919A1
Authority
JP
Japan
Prior art keywords
image
unit
display
moving image
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019534539A
Other languages
Japanese (ja)
Other versions
JP6635573B2 (en
Inventor
英起 多田
英起 多田
玲志 相宅
玲志 相宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NURVE, INC.
Original Assignee
NURVE, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NURVE, INC. filed Critical NURVE, INC.
Application granted granted Critical
Publication of JP6635573B2 publication Critical patent/JP6635573B2/en
Publication of JPWO2019026919A1 publication Critical patent/JPWO2019026919A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)

Abstract

従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成ことができる画像処理システム等を提供する。画像処理システムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、所定のトリガーに応じて、撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するマーキング処理部と、撮影部により生成された動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成する画像処理部と、画像処理部により生成された画像データを記憶する画像データ記憶部とを備える。Image processing that can generate data that causes an event according to a user's operation or action when displaying an image using an image obtained by shooting a subject as a material without requiring more time and effort than before Provide the system etc. The image processing system includes a photographing unit that generates image data of a moving image or a still image by photographing a subject, and, in response to a predetermined trigger, provides identification information to a frame or a still image included in the moving image generated by the photographing unit. Based on the marking processing unit to give, the image data of the moving image or the still image generated by the photographing unit, the image processing unit that generates the image data of the moving image or the still image, and the image processing unit generated. An image data storage unit that stores image data.

Description

本発明は、被写体を撮影して得られた画像を表示する画像処理システム、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing system, an image processing method, and a program for displaying an image obtained by shooting a subject.

近年、観光業や不動産業などのビジネス分野では、観光地や不動産物件を撮影して得られた画像を様々な技術を用いて加工し、顧客に閲覧させるサービスが行われている。例えば、撮影地点の周囲360°の被写体が写った画像(全天球画像とも呼ばれる)を、ヘッドマウントディスプレイ(以下、「HMD」とも記す)と呼ばれるメガネ型又はゴーグル型の表示装置に表示させ、HMDを装着したユーザの頭の動きに合わせて、画像の表示範囲を変化させることにより、ユーザはあたかも、表示された画像の空間内に入り込んだような感覚を得ることができる。このように、仮想ではあるが現実のような感覚を体験させる技術は、仮想現実(ヴァーチャルリアリティ:VR)とも呼ばれ、VRにより3次元(3D)的に認識される仮想的な空間は、VR空間とも呼ばれる。   2. Description of the Related Art In recent years, in business fields such as tourism and real estate, a service is provided in which an image obtained by photographing a tourist spot or a real estate property is processed using various techniques and is browsed by a customer. For example, an image (also referred to as a celestial sphere image) showing a subject at 360 ° around the shooting point is displayed on a glasses-type or goggles-type display device called a head mounted display (hereinafter, also referred to as “HMD”), By changing the display range of the image in accordance with the movement of the head of the user wearing the HMD, the user can feel as if he / she entered the space of the displayed image. As described above, the technique of making a virtual but real-like feeling experience is also called virtual reality (VR), and a virtual space recognized in a three-dimensional (3D) manner by VR is VR. Also called space.

VRに関連する技術として、例えば特許文献1には、3次元都市VR情報表示を行う都市VR表示部と、2次元地図情報表示を行う地図表示部とを備え、都市VR空間の中で視点位置に関する情報を地図上に、また、表示された地図上の視点を動かすことで都市VR空間に関連する情報をそれぞれリアルタイムに映し出す表示装置が開示されている。   As a technique related to VR, for example, Patent Document 1 includes a city VR display unit that displays three-dimensional city VR information and a map display unit that displays two-dimensional map information, and the viewpoint position in the city VR space. There is disclosed a display device that displays information related to a city VR space in real time by moving information on the map and a viewpoint on the displayed map.

また、特許文献2には、球面全方位カメラにより撮像された球面全方位動画を、ジャイロセンサを有する画像再生装置により再生する際の画像再生方法であって、再生中に、視聴者の視線に応じて、視線先に映像に対応したイベントを起動する画像再生方法が開示されている。   Further, Patent Document 2 discloses an image reproducing method for reproducing a spherical omnidirectional moving image captured by a spherical omnidirectional camera by an image reproducing device having a gyro sensor, and a viewer's line of sight during the reproduction. Accordingly, an image reproduction method for activating an event corresponding to a video at the gaze point is disclosed.

特開2002−351309号公報JP 2002-351309 A 特開2016−134742号公報JP, 2016-134742, A

ところで、3D空間を表現するための画像をCG(コンピュータグラフィックス)技術により作成しようとすると、レンダリングなど演算コストの高い画像処理を行わなければならない。従って、そのような画像処理を実行できる高スペックな専用の機器が必要となってしまう。   By the way, when an image for expressing a 3D space is to be created by a CG (computer graphics) technique, image processing such as rendering, which requires a high calculation cost, must be performed. Therefore, a high-specification dedicated device capable of performing such image processing is required.

これに対し、被写体を撮影して得られた静止画や動画を素材として画像を加工し、人の両眼の視差を利用して立体視させることにより疑似的に3D空間を表現する技術も知られている。或いは、2次元画像を球面上に配置されているように表示(パノラマ表示)することにより、ユーザに3D空間に囲まれているような感覚にさせる技術も知られている。これらのような技術を用いる場合、画像の加工に要する演算コストを大幅に抑制することができる。   On the other hand, there is also known a technology that expresses a 3D space in a pseudo manner by processing an image using a still image or a moving image obtained by shooting a subject as a material and stereoscopically utilizing the parallax of both eyes of a person. Has been. Alternatively, there is also known a technique in which a two-dimensional image is displayed (panoramic display) as if it is arranged on a spherical surface so that the user feels as if he or she were surrounded by a 3D space. When such a technique is used, the calculation cost required for processing an image can be significantly suppressed.

しかしながら、HMD等に3D空間を表示又はパノラマ表示させ、その間になされた操作やユーザの動作に応じて何らかのイベントを発生させるためには、予め画像データに特定の情報を埋め込んでおかなければならない。そのため、被写体を撮影して得られた静止画や動画を素材として用いる場合には、撮影後に、必要な情報を画像データに埋め込むための編集作業が必要となり、多くの時間及び作業コストを要してしまう。   However, in order to display the 3D space or the panorama display on the HMD or the like and generate some event in accordance with the operation performed or the user's operation during that, specific information must be embedded in the image data in advance. Therefore, when a still image or a moving image obtained by shooting a subject is used as a material, an editing work for embedding necessary information in the image data is required after shooting, which requires a lot of time and work cost. Will end up.

本発明は上記に鑑みてなされたものであって、従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成することができる画像処理システム、画像処理方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above, and requires less time and effort than before, and an image obtained by shooting a subject is used as a material for operation and operation by a user when displaying an image. An object is to provide an image processing system, an image processing method, and a program capable of creating data that causes a corresponding event.

上記課題を解決するために、本発明の一態様である画像処理システムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するマーキング処理部と、前記撮影部により生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成する画像処理部と、前記画像処理部により生成された画像データを記憶する画像データ記憶部と、を備えるものである。   In order to solve the above-mentioned problems, an image processing system according to an aspect of the present invention includes a photographing unit that generates image data of a moving image or a still image by photographing a subject, and the photographing unit according to a predetermined trigger. A marking processing unit that adds identification information to a frame or a still image included in the moving image generated by the above, and a moving image or a still image for display based on the image data of the moving image or the still image generated by the photographing unit. And an image data storage unit for storing the image data generated by the image processing unit.

上記画像処理システムは、1種類以上の識別情報を記憶するマーキングリスト記憶部と、外部からなされる操作に従って、前記1種類以上の識別情報の中から1つの識別情報を選択する操作入力部と、をさらに備え、前記マーキング処理部は、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記操作入力部により選択された識別情報を付与しても良い。   The image processing system includes a marking list storage unit that stores one or more types of identification information, and an operation input unit that selects one identification information from the one or more types of identification information according to an operation performed from the outside. Further, the marking processing unit may add the identification information selected by the operation input unit to the frame or the still image generated by the imaging unit at a timing according to the trigger.

上記画像処理システムは、前記撮影部の位置を検出して位置情報を出力する位置検出部をさらに備え、前記マーキング処理部は、前記トリガーに応じたタイミングで前記位置検出部から出力された位置情報を、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記識別情報として付与しても良い。   The image processing system further includes a position detection unit that detects the position of the imaging unit and outputs position information, and the marking processing unit is the position information output from the position detection unit at a timing according to the trigger. May be added as the identification information to the frame or the still image generated by the imaging unit at a timing according to the trigger.

上記画像処理システムにおいて、前記トリガーは、動画の撮影中になされる所定の操作手段への操作であっても良い。   In the image processing system described above, the trigger may be an operation on a predetermined operation unit performed while shooting a moving image.

上記画像処理システムにおいて、前記トリガーは、静止画を撮影する際に操作される操作手段への操作であっても良い。   In the image processing system described above, the trigger may be an operation on an operation unit that is operated when capturing a still image.

上記画像処理システムは、前記画像データ記憶部に記憶された画像データに基づいて、動画又は静止画を表示可能な表示部と、前記表示部における画像表示を制御する表示制御部と、外部からなされる操作を検出する操作検出部と、をさらに備え、前記表示制御部は、前記表示部に表示中の動画のフレーム又は静止画に識別情報が付与されている場合に、該識別情報が付与されている旨を示す情報を前記表示部に表示させ、前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替えても良い。   The image processing system includes an external display unit capable of displaying a moving image or a still image based on the image data stored in the image data storage unit, a display control unit controlling image display on the display unit, and an external display unit. The display control unit further includes an operation detection unit configured to detect an operation to be performed, and the identification information is added to the display control unit when the identification information is added to a frame or a still image of a moving image being displayed on the display unit. Information indicating that the information is displayed on the display unit, and when the operation detection unit detects an operation of selecting the information, the image display on the display unit is added to the frame or still image of the moving image being displayed. You may switch to the frame of a moving image or the still image to which the same identification information as the identification information currently provided is added.

上記画像処理システムにおいて、前記画像データ記憶部は、複数の動画の画像データを記憶し、前記複数の動画の各々は、同じ識別情報が付与されたフレームを含み、前記表示制御部は、前記複数の動画の間で前記表示部における画像表示を切り替えても良い。   In the image processing system, the image data storage unit stores image data of a plurality of moving images, each of the plurality of moving images includes a frame to which the same identification information is added, and the display control unit includes a plurality of the plurality of moving images. The image display on the display unit may be switched between the moving images.

上記画像処理システムにおいて、前記動画は、互いに異なる時刻に生成され、同じ識別情報が付与された複数のフレームを含み、前記表示制御部は、前記複数のフレームの間で前記表示部における画像表示を切り替えても良い。   In the image processing system, the moving image includes a plurality of frames that are generated at different times and are provided with the same identification information, and the display control unit displays an image on the display unit between the plurality of frames. You may switch.

上記画像処理システムにおいて、前記動画は、前記静止画に付与された識別情報と同じ識別情報が付与されたフレームを含み、前記表示制御部は、前記静止画と、前記同じ識別情報が付与されたフレームとの間で前記表示部における画像表示を切り替えても良い。   In the image processing system, the moving image includes a frame having the same identification information as the identification information given to the still image, and the display control unit has the same identification information as the still image. The image display on the display unit may be switched between frames.

上記画像処理システムにおいて、前記画像処理部は、さらに、前記撮影部により生成された前記動画又は静止画の画像データをもとに、3次元的なモデルの画像データを構築すると共に、前記マーキング処理部により前記動画又は静止画に付与された識別情報をもとに、前記モデルの各所に当該位置を表す情報を付与し、前記表示制御部は、前記モデルの各所に付与された前記情報と、前記動画又は静止画に付与された識別情報とに基づき、前記モデルと前記動画又は静止画との間で前記表示部における画像表示を切り替えても良い。   In the above image processing system, the image processing unit may further construct image data of a three-dimensional model based on the image data of the moving image or still image generated by the photographing unit, and perform the marking process. Based on the identification information given to the moving image or the still image by the unit, the information indicating the position is given to each place of the model, the display control unit, the information given to each place of the model, The image display on the display unit may be switched between the model and the moving image or the still image based on the identification information given to the moving image or the still image.

上記画像処理システムは、前記撮影部により生成された前記動画又は静止画の画像データをもとに、3次元的に表示される動画又は静止画の画像データを生成する第2の画像処理部をさらに備えても良い。   The image processing system includes a second image processing unit that generates image data of a moving image or a still image displayed three-dimensionally based on the image data of the moving image or the still image generated by the photographing unit. You may prepare further.

本発明の別の態様である画像処理方法は、被写体を撮影することにより動画又は静止画の画像データを生成するステップ(a)と、所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するステップ(b)と、ステップ(a)において生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成するステップ(c)と、ステップ(c)において生成された画像データを記憶するステップ(d)と、を含むものである。   An image processing method according to another aspect of the present invention includes a step (a) of generating image data of a moving image or a still image by photographing a subject, and a moving image generated by the photographing unit according to a predetermined trigger. Image data of a moving image or a still image for display based on the image data of the moving image or the still image generated in step (a) And a step (d) of storing the image data generated in step (c).

本発明のさらに別の態様であるプログラムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、記憶部と、外部からなされる操作を受け付ける操作入力部と、を備える撮影装置に実行させるプログラムであって、前記記憶部は、1種類以上の識別情報を予め記憶し、前記操作入力部に対する操作に応じて、前記1種類以上の識別情報の中から1つの識別情報を選択するステップと、所定のトリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記1つの識別情報を付与するステップと、を実行させるものである。   A program that is still another aspect of the present invention includes a photographing unit that generates image data of a moving image or a still image by photographing a subject, a storage unit, and an operation input unit that receives an operation performed from the outside. A program to be executed by an imaging device, wherein the storage section stores in advance one or more types of identification information, and one identification information is selected from the one or more types of identification information according to an operation on the operation input section. And a step of assigning the one piece of identification information to the frame or still image generated by the photographing unit at a timing according to a predetermined trigger.

本発明のさらに別の態様であるプログラムは、被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、前記撮影部の位置を検出して位置情報を出力する位置検出部と、を備える撮影装置に実行させるプログラムであって、所定のトリガーに応じたタイミングで前記位置検出部からに位置情報を出力させるステップと、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記位置情報を識別情報として付与するステップと、を実行させるものである。   A program according to yet another aspect of the present invention includes a photographing unit that generates image data of a moving image or a still image by photographing a subject, and a position detection unit that detects the position of the photographing unit and outputs position information. And a step of causing the position detection unit to output position information at a timing according to a predetermined trigger, and the program generated by the imaging unit at a timing according to the trigger. The step of adding the position information as identification information to a frame or a still image is executed.

本発明のさらに別の態様であるプログラムは、動画又は静止画を表示可能な表示部と、前記表示部における画像表示を制御する表示制御部と、外部からなされる操作を検出する操作検出部と、を備える表示装置に実行させるプログラムであって、前記表示部に表示中の動画のフレーム又は静止画に所定の識別情報が付与されている場合に、該所定の識別情報が付与されている旨を示す情報を前記表示部に表示させるステップと、前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている前記所定の識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替えるステップと、を実行させるものである。   A program that is still another aspect of the present invention includes a display unit that can display a moving image or a still image, a display control unit that controls image display on the display unit, and an operation detection unit that detects an operation performed from the outside. A program to be executed by a display device including, when predetermined identification information is added to a frame or still image of a moving image being displayed on the display unit, the predetermined identification information is added Is displayed on the display unit, and when the operation detection unit detects an operation of selecting the information, the image display on the display unit is added to the frame or still image of the moving image being displayed. And a step of switching to a frame of a moving image or a still image to which the same identification information as the predetermined identification information is added.

本発明によれば、被写体を撮影しながら動画又は静止画に識別情報を付与するとともに、これらの動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成するので、画像データに必要な情報を埋め込むための編集作業を別途行う必要がなくなる。従って、従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成することが可能となる。   According to the present invention, identification information is added to a moving image or a still image while shooting a subject, and image data of the moving image or the still image for display is generated based on the image data of the moving image or the still image. Therefore, it is not necessary to separately perform the editing work for embedding necessary information in the image data. Therefore, it is possible to create data for generating an event corresponding to a user's operation or action at the time of displaying an image, using an image obtained by shooting a subject as a material without requiring more time and effort than before. It will be possible.

本発明の第1の実施形態に係る画像処理システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing system which concerns on the 1st Embodiment of this invention. 図1に示す表示装置をユーザに装着させた状態を示す模式図である。It is a schematic diagram which shows the state which mounted the display apparatus shown in FIG. 1 on the user. 図1に示す表示装置の表示部に表示される画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen displayed on the display part of the display device shown in FIG. 本発明の第1の実施形態における撮影装置の動作を示すフローチャートである。3 is a flowchart showing an operation of the image capturing apparatus according to the first embodiment of the present invention. 不動産物件の撮影手順の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the photography procedure of a real estate property. 撮影装置の表示部に表示される画面を例示する模式図である。It is a schematic diagram which illustrates the screen displayed on the display part of an imaging device. 撮影装置の表示部に表示される画面を例示する模式図である。It is a schematic diagram which illustrates the screen displayed on the display part of an imaging device. 撮影装置の表示部に表示される画面を例示する模式図である。It is a schematic diagram which illustrates the screen displayed on the display part of an imaging device. 撮影装置の表示部に表示される画面を例示する模式図である。It is a schematic diagram which illustrates the screen displayed on the display part of an imaging device. 不動産物件の撮影手順の別の例を説明するための模式図である。It is a schematic diagram for demonstrating another example of the photography procedure of a real estate property. 不動産物件の撮影手順の別の例を説明するための模式図である。It is a schematic diagram for demonstrating another example of the photography procedure of a real estate property. 表示装置における画像の切替手順の例を説明するための模式図である。FIG. 9 is a schematic diagram for explaining an example of an image switching procedure in the display device. 表示装置における画像の切替手順の例を説明するための模式図である。FIG. 9 is a schematic diagram for explaining an example of an image switching procedure in the display device. 表示装置における画像の切替手順の例を説明するための模式図である。FIG. 9 is a schematic diagram for explaining an example of an image switching procedure in the display device. 図1に示す表示装置の動作を示すフローチャートである。3 is a flowchart showing the operation of the display device shown in FIG. 1. 表示装置における画像の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the image on a display apparatus. 表示装置における画像の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the image on a display apparatus. 表示装置における画像の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the image on a display apparatus. 表示装置における画像の表示切替タイミングを示すタイミングチャートである。7 is a timing chart showing display switching timing of images in the display device. 表示装置における画像の表示切替タイミングを示すタイミングチャートである。7 is a timing chart showing display switching timing of images in the display device. 表示装置における画像の表示切替タイミングを示すタイミングチャートである。7 is a timing chart showing display switching timing of images in the display device. 表示装置における画像の表示切替タイミングを示すタイミングチャートである。7 is a timing chart showing display switching timing of images in the display device. 本発明の第1の実施形態の変形例における表示装置の動作を示すフローチャートである。7 is a flowchart showing the operation of the display device in the modification of the first embodiment of the present invention. 本発明の第1の実施形態の変形例における表示装置での表示例を示す模式図である。It is a schematic diagram which shows the example of a display in the display device in the modification of the 1st Embodiment of this invention. 本発明の第2の実施形態における撮影装置の動作を示すフローチャートである。8 is a flowchart showing an operation of the image capturing apparatus according to the second embodiment of the present invention. 撮影装置の表示部に表示される画面を例示する模式図である。It is a schematic diagram which illustrates the screen displayed on the display part of an imaging device. 本発明の第3の実施形態における撮影装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the imaging device in the 3rd Embodiment of this invention. 3Dモデルの表示例を示す模式図である。It is a schematic diagram which shows the example of a display of a 3D model. 本発明の第3の実施形態における表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the display apparatus in the 3rd Embodiment of this invention. 本発明の第4の実施形態に係る画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing apparatus which concerns on the 4th Embodiment of this invention.

以下、本発明の実施形態に係る画像処理システム、画像処理方法、及びプログラムについて、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。   Hereinafter, an image processing system, an image processing method, and a program according to embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to these embodiments. In the description of each drawing, the same parts are denoted by the same reference numerals.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像処理システムの概略構成を示すブロック図である。本実施形態に係る画像処理システム1は、被写体を撮影することにより画像を生成し、これらの画像を用いて3次元的な空間を仮想的に表示するシステムである。
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of an image processing system according to the first embodiment of the present invention. The image processing system 1 according to the present embodiment is a system that generates an image by shooting a subject and virtually displays a three-dimensional space using these images.

以下においては、画像処理システム1により撮影する対象(被写体)として、個人の住宅やオフィスビル等の不動産の内部を例示するが、被写体の例はこれに限定されない。例えば、観光地、秘境、大型家具の販売店、建築物の模型など、一般的なデジタル式の光学カメラによって撮影可能な被写体であれば、画像処理システム1における被写体とすることができる。   In the following, as an object (subject) to be imaged by the image processing system 1, the inside of a real estate such as an individual house or office building is exemplified, but the example of the subject is not limited to this. For example, a subject that can be photographed by a general digital optical camera, such as a tourist spot, an unexplored area, a large furniture store, or a model of a building, can be a subject in the image processing system 1.

図1に示すように画像処理システム1は、被写体を撮影して画像データを生成する撮影装置10と、画像データを格納するサーバ20と、被写体の画像を表示する表示装置30とを備える。これらの撮影装置10と、サーバ20と、表示装置30とは、通信ネットワークNを介して接続されている。   As shown in FIG. 1, the image processing system 1 includes a photographing device 10 that photographs a subject to generate image data, a server 20 that stores the image data, and a display device 30 that displays an image of the subject. The imaging device 10, the server 20, and the display device 30 are connected via a communication network N.

通信ネットワークNとしては、例えばインターネット回線や電話回線、LAN、専用線、移動体通信網、WiFi(Wireless Fidelity)、ブルートゥース(登録商標)等の通信回線、又はこれらの組み合わせが用いられる。通信ネットワークNは、有線、無線、又はこれらの組み合わせのいずれであっても良い。   As the communication network N, for example, an Internet line, a telephone line, a LAN, a dedicated line, a mobile communication network, a communication line such as WiFi (Wireless Fidelity), Bluetooth (registered trademark), or a combination thereof is used. The communication network N may be wired, wireless, or a combination thereof.

撮影装置10は、被写体を撮影して画像データを生成する機器であり、デジタルカメラや、専用のアプリケーションをインストールしたスマートフォン等によって実現することができる。本実施形態においては、撮影装置10としてスマートフォンを使用するものとする。詳細には、撮影装置10は、通信部11と、撮影部12と、操作入力部13と、表示部14と、位置検出部15と、記憶部16と、プロセッサ17とを備える。   The image capturing apparatus 10 is a device that captures an image of a subject and generates image data, and can be realized by a digital camera, a smartphone in which a dedicated application is installed, or the like. In this embodiment, a smartphone is used as the image capturing device 10. Specifically, the image capturing device 10 includes a communication unit 11, an image capturing unit 12, an operation input unit 13, a display unit 14, a position detecting unit 15, a storage unit 16, and a processor 17.

通信部11は、撮影装置10を通信ネットワークNに接続し、通信ネットワークNに接続された他の機器との間で情報の送受信を行う。通信部11は、例えばソフトモデム、ケーブルモデム、無線モデム、ADSLモデム等を用いて構成される。   The communication unit 11 connects the imaging device 10 to the communication network N and transmits / receives information to / from other devices connected to the communication network N. The communication unit 11 is configured by using, for example, a soft modem, a cable modem, a wireless modem, an ADSL modem or the like.

ここで、撮影装置10としてデジタルカメラを用いる場合、機種によっては通信機能が設けられていないことがある。そのような場合には、撮影装置10において生成された画像データを、ケーブルを介してパーソナルコンピュータ(PC)に一旦転送し、このPCから通信ネットワークNを介して画像データをサーバ20等にアップロードすれば良い。或いは、撮影装置10から表示装置30に、ケーブルを介して画像データを直接転送しても良い。   Here, when a digital camera is used as the photographing device 10, a communication function may not be provided depending on the model. In such a case, the image data generated in the image capturing apparatus 10 may be temporarily transferred to a personal computer (PC) via a cable, and the image data may be uploaded from the PC to the server 20 or the like via the communication network N. Good. Alternatively, the image data may be directly transferred from the photographing device 10 to the display device 30 via a cable.

撮影部12は、スマートフォンに内蔵され、静止画及び動画の撮影が可能なカメラである。撮影部12に、市販の広角レンズ(又は超広角レンズ)や魚眼レンズを取り付けることにより、画角の広い(例えば180°以上)の画像を取得することも可能である。   The image capturing unit 12 is a camera built in a smartphone and capable of capturing still images and moving images. By attaching a commercially available wide-angle lens (or an ultra-wide-angle lens) or a fish-eye lens to the imaging unit 12, it is possible to acquire an image with a wide angle of view (for example, 180 ° or more).

或いは、撮影部12として、スマートフォンと有線又は無線により外付けされるカメラを用いても良い。例えば、画角が180°以上の2つの超広角レンズを備えた、所謂全天球カメラを撮影部12として用いることにより、撮影装置10の周囲360°の被写体が写った全天球画像を取得することができる。   Alternatively, as the image capturing unit 12, a camera that is externally attached to the smartphone by wire or wireless may be used. For example, by using a so-called omnidirectional camera equipped with two ultra-wide-angle lenses with an angle of view of 180 ° or more as the photographing unit 12, a celestial sphere image in which a subject of 360 ° around the photographing device 10 is captured is obtained. can do.

操作入力部13は、操作ボタンや、表示部14上に設けられたタッチセンサ等の入力デバイスであり、外部からなされる操作を受け付け、該操作に応じた信号をプロセッサ17に入力する。
表示部14は、液晶又は有機EL(エレクトロルミネッセンス)によって形成された表示パネル及び駆動部を含むディスプレイである。
位置検出部15は、GPSモジュールを含み、撮影装置10の位置を検出して位置情報を出力する。
The operation input unit 13 is an input device such as an operation button or a touch sensor provided on the display unit 14, receives an operation performed from the outside, and inputs a signal corresponding to the operation to the processor 17.
The display unit 14 is a display including a display panel and a drive unit formed of liquid crystal or organic EL (electroluminescence).
The position detection unit 15 includes a GPS module, detects the position of the imaging device 10, and outputs position information.

記憶部16は、例えばROMやRAMといった半導体メモリ等のコンピュータ読取可能な記憶媒体である。記憶部16は、オペレーティングシステムプログラム及びドライバプログラムに加えて、各種機能を実行するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶する。詳細には、記憶部16は、各種プログラムを記憶するプログラム記憶部161と、画像データを記憶する画像データ記憶部162と、マーキングリストを記憶するマーキングリスト記憶部163とを含む。   The storage unit 16 is a computer-readable storage medium such as a semiconductor memory such as a ROM or a RAM. The storage unit 16 stores, in addition to the operating system program and the driver program, application programs that execute various functions, various parameters used during the execution of these programs, and the like. Specifically, the storage unit 16 includes a program storage unit 161, which stores various programs, an image data storage unit 162, which stores image data, and a marking list storage unit 163, which stores a marking list.

ここで、マーキングリストとは、画像のコンテンツを識別するための識別情報として画像データに付与されるタグの名称をリスト化して記録したものである。例えば、不動産物件を撮影する場合、「玄関」、「キッチン」、「ベッドルーム」などがタグの名称として用いられる。   Here, the marking list is a list of the names of tags added to the image data as identification information for identifying the content of the image and recorded. For example, when photographing a real estate property, "entrance", "kitchen", "bedroom", etc. are used as the tag names.

プロセッサ17は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部161に記憶された各種プログラムを読み込むことにより、撮影装置10の各部を統括的に制御すると共に、撮影部12により撮影された画像を表示装置30で表示させるための各種処理を実行する。詳細には、プロセッサ17が実行する機能部には、撮影制御部171と、画像処理部172と、マーキングリスト登録部173と、マーキング処理部174とが含まれる。   The processor 17 is configured by using, for example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and reads various programs stored in the program storage unit 161 to comprehensively control each unit of the imaging apparatus 10. At the same time, various processes for displaying the image captured by the image capturing unit 12 on the display device 30 are executed. Specifically, the functional units executed by the processor 17 include a photographing control unit 171, an image processing unit 172, a marking list registration unit 173, and a marking processing unit 174.

撮影制御部171は、操作入力部13から入力される信号に従って、撮影部12における撮影動作を制御する。
画像処理部172は、撮影部12により生成された画像データに対してデモザイキング、ホワイトバランス処理、ガンマ補正等の画像処理を施すことにより、表示用の画像データを生成する。
The photographing control unit 171 controls the photographing operation in the photographing unit 12 according to the signal input from the operation input unit 13.
The image processing unit 172 generates image data for display by performing image processing such as demosaicing, white balance processing, and gamma correction on the image data generated by the photographing unit 12.

マーキングリスト登録部173は、操作入力部13から入力される信号に従って、撮影部12により生成される画像データに識別情報として付与されるタグの名称を、マーキングリストに登録する。   The marking list registration unit 173 registers the name of the tag added as identification information to the image data generated by the photographing unit 12 in the marking list according to the signal input from the operation input unit 13.

マーキング処理部174は、操作入力部13から入力される信号をトリガーとして、マーキングリストに登録されたタグの中から選択されたタグを画像データに付与する処理(以下、マーキング処理という)を実行する。   The marking processing unit 174 executes a process (hereinafter referred to as a marking process) of adding a tag selected from tags registered in the marking list to the image data by using a signal input from the operation input unit 13 as a trigger. .

このような撮影装置10は、被写体を撮影することにより、静止画又は動画の画像データを生成しつつ、所定のトリガーに応じて画像データにタグを付与し、所定のファイル形式で画像データ記憶部162に記憶させる。画像データ記憶部162に蓄積された画像ファイルは、ユーザの操作により、サーバ20に送信される。   Such an image capturing apparatus 10 captures a subject to generate image data of a still image or a moving image, adds a tag to the image data according to a predetermined trigger, and stores the image data in a predetermined file format. 162. The image files stored in the image data storage unit 162 are transmitted to the server 20 by a user operation.

サーバ20は、演算処理能力の高いホストコンピュータによって構成され、そのホストコンピュータにおいて所定のサーバ用プログラムが動作することにより、サーバ機能を発現する。詳細には、サーバ20は、当該サーバ20を通信ネットワークNに接続し、通信ネットワークNに接続された他の機器との間で情報の送受信を行う通信部21と、サーバ20の動作を統括的に制御するプロセッサ22と、撮影装置10からアップロードされた画像データ(動画及び静止画の画像ファイル)を格納する画像データ記憶部23と、被写体である不動産物件に関する情報(不動産物件名や所在地等の情報)を格納する物件情報データベース24とを備える。   The server 20 is composed of a host computer having a high calculation processing capacity, and a server function is exhibited by a predetermined server program operating in the host computer. More specifically, the server 20 connects the server 20 to the communication network N and controls the operation of the server 20 and a communication unit 21 that transmits and receives information to and from other devices connected to the communication network N. Control unit 22, an image data storage unit 23 that stores image data (image files of moving images and still images) uploaded from the image capturing apparatus 10, and information about a real estate property that is a subject (such as real estate property name and location). Property information database 24 for storing information).

プロセッサ22は、画像データ記憶部23に格納された画像データに対して所定の画像処理を行う画像処理部221を有しても良い。具体的には、画像処理部221は、撮影装置10からアップロードされた動画又は静止画の画像データをもとに、3次元的に表示される動画又は静止画の画像データを生成する処理を行う。具体的には、視差を利用した立体視用の画像データを生成する。もっとも、このような画像処理は、必ずしもサーバ20において行う必要はなく、撮影装置10や、後述する表示装置30や、別途設けた画像処理用のコンピュータにおいて行っても良い。   The processor 22 may include an image processing unit 221 that performs predetermined image processing on the image data stored in the image data storage unit 23. Specifically, the image processing unit 221 performs a process of generating image data of a moving image or a still image that is displayed three-dimensionally based on the image data of the moving image or the still image uploaded from the photographing device 10. . Specifically, the image data for stereoscopic viewing using parallax is generated. However, such image processing does not necessarily have to be performed in the server 20, and may be performed in the image capturing device 10, the display device 30 described later, or a separately provided image processing computer.

サーバ20は、撮影装置10からアップロードされた画像に対して必要に応じて画像処理を施し、物件情報と関連付けて記憶すると共に、表示装置30からの要求に従って、画像ファイルを表示装置30に送信する。   The server 20 performs image processing on the image uploaded from the imaging device 10 as necessary, stores the image in association with the property information, and transmits the image file to the display device 30 according to a request from the display device 30. .

表示装置30は、2次元の静止画又は動画を表示することにより、3次元的な仮想空間をユーザに認識させる機器である。表示装置30としては、ユーザの頭部に直接装着して用いられるゴーグル型の専用装置(所謂ヘッドマウントディスプレイ(HMD))を用いても良いし、汎用のスマートフォンに専用のアプリケーションをインストールしたものをゴーグル型のホルダーに取り付けて用いても良い。   The display device 30 is a device that causes a user to recognize a three-dimensional virtual space by displaying a two-dimensional still image or moving image. As the display device 30, a goggle-type dedicated device (so-called head mounted display (HMD)) that is directly worn on the user's head may be used, or a dedicated smartphone installed with a dedicated application may be used. It may be attached to a goggle type holder for use.

表示装置30は、通信部31と、操作入力部32と、表示部33と、向き及び姿勢検出部34と、記憶部35と、プロセッサ36とを備える。通信部31、操作入力部32、表示部33、記憶部35、及びプロセッサ36のハードウェアの構成は、撮影装置10の通信部11、操作入力部13、表示部14、記憶部16、及びプロセッサ17とそれぞれ同様である。   The display device 30 includes a communication unit 31, an operation input unit 32, a display unit 33, an orientation / posture detection unit 34, a storage unit 35, and a processor 36. The hardware configurations of the communication unit 31, the operation input unit 32, the display unit 33, the storage unit 35, and the processor 36 are the communication unit 11, the operation input unit 13, the display unit 14, the storage unit 16, and the processor of the imaging device 10. The same as 17 respectively.

向き及び姿勢検出部34は、ジャイロセンサ及び加速度センサ等の各種センサを含み、表示装置30の向きや姿勢(鉛直軸に対する傾き)を検出する。   The orientation / posture detection unit 34 includes various sensors such as a gyro sensor and an acceleration sensor, and detects the orientation and attitude (inclination with respect to the vertical axis) of the display device 30.

記憶部35は、各種プログラム及びプログラムの実行中に使用される各種パラメータ等を記憶するプログラム記憶部351と、サーバ20からダウンロードした画像データ(動画及び静止画の画像ファイル)を記憶する画像データ記憶部352とを含む。   The storage unit 35 stores a program storage unit 351 that stores various programs and various parameters used during execution of the programs, and image data storage that stores image data (image files of moving images and still images) downloaded from the server 20. And part 352.

プロセッサ36は、プログラム記憶部351に記憶された各種プログラムを読み込むことにより、表示装置30の各部を統括的に制御すると共に、画像データ記憶部352に記憶された画像データを表示部33に表示させるための各種処理を実行する。プロセッサ36が実行する機能部には、表示制御部361及び操作検出部362が含まれる。   The processor 36 comprehensively controls each unit of the display device 30 by reading various programs stored in the program storage unit 351, and causes the display unit 33 to display the image data stored in the image data storage unit 352. Performs various processes for The function unit executed by the processor 36 includes a display control unit 361 and an operation detection unit 362.

表示制御部361は、画像データ記憶部352に記憶された画像データに基づいて、表示部33に動画又は静止画を表示させる。また、表示制御部361は、操作検出部362による検出結果に基づいて、表示部33に表示させる画像の範囲を変化させる制御や、表示部33に表示させる画像を切り替える制御などを行う。   The display control unit 361 causes the display unit 33 to display a moving image or a still image based on the image data stored in the image data storage unit 352. Further, the display control unit 361 performs control such as changing the range of the image displayed on the display unit 33 and control for switching the image displayed on the display unit 33 based on the detection result of the operation detection unit 362.

操作検出部362は、操作入力部32から入力される信号や、向き及び姿勢検出部34から出力される検出信号に従って、表示装置30を装着したユーザが行った操作を検出する。例えば、操作検出部362は、向き及び姿勢検出部34から出力された検出信号に基づいて、表示装置30を装着したユーザの頭部の向きを検出することにより、ユーザが、表示中の画像内のどのオブジェクトに対して視線を向けているのか、或いは、そのオブジェクトに対して所定時間以上視線を向けているかといったことを判別する。   The operation detection unit 362 detects an operation performed by the user wearing the display device 30 according to a signal input from the operation input unit 32 and a detection signal output from the orientation / posture detection unit 34. For example, the operation detection unit 362 detects the orientation of the head of the user who wears the display device 30 based on the detection signal output from the orientation and orientation detection unit 34, so that the user can view the image within the image being displayed. It is determined which of the objects the eyes are directed to, or whether the objects are directed toward the object for a predetermined time or more.

図2は、表示装置30をユーザに装着させた状態を示す模式図である。図3は、表示部33に表示される画面の一例を示す模式図である。表示装置30としてスマートフォンを用いる場合、表示部33が設けられた側をユーザに向けてホルダー37に取り付けることにより、ユーザはハンズフリーで表示部33を見ることができる。ホルダー37の内部には、ユーザの左右の眼に対応する位置に2つのレンズがそれぞれ取り付けられている。ユーザに画像を立体視させる場合には、図3に示すように、表示部33内の2つの領域33a、33bに、視差が設けられた2つの画像をそれぞれ表示させる。ユーザは、ホルダー37内の2つのレンズを通して領域33a、33bを見ることにより、領域33a、33bに映った画像を3次元的に認識することができる。   FIG. 2 is a schematic diagram showing a state in which the user is wearing the display device 30. FIG. 3 is a schematic diagram showing an example of a screen displayed on the display unit 33. When a smartphone is used as the display device 30, the user can view the display unit 33 hands-free by mounting the display unit 33 on the holder 37 with the side provided with the display unit 33 facing the user. Inside the holder 37, two lenses are attached at positions corresponding to the left and right eyes of the user. When allowing the user to stereoscopically view an image, as shown in FIG. 3, two images with parallax are displayed in two areas 33a and 33b in the display unit 33, respectively. By viewing the areas 33a and 33b through the two lenses in the holder 37, the user can three-dimensionally recognize the images reflected in the areas 33a and 33b.

次に、画像処理システム1の動作について説明する。
図4は、本発明の第1の実施形態における撮影装置10の動作を示すフローチャートである。図5は、本発明の第1の実施形態における撮影手順の一例を説明するための模式図である。図6〜図9は、撮影装置10の表示部14に表示される画面を例示する模式図である。このうち、図6はマーキングリスト登録画面を示し、図7は撮影モードの選択画面を示し、図8は動画の撮影画面を示し、図9は静止画の撮影画面を示す。図10A及び図10Bは、撮影装置10による撮影手順の別の例を説明するための模式図である。
Next, the operation of the image processing system 1 will be described.
FIG. 4 is a flowchart showing the operation of the image capturing apparatus 10 according to the first embodiment of the present invention. FIG. 5 is a schematic diagram for explaining an example of a shooting procedure according to the first embodiment of the present invention. 6 to 9 are schematic views illustrating screens displayed on the display unit 14 of the image capturing apparatus 10. Of these, FIG. 6 shows a marking list registration screen, FIG. 7 shows a shooting mode selection screen, FIG. 8 shows a moving image shooting screen, and FIG. 9 shows a still image shooting screen. 10A and 10B are schematic diagrams for explaining another example of the photographing procedure by the photographing device 10.

以下においては、一例として、図5に示す物件(マンションの1室)を撮影するものとして説明する。撮影する順序は特に限定されないが、ここでは、ユーザが、動画撮影ルートR1〜R4に沿って移動しながら4回動画撮影を行い、静止画撮影ポイントP1〜P11において11回静止画を撮影するものとする。   In the following, as an example, it is assumed that the property (one room in the apartment) shown in FIG. 5 is photographed. The order of shooting is not particularly limited, but here, the user shoots a moving image four times while moving along the moving image shooting routes R1 to R4, and shoots a still image 11 times at the still image shooting points P1 to P11. And

撮影装置10において撮影部12を起動することにより、図6に示すマーキングリスト登録画面が表示部14に表示され、以下に説明する一連の撮影動作が開始される。   By activating the image capturing unit 12 in the image capturing apparatus 10, the marking list registration screen shown in FIG. 6 is displayed on the display unit 14, and a series of image capturing operations described below is started.

まず、ステップS100において、撮影装置10は、操作入力部13から入力される信号に従って、マーキングリストを登録する。詳細には、例えば図5に示す不動産物件を撮影する場合、撮影を行うユーザは、間取り図を参照し、図6に示す入力欄14aに、各部屋の名称(例えば、玄関、キッチン、ベッドルーム等)をテキストで入力し、OKボタン14bをタップする。撮影装置10は、OKボタン14bに対する操作を検知すると、入力欄14aに入力されたテキストをタグの名称としてマーキングリスト14cに登録する。なお、タグの名称として入力するテキストは、部屋の名称に限定されない。要は、撮影を行うユーザ自身が、被写体(不動産物件)のどの位置(部分)を撮影しているのかを識別できる情報であれば良い。   First, in step S100, the imaging device 10 registers a marking list according to a signal input from the operation input unit 13. In detail, for example, when photographing the real estate property shown in FIG. 5, the user taking the photograph refers to the floor plan, and enters the name of each room (for example, the entrance, the kitchen, the bedroom) in the input field 14a shown in FIG. Etc.) in the text and tap the OK button 14b. When detecting the operation on the OK button 14b, the imaging apparatus 10 registers the text input in the input field 14a in the marking list 14c as the tag name. The text input as the tag name is not limited to the room name. In short, any information that allows the user himself / herself to photograph can identify which position (portion) of the subject (real estate property) is photographed.

続くステップS101において、撮影装置10は、撮影モードが動画に設定されているか否かを判断する。詳細には、図7に示す撮影モード選択画面において、撮影モードを示すアイコン14eのうち、「写真(静止画)」と「動画」のいずれが選択されているかを判断する。「動画」のアイコンが選択されている場合、撮影モードは動画に設定されており(ステップS101:Yes)、処理はステップS102に移行する。   In subsequent step S101, the image capturing apparatus 10 determines whether or not the shooting mode is set to moving image. Specifically, on the shooting mode selection screen shown in FIG. 7, it is determined which of “photograph (still image)” and “moving image” is selected from the icons 14e indicating the shooting mode. When the "moving image" icon is selected, the shooting mode is set to moving image (step S101: Yes), and the process proceeds to step S102.

ステップS102において、撮影装置10は、マーキングリスト14cに対する選択操作があったか否かを判定する。詳細には、図7に示すマーキングリスト14cに表示されたタグの名称のいずれかに対して所定の操作(例えばタップ操作)がなされたか否かを判定する。   In step S102, the imaging device 10 determines whether or not a selection operation has been performed on the marking list 14c. Specifically, it is determined whether or not a predetermined operation (for example, tap operation) is performed on any of the tag names displayed in the marking list 14c shown in FIG.

マーキングリスト14cに対する選択操作を検知しない場合(ステップS102:No)、処理はステップS101に戻る。他方、マーキングリスト14cに対する選択操作を検知した場合(ステップS102:Yes)、撮影装置10は、選択されたタグを、動画撮影開始時点におけるタグとして登録する(ステップS103)。   When the selection operation on the marking list 14c is not detected (step S102: No), the process returns to step S101. On the other hand, when the selection operation on the marking list 14c is detected (step S102: Yes), the imaging device 10 registers the selected tag as a tag at the start of moving image shooting (step S103).

なお、動画撮影開始時点におけるタグの登録は、動画撮影開始直後に手動で行っても良い(後述するステップS105〜S107参照)。その場合には、ステップS102、S103を省略しても良い。   Note that the tag registration at the start of moving image shooting may be manually performed immediately after the start of moving image shooting (see steps S105 to S107 described later). In that case, steps S102 and S103 may be omitted.

続くステップS104において、撮影装置10は、操作入力部13に対する所定の操作(例えば撮影ボタンへの操作)に応じて動画撮影を開始する。これにより、図8に例示する動画撮影画面が表示部14に表示され、撮影部12により取り込まれた画像14dが動画として記録される。ユーザは、動画を撮影しながら、不動産物件内を移動する。   In subsequent step S104, the image capturing apparatus 10 starts capturing a moving image in response to a predetermined operation on the operation input unit 13 (e.g., operation on a capture button). As a result, the moving image shooting screen illustrated in FIG. 8 is displayed on the display unit 14, and the image 14d captured by the shooting unit 12 is recorded as a moving image. The user moves inside the real estate property while shooting a video.

ステップS105において、撮影装置10は、マーキングリスト14cに対する選択操作があったか否かを判定する(ステップS105)。詳細には、図8に示すマーキングリスト14cに表示されたタグの名称のいずれかに対して所定の操作(例えばタップ操作)がなされたか否かを判定する。   In step S105, the imaging device 10 determines whether or not a selection operation has been performed on the marking list 14c (step S105). Specifically, it is determined whether or not a predetermined operation (for example, tap operation) is performed on any of the tag names displayed in the marking list 14c shown in FIG.

マーキングリスト14cに対する選択操作を検知しない場合(ステップS105:No)、撮影装置10はそのまま待機する。他方、マーキングリスト14cに対する選択操作を検知した場合(ステップS105:Yes)、撮影装置10は続いて、登録ボタン14fへの操作(例えばタップ操作)を検知したか否かを判定する(ステップS106)。図8は、「ベッドルーム」のタグが選択されている状態を示している。登録ボタン14fへの操作を検知しない場合(ステップS106:No)、処理はステップS105に戻る。   When the selection operation on the marking list 14c is not detected (step S105: No), the imaging device 10 stands by as it is. On the other hand, when the selection operation on the marking list 14c is detected (step S105: Yes), the imaging apparatus 10 subsequently determines whether or not an operation (for example, a tap operation) on the registration button 14f is detected (step S106). . FIG. 8 shows a state where the tag “bedroom” is selected. When the operation on the registration button 14f is not detected (step S106: No), the process returns to step S105.

他方、登録ボタン14fへの操作を検知した場合(ステップS106:Yes)、撮影装置10は、マーキング処理を行う(ステップS107)。即ち、登録ボタン14fが操作されたタイミングで生成されたフレームの画像データに対して、ステップS105において選択されたタグを付与する。タグを付与するフレームは、登録ボタン14fが操作されている間に生成されたフレームのみであっても良いし、登録ボタン14fが操作されている間に生成されたフレームを含む所定範囲のフレームであっても良い。   On the other hand, when the operation on the registration button 14f is detected (step S106: Yes), the imaging device 10 performs the marking process (step S107). That is, the tag selected in step S105 is added to the image data of the frame generated at the timing when the registration button 14f is operated. The frame to which the tag is added may be only a frame generated while the registration button 14f is operated, or a frame in a predetermined range including the frame generated while the registration button 14f is operated. It may be.

ユーザは、動画撮影を行いながら随時マーキング処理(タグの選択及び付与)を行う。それにより、動画撮影ルートR1の複数箇所で撮影されたフレームに、選択されたタグT1〜T8が付与される。   The user performs marking processing (selection and addition of tags) at any time while shooting a moving image. As a result, the selected tags T1 to T8 are added to the frames captured at a plurality of points on the moving image capturing route R1.

ここで、ユーザは、マーキング処理を行うタグを、マーキングリストの中から任意に選択することができる。そのため、互いに異なる動画を構成するフレーム同士や、同じ動画の中でも撮影した位置(時刻)が異なるフレーム同士に、同じタグが付与されることがある。例えば、図5に示すように、動画撮影ルートR1においてタグT3(例えば、「廊下」のタグ)を選択してマーキング処理を行い、別の動画撮影ルートR4において同じタグT3を選択してマーキング処理を行うと、2つの動画の中に、同じタグT3が付与されたフレームが存在することになる。このように、同じタグT3が付与されたフレーム同士は、付与されたタグT3をキーとして紐付けられる。   Here, the user can arbitrarily select the tag to be subjected to the marking process from the marking list. Therefore, the same tag may be given to frames that form different moving images or to frames that have different shooting positions (time) even in the same moving image. For example, as shown in FIG. 5, a tag T3 (for example, a “corridor” tag) is selected in the moving image shooting route R1 to perform marking processing, and the same tag T3 is selected in another moving image shooting route R4 to perform marking processing. By doing so, a frame with the same tag T3 exists in the two moving images. In this way, the frames to which the same tag T3 is attached are linked with the attached tag T3 as a key.

続くステップS108において、撮影装置10は、動画撮影の終了操作(例えば撮影ボタンの再押下操作)を検知したか否かを判定する。動画撮影の終了操作を検知しない場合(ステップS108:No)、処理はステップS105に戻る。他方、動画撮影の終了操作を検知した場合(ステップS108:Yes)、処理は後述するステップS109に移行する。例えば、図5に示すように、動画撮影ルートR1の撮影が終了し、次の動画撮影ルートR2で撮影を行うときには、動画撮影ルートR1の終点(リビング)において動画撮影を一旦終了し(ステップS108:Yes)、動画撮影ルートR2の始点(キッチンの入口)に移動して動画撮影を再開する(ステップS109:No、S101:Yes)。なお、動画の撮影順はこれに限定されず、任意の順序で行って良い。   In subsequent step S108, the imaging device 10 determines whether or not a moving image shooting end operation (for example, a shooting button re-pressing operation) has been detected. When the ending operation of moving image shooting is not detected (step S108: No), the process returns to step S105. On the other hand, when the end operation of moving image shooting is detected (step S108: Yes), the process proceeds to step S109 described later. For example, as shown in FIG. 5, when the shooting of the moving image shooting route R1 is finished and the next moving image shooting route R2 is taken, the moving image shooting is temporarily stopped at the end point (living room) of the moving image shooting route R1 (step S108). : Yes), moving to the start point (entrance of the kitchen) of the video shooting route R2 and restarting video shooting (step S109: No, S101: Yes). The order of shooting the moving images is not limited to this, and the shooting may be performed in any order.

ステップS109において、撮影装置10は、動画又は静止画の撮影動作を終了するか否かを判定する。例えば、撮影装置10の電源がオフにされる、所定の終了操作がなされるといった場合、撮影動作はそのまま終了する(ステップS109:Yes)。他方、撮影動作を終了しない場合(ステップS109:No)、処理はステップS101に戻る。   In step S109, the imaging device 10 determines whether to end the shooting operation of the moving image or the still image. For example, when the power of the image capturing apparatus 10 is turned off or a predetermined ending operation is performed, the image capturing operation ends as it is (step S109: Yes). On the other hand, when the shooting operation is not finished (step S109: No), the process returns to step S101.

また、ステップS101において、撮影モードが動画に設定されていない場合(ステップS101:No)、即ち、撮影モードが静止画モードの場合、図9に例示する静止撮影画面が表示部14に表示される。   In step S101, when the shooting mode is not set to the moving image (step S101: No), that is, when the shooting mode is the still image mode, the still shooting screen illustrated in FIG. 9 is displayed on the display unit 14. .

撮影装置10は、マーキングリスト14cへの選択操作を検知したか否かを判定する(ステップS111)。マーキングリスト14cに対する選択操作を検知しない場合(ステップS111:No)、処理はステップS109に移行する。   The imaging device 10 determines whether or not a selection operation to the marking list 14c has been detected (step S111). If the selection operation on the marking list 14c is not detected (step S111: No), the process proceeds to step S109.

他方、マーキングリスト14cへの選択操作を検知した場合(ステップS111:Yes)、撮影装置10は続いて、登録ボタン14fへの操作(例えばタップ操作)を検知したか否かを判定する(ステップS112)。なお、静止画の撮影モードにおいては、登録ボタン14fが撮影ボタンを兼ねている。登録ボタン14f(撮影ボタン)への操作を検知しない場合(ステップS112:No)、処理はステップS109に移行する。   On the other hand, when the selection operation to the marking list 14c is detected (step S111: Yes), the imaging device 10 subsequently determines whether or not the operation (for example, tap operation) to the registration button 14f is detected (step S112). ). In the still image shooting mode, the registration button 14f also serves as a shooting button. When the operation on the registration button 14f (photographing button) is not detected (step S112: No), the process proceeds to step S109.

他方、登録ボタン14f(撮影ボタン)への操作を検知した場合(ステップS112:Yes)、撮影装置10は、静止画を撮影すると共に、当該静止画にマーキング処理を行う。詳細には、登録ボタン14f(撮影ボタン)がタップ操作されたタイミングで撮影部12により取り込まれた画像14dを静止画として記録すると共に、その画像データに、選択されたタグを付与する。その後、処理はステップS109に移行する。   On the other hand, when the operation on the registration button 14f (shooting button) is detected (step S112: Yes), the shooting device 10 shoots a still image and performs marking processing on the still image. Specifically, the image 14d captured by the image capturing unit 12 at the timing when the registration button 14f (shooting button) is tapped is recorded as a still image, and the selected tag is added to the image data. After that, the process proceeds to step S109.

ここで、ステップS111〜S113に示すように、静止画モードの場合、ユーザは、マーキングリストから任意のタグを選択しないと静止画を撮影することができない。言い換えると、全ての静止画にはいずれかのタグが付与されることになる。従って、全ての静止画は、動画を構成するいずれかのフレームと、同一のタグによって紐付けられる。例えば、動画撮影ルートR1の撮影中にタグT5(「ベランダ」のタグ)によるマーキング処理が行われ、その後、タグT5を選択して静止画撮影ポイントP6の静止画撮影が行われたとする。この場合、動画のうちタグT5が付与されたフレームと、タグT5が付与された静止画とが、同じタグT5をキーとして紐付けられる。   Here, as shown in steps S111 to S113, in the still image mode, the user cannot take a still image unless he or she selects any tag from the marking list. In other words, any tag is added to all still images. Therefore, all the still images are associated with one of the frames forming the moving image by the same tag. For example, it is assumed that the tag T5 (tag of "veranda") is subjected to the marking process during the shooting of the moving image shooting route R1, and then the tag T5 is selected to shoot the still image of the still image shooting point P6. In this case, the frame to which the tag T5 is added in the moving image and the still image to which the tag T5 is added are linked using the same tag T5 as a key.

このような撮影動作により生成された画像データは、画像データ記憶部162に一旦記憶された後、通信ネットワークNを介してサーバ20にアップロードされ、必要に応じて画像処理が施される。   The image data generated by such a shooting operation is once stored in the image data storage unit 162, then uploaded to the server 20 via the communication network N, and subjected to image processing as necessary.

ここで、動画撮影ルートR1〜R4における動画の撮影順序と、静止画撮影ポイントP1〜P11における静止画の撮影順序は、特に限定されない。例えば、全ての動画の撮影が終わった後で、静止画の撮影を開始しても良いし、その逆であってもよい。或いは、動画の撮影と静止画の撮影を交互に行っても良い。例えば、動画撮影ルートR1における動画撮影が終了した後、静止画撮影ポイントP5、P6、P7の静止画撮影を行い、その後で、動画撮影ルートR2における動画撮影を行う、といった具合である。   Here, the shooting order of moving images on the moving image shooting routes R1 to R4 and the shooting order of still images at the still image shooting points P1 to P11 are not particularly limited. For example, the shooting of a still image may be started after the shooting of all moving images is completed, or vice versa. Alternatively, shooting of a moving image and shooting of a still image may be performed alternately. For example, after the moving image shooting on the moving image shooting route R1 is completed, the still image shooting at the still image shooting points P5, P6, and P7 is performed, and then the moving image shooting on the moving image shooting route R2 is performed.

上述したように、本実施形態においては、予めマーキングリストを登録し、登録ボタン14fに対する操作をトリガーとして、マーキングリストの中から選択されたタグを動画又は静止画の画像データに付与する。そのため、撮影順を気にすることなく動画及び静止画の撮影を行っても、撮影中に行われたマーキング処理により、動画内の所望のフレーム同士、又は動画内の所望のフレームと静止画とを紐付けることができる。従って、任意の画像(フレーム)同士の関係が整理された動画及び静止画の画像データを取得することができる。   As described above, in the present embodiment, the marking list is registered in advance, and the tag selected from the marking list is added to the image data of the moving image or the still image by using the operation of the registration button 14f as a trigger. Therefore, even if a moving image and a still image are taken without worrying about the order of shooting, the marking process performed during the shooting causes the desired frames in the moving image to be separated from each other, or the desired frame and the still image in the moving image. Can be tied. Therefore, it is possible to acquire image data of moving images and still images in which the relationship between arbitrary images (frames) is organized.

上記説明においては、動画撮影を複数回行ったが(図5参照)、動画撮影は1回のみであっても良い。例えば、図10Aに示すように、動画撮影ルートR20に沿って、一筆書きのように全ての部屋を巡りながら動画撮影を行い、随時マーキング処理を行う(タグT21〜T27参照)。その後、ユーザ所望の箇所で、静止画の撮影兼マーキング処理を行っても良い(静止画撮影ポイントP21〜P26及びタグT22〜T27参照)。   In the above description, the moving image shooting is performed a plurality of times (see FIG. 5), but the moving image shooting may be performed only once. For example, as shown in FIG. 10A, moving image shooting is performed along a moving image shooting route R20 while going around all the rooms like a single stroke, and marking processing is performed at any time (see tags T21 to T27). After that, the still image shooting / marking process may be performed at a place desired by the user (see still image shooting points P21 to P26 and tags T22 to T27).

ここで、動画撮影ルートR20中の異なる箇所に、同じタグによるマーキング処理が行われることがある。例えば図10Aにおいては、玄関からリビング&キッチンに入った直後に、タグT21によるマーキング処理が行われ、洋室(2)から再びリビング&キッチンに入ったところで、再度、タグT21によるマーキング処理が行われているため、撮影時刻が異なるフレームが互いに紐付けられていることになる。後で詳しく説明するが、タグは、表示装置30に表示された画像を切り替える際の目印として用いられる。従って、図10Aに示すように、動画撮影ルートR20に沿って撮影された動画において、同じタグT21が付与されたフレームが異なる箇所に存在するということは、図10Bに示すように、時系列順に動画を表示して方向Aに進むか、フレームをスキップして方向Bに進むかの選択肢が得られるということになる。   Here, marking processing using the same tag may be performed at different points in the moving image shooting route R20. For example, in FIG. 10A, the marking process by the tag T21 is performed immediately after entering the living room / kitchen from the entrance, and the marking process by the tag T21 is performed again when entering the living room / kitchen from the western room (2) again. Therefore, frames having different shooting times are linked to each other. As will be described later in detail, the tag is used as a mark when switching the images displayed on the display device 30. Therefore, as shown in FIG. 10A, in the moving image shot along the moving image shooting route R20, the frames to which the same tag T21 is attached are present at different positions, as shown in FIG. 10B, in chronological order. This means that there is an option of displaying a moving image and proceeding in the direction A or skipping a frame and proceeding in the direction B.

また、動画を撮影する際には、1つの動画撮影ルートを一度通るだけでなく、同じルートを往復しても良い。この場合、往路と復路とにおいて、同じ位置で同じタグによるマーキング処理を行うことにより、位置は同じであっても向きの異なる画像を取得することができる。つまり、視野の広い画像を得ることができる。従って、画角が180°以上の広角レンズを用い、同じルートを往復して動画撮影を行うことにより、全天球画像に相当する動画を取得することも可能である。   Further, when shooting a moving image, not only one moving image shooting route may be passed once but also the same route may be reciprocated. In this case, by performing marking processing with the same tag at the same position on the forward path and the return path, it is possible to acquire images in different directions even at the same position. That is, an image with a wide field of view can be obtained. Therefore, by using a wide-angle lens with an angle of view of 180 ° or more and reciprocating the same route to shoot a moving image, it is possible to obtain a moving image corresponding to a spherical image.

次に、撮影装置10により撮影された画像を表示装置30において表示する動作について説明する。以下においては、ある不動産物件において撮影された2つの動画IV1、IV2及び2つの静止画IS1、IS2を表示する場合を説明する。表示装置30において画像を表示する際には、これらの動画及び静止画の画像ファイルをサーバ20から順次、又はまとめてダウンロードする。画像ファイルを順次ダウンロードする場合には、画像表示を早く開始できるという利点がある。これに対し、全ての画像ファイルを予めダウンロードしておく場合には、画像の表示切替がスムーズになるという利点がある。いずれの方法にするかについては、通信環境その他の条件に応じて適宜選択すれば良い。本実施形態においては、前者とする。Next, the operation of displaying the image photographed by the photographing device 10 on the display device 30 will be described. In the following, a case of displaying two moving images I V1 and I V2 and two still images I S1 and I S2 captured in a real estate property will be described. When displaying images on the display device 30, these moving image and still image image files are sequentially or collectively downloaded from the server 20. When sequentially downloading image files, there is an advantage that image display can be started quickly. On the other hand, when all the image files are downloaded in advance, there is an advantage that the display switching of the images becomes smooth. Which method should be used may be appropriately selected according to the communication environment and other conditions. In the present embodiment, it is the former.

図11A〜図11Cは、表示装置30における画像の表示切替動作を説明するための模式図である。図11A〜図11Cは、動画IV1、IV2及び静止画IS1の間における画像の表示切替動作を示している。11A to 11C are schematic diagrams for explaining the image display switching operation in the display device 30. 11A to 11C show an image display switching operation between the moving images I V1 , I V2 and the still image I S1 .

図11A〜図11Cにおいては、動画IV1、IV2及び静止画IS1のいずれも、撮影装置10の周囲360°の被写体が写った全天球画像であるとしている。また、表示範囲Vは、これらの動画IV1、IV2及び静止画IS1のうち、表示装置30の表示部33(各表示領域33a、33b)に一度に表示される範囲を示している。動画IV1、IV2及び静止画IS1に対する表示範囲Vの位置は、向き及び姿勢検出部34の検出結果(即ち、表示装置30を装着したユーザの頭部の向きや姿勢)に応じて変化する。つまり、画像を鑑賞するユーザにとっては、頭部を動きに合わせて、視界に入る景色が変化することになる。In FIGS. 11A to 11C, it is assumed that all of the moving images I V1 , I V2 and the still image I S1 are spherical images in which a subject at 360 ° around the photographing device 10 is captured. Further, the display range V indicates a range of the moving images I V1 , I V2 and the still image I S1 that are displayed at one time on the display unit 33 (each display area 33a, 33b) of the display device 30. The position of the display range V with respect to the moving images I V1 and I V2 and the still image I S1 changes according to the detection result of the orientation and orientation detection unit 34 (that is, the orientation and orientation of the head of the user wearing the display device 30). To do. In other words, for the user who views the image, the scenery that comes into view changes as the head moves.

表示範囲Vは、一般的な人の視野角度を考慮して決定すると良い。例えば、静止している人の一般的な視野角度は左右に180°程度(片側90°程度)であるが、運動(例えば歩行)している場合には、視野の中心領域以外(左右の端部など)の視認性が低下する。そのため、動画の表示中には、180°よりも狭い範囲(例えば150°)を表示範囲Vとして設定し、静止画の表示中には、180°若しくはそれよりも広い範囲を表示範囲Vとして設定するなど、適宜調整しても良い。言い換えると、動画の場合には、撮影者の移動方向を中心とする所定範囲のみを撮影し、静止画の場合には、ユーザが立ち止まって振り返り、周りを見渡すといった動作を考慮して、全天球画像を撮影するなど、動画と静止画とで撮影方法を変えても良い。それにより、トータルの画像ファイルのサイズを抑制しつつ、ユーザにとって自然に画像を鑑賞することができるコンテンツを作成することができる。   The display range V may be determined in consideration of the viewing angle of a general person. For example, a general view angle of a person who is stationary is about 180 ° to the left and right (about 90 ° on one side), but when exercising (for example, walking), other than the central region of the view (left and right edges). Visibility of parts). Therefore, a range narrower than 180 ° (for example, 150 °) is set as the display range V while displaying a moving image, and 180 ° or a wider range is set as the display range V while displaying a still image. It may be adjusted as appropriate. In other words, in the case of a moving image, only a predetermined range centered on the moving direction of the photographer is photographed, and in the case of a still image, the user can stop, look back, and look around. The shooting method may be different between moving images and still images, such as shooting a spherical image. As a result, it is possible to create a content that allows the user to naturally view the image while suppressing the total size of the image file.

表示装置30は、動画IV1を表示部33に表示するときには、動画IV1の画像ファイルを読み込んで再生する一方(図11Aの実線参照)、動画IV2及び静止画IS1の画像ファイルは非表示にしておく(図11Aの破線参照)。その後、静止画IS1を表示するときには、静止画IS1の画像ファイルを読み込み、動画IV1の再生を一時停止して静止画IS1に表示を切り替える(図11B参照)。次に動画IV1の再生を再開するときには、動画IV1の一時停止を解除して、静止画ISを非表示にして、動画IV1に表示を切り替える(図11A参照)。これにより、先に動画IV1を一時停止したタイミングから動画IV1の表示を再開することができる。When displaying the moving image I V1 on the display unit 33, the display device 30 reads and reproduces the image file of the moving image I V1 (see the solid line in FIG. 11A), while the image files of the moving image I V2 and the still image I S1 are not read. It is displayed (see the broken line in FIG. 11A). Then, when displaying the still image I S1 reads the image file of the still image I S1, switches the display to the still image I S1 to pause playback of the video I V1 (see FIG. 11B). Next, when the reproduction of the moving image I V1 is resumed, the pause of the moving image I V1 is released, the still image I S is hidden, and the display is switched to the moving image I V1 (see FIG. 11A). As a result, the display of the moving image I V1 can be resumed from the timing at which the moving image I V1 was temporarily stopped.

また、動画IV1から動画IV2に表示を切り替えるときには、動画IV2の画像ファイルを読み込んで再生を開始すると共に(図11Cの実線参照)、動画IV1の再生を一時停止する。その後、動画IV1の画像ファイルを閉じる(図11Cの破線参照)。これは、ユーザが、動画IV1から動画IV2に表示を切り替えた後で、再び動画IV1の同じ箇所から再生させるとは限らないからである。Further, when switching the display from the video I V1 video I V2 is (see the solid line in FIG. 11C) starts the reproduction reads the image file of the moving image I V2, pause video playback I V1. Then, the image file of the moving image I V1 is closed (see the broken line in FIG. 11C). This is because the user does not always reproduce the same part of the moving picture I V1 after switching the display from the moving picture I V1 to the moving picture I V2 .

図12は、表示装置30の動作を示すフローチャートである。図13〜図15は、表示装置30における画像の表示例を示す模式図である。以下においては、表示装置30の表示部33に表示され、視差を利用した立体視により3次元的に認識される動画又は静止画のことを、VR動画又はVR静止画ともいう。表示部30においてVR動画又はVR静止画を表示することをVR表示ともいう。   FIG. 12 is a flowchart showing the operation of the display device 30. 13 to 15 are schematic diagrams showing display examples of images on the display device 30. Hereinafter, a moving image or a still image that is displayed on the display unit 33 of the display device 30 and is three-dimensionally recognized by stereoscopic viewing using parallax is also referred to as a VR moving image or a VR still image. Displaying a VR moving image or a VR still image on the display unit 30 is also referred to as VR display.

まず、ステップS200において、表示装置30は、サーバ20から読み込んだ動画の画像ファイルを開き、VR動画の再生を行う。例えば不動産物件の画像を表示する場合には、図13に例示するように、玄関に入ったシーンからスタートする動画(例えば図5に示す動画撮影ルートR1の動画)を最初に表示するなど、予め設定しておく。   First, in step S200, the display device 30 opens the image file of the moving image read from the server 20 and reproduces the VR moving image. For example, in the case of displaying an image of a real estate property, as illustrated in FIG. 13, a moving image starting from a scene entering the entrance (for example, a moving image of the moving image capturing route R1 shown in FIG. 5) is first displayed, and the like. Set it.

続くステップS201において、表示装置30は、動画の再生を開始してから現在に至るまでの時間(再生時間)、言い換えると、動画のフレーム番号を取得する。   In subsequent step S201, the display device 30 acquires the time (reproduction time) from the start of the reproduction of the moving image to the present time, in other words, the frame number of the moving image.

続くステップS202において、表示装置30は、現在の再生時間が、マーキングされたフレームの再生時間内であるか否かを判定する。つまり、現在表示しているフレームにタグが付与されているか否かを判定する。マーキングされたフレームの再生時間内でない場合(ステップS202:No)、処理はステップS219に移行する。   In subsequent step S202, the display device 30 determines whether or not the current reproduction time is within the reproduction time of the marked frame. That is, it is determined whether or not a tag is added to the currently displayed frame. If it is not within the reproduction time of the marked frame (step S202: No), the process proceeds to step S219.

ステップS219において、表示装置30は画像の表示を終了するか否かを判断する。例えば、表示装置30の電源がオフにされる、画像の表示を中止させるための所定の入力操作が行われる、表示中のVR動画が最終フレームに至るといった場合には、画像の表示を終了すると判断する。画像の表示を終了すると判断した場合(ステップS219:Yes)、表示装置30は画像の表示を終了する。他方、画像の表示を終了しないと判定した場合(ステップS219:No)、処理はステップS200に戻る。   In step S219, the display device 30 determines whether to end displaying the image. For example, when the display device 30 is powered off, a predetermined input operation for stopping the display of the image is performed, or the VR moving image being displayed reaches the final frame, the image display is terminated. to decide. When it is determined that the image display is to be ended (step S219: Yes), the display device 30 ends the image display. On the other hand, when it is determined that the display of the image is not ended (step S219: No), the process returns to step S200.

他方、現在の再生時間が、マーキングされたフレームの再生時間内である場合(ステップS202:Yes)、表示装置30は、表示中のフレームと紐付けられた画像(紐付き先の画像)を検索する(ステップS203)。つまり、表示中のフレームに付与されたタグと同じタグが付与された静止画、又は動画内のフレームを検索する。   On the other hand, when the current reproduction time is within the reproduction time of the marked frame (step S202: Yes), the display device 30 searches for an image associated with the frame being displayed (image to be associated with). (Step S203). That is, the frame in the still image or the moving image to which the same tag as the tag attached to the frame being displayed is added is searched.

続くステップS204において、表示装置30は、紐付き先の画像が、現在表示中の画像(動画)ファイル内に含まれるか否かを判定する。紐付き先の画像が現在表示中の画像ファイル内に含まれない場合(ステップS204:No)、表示装置30は、紐付き先の画像を含む画像ファイルをサーバ20から読み込む(ステップS205)。   In subsequent step S204, the display device 30 determines whether or not the image of the linked destination is included in the image (moving image) file currently being displayed. When the image of the link destination is not included in the image file currently displayed (step S204: No), the display device 30 reads the image file including the image of the link destination from the server 20 (step S205).

続いて、表示装置30は、現在表示中の画像(フレーム)に付与されているタグを画面に表示する(ステップS206)。例えば図13は、「応接室」の名称を付けられたタグTが表示されているシーンを示している。或いは、テキストが記載されたタグTの代わりに、アイコン状のタグT’を表示しても良い。   Subsequently, the display device 30 displays the tag attached to the image (frame) currently displayed on the screen (step S206). For example, FIG. 13 shows a scene in which a tag T named “Reception Room” is displayed. Alternatively, an icon-shaped tag T'may be displayed instead of the tag T in which the text is described.

続くステップS207において、表示装置30は、表示されたタグが選択されたか否かを判定する。例えば、操作検出部362により、ユーザがタグに対して所定時間以上視線を向けたことが検出された、或いは、操作入力部32に対して所定の操作(例えば操作ボタンの押下)が行われた、といった場合に、タグが選択されたと判定される。   In subsequent step S207, display device 30 determines whether the displayed tag is selected. For example, the operation detection unit 362 detects that the user has directed his / her line of sight to the tag for a predetermined time or more, or a predetermined operation (for example, pressing an operation button) has been performed on the operation input unit 32. , Etc., it is determined that the tag is selected.

表示されたタグが選択されなかった場合(ステップS207:No)、処理はステップS219に移行する。この場合、画像の表示を終了する判断がなされない限り(ステップS219:No)、処理はステップS200に戻り、動画が引き続き再生される。例えば、図13に示すシーンにおいて「応接室」のタグTが選択されなかった場合、VR動画はそのまま再生され続け、廊下の奥にあるリビングルーム(図14参照)までの道筋が連続的に表示される。   When the displayed tag is not selected (step S207: No), the process proceeds to step S219. In this case, unless it is determined that the display of the image should be ended (step S219: No), the process returns to step S200, and the moving image is continuously reproduced. For example, in the scene shown in FIG. 13, if the tag T of “reception room” is not selected, the VR video continues to be played back, and the route to the living room (see FIG. 14) in the back of the corridor is continuously displayed. To be done.

他方、表示されたタグが選択された場合(ステップS207:Yes)、表示装置30は、現在表示中のVR動画の再生を一時停止させる(ステップS208)。   On the other hand, when the displayed tag is selected (step S207: Yes), the display device 30 temporarily stops the reproduction of the VR moving image currently being displayed (step S208).

続くステップS209において、表示装置30は、ステップS205において読み込まれた画像ファイルが動画であるか否かを判定する。画像ファイルが動画でない場合、即ち静止画である場合(ステップS209:No)、表示装置30は、読み込まれた画像ファイルをもとに、表示部33にVR静止画を表示させる(ステップS210)。   In subsequent step S209, display device 30 determines whether or not the image file read in step S205 is a moving image. When the image file is not a moving image, that is, when it is a still image (step S209: No), the display device 30 displays the VR still image on the display unit 33 based on the read image file (step S210).

続くステップS211において、表示装置30は、VR静止画が表示された画面に、終了タグを表示させ、終了タグが選択されたか否かを判定する(ステップS212)。タグが選択されたか否かの判定方法は、ステップS207と同様である。   In subsequent step S211, the display device 30 displays the end tag on the screen on which the VR still image is displayed, and determines whether or not the end tag is selected (step S212). The method of determining whether or not a tag has been selected is the same as in step S207.

終了タグが選択されなかった場合(ステップS212:No)、処理はステップS210に戻る。この場合、同じVR静止画が表示され続ける。他方、終了タグが選択された場合(ステップS212:Yes)、表示装置30は、VR静止画を非表示とし(ステップS213)、処理はステップS219に移行する。この場合、画像の表示を終了する判断がなされない限り(ステップS219:No)、処理はステップS200に戻り、一時停止されていた動画(ステップS208参照)が引き続き再生される。   When the end tag is not selected (step S212: No), the process returns to step S210. In this case, the same VR still image continues to be displayed. On the other hand, when the end tag is selected (step S212: Yes), the display device 30 hides the VR still image (step S213), and the process proceeds to step S219. In this case, unless it is determined to end the display of the image (step S219: No), the process returns to step S200, and the temporarily stopped moving image (see step S208) is continuously reproduced.

また、ステップS205で読み込まれた画像ファイルが動画である場合(ステップS209:Yes)、表示装置30は、読み込まれた画像ファイルのうち、ステップS207で選択されたタグと紐付けられたフレームにジャンプする(ステップS214)。そして、表示部33における表示を、紐付き先のVR動画に切り替える(ステップS215)。その後、処理はステップS219(ステップS219:No)を経てステップS200に戻り、ジャンプしたフレームからVR動画の再生が行われる。   If the image file read in step S205 is a moving image (step S209: Yes), the display device 30 jumps to the frame associated with the tag selected in step S207 among the read image files. Yes (step S214). Then, the display on the display unit 33 is switched to the VR moving image of the linked destination (step S215). After that, the process returns to step S200 via step S219 (step S219: No), and the VR moving image is reproduced from the jumped frame.

また、ステップS204において、表示中のフレームの紐付き先の画像が、表示中の画像(動画)ファイルに含まれる場合(ステップS204:Yes)、表示装置30は、表示中の画像(フレーム)に付与されているタグを画面に表示する(ステップS216)。   Further, in step S204, when the image of the linked destination of the frame being displayed is included in the image (moving image) file being displayed (step S204: Yes), the display device 30 adds the image to the image (frame) being displayed. The displayed tags are displayed on the screen (step S216).

続くステップS217において、表示装置30は、表示されたタグが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、ステップS207と同様である。   In subsequent step S217, display device 30 determines whether or not the displayed tag is selected. The method of determining whether or not a tag has been selected is the same as in step S207.

タグが選択された場合(ステップS217:Yes)、表示装置30は、紐付き先のフレームにスキップする(ステップS218)。その後、処理はステップS200に移行し、スキップしたフレームからVR動画の再生が行われる。   When the tag is selected (step S217: Yes), the display device 30 skips to the frame to which the string is attached (step S218). After that, the process proceeds to step S200, and the VR moving image is reproduced from the skipped frame.

以上説明した表示装置30の動作を、図16〜図18Bを参照しながら、より詳しく説明する。図16〜図18Bは、表示装置30における画像の表示切替タイミングを示すタイミングチャートである。   The operation of the display device 30 described above will be described in more detail with reference to FIGS. 16 to 18B. 16 to 18B are timing charts showing display switching timings of images on the display device 30.

図16に示すように、動画IV1の再生開始後、時刻t1に至ると、タグM1が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM1は動画IV1とは異なる画像ファイル(静止画IS1)と紐付けられているため(ステップS204:No)、静止画IS1の画像ファイルの読み込みが行われる(ステップS205)。しかしながら、画面に表示されたタグM1が選択されない場合(ステップS206、S207:No)、そのまま動画IV1の表示が継続される(ステップS201)。As shown in FIG. 16, after the reproduction of the moving image I V1 is started, when the time t1 is reached, the reproduction time of the frame with the tag M1 is reached (step S202: Yes). Since this tag M1 is associated with an image file (still image I S1 ) different from the moving image I V1 (step S204: No), the image file of the still image I S1 is read (step S205). However, when the tag M1 displayed on the screen is not selected (steps S206 and S207: No), the display of the moving image I V1 is continued (step S201).

他方、動画IV1の再生開始後、時刻t2に至ると、タグM2が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM2は動画IV1とは異なる画像ファイル(静止画IS2)と紐付けられているため(ステップS204:No)、静止画IS2の画像ファイルの読み込みが行われる(ステップS205)。そして、画面に表示されたタグM2が選択されると(ステップS206、S207:Yes)、動画IV1の表示が一時停止される(ステップS208)。そして、ステップS205において読み込まれた画像ファイルが静止画IS2の画像ファイルであるため(ステップS209:No)、この静止画IS2のVR表示が行われる(ステップS210)。その後、画面に表示された終了タグが時刻t4において選択されると(ステップS211、S212:Yes)、それまで表示されていた静止画(静止画IS2)が非表示とされ(ステップS213)、動画IV1の表示が再開される(ステップS219:No、S200)。このとき、動画IV1は、時刻t3において一時停止された続きから再生される。On the other hand, when the time t2 is reached after the reproduction of the moving image I V1 is started, the reproduction time of the frame with the tag M2 is reached (step S202: Yes). Since this tag M2 is associated with an image file (still image I S2 ) different from the moving image I V1 (step S204: No), the image file of the still image I S2 is read (step S205). Then, when the tag M2 displayed on the screen is selected (steps S206 and S207: Yes), the display of the moving image I V1 is temporarily stopped (step S208). Then, since the image file read in step S205 is the image file of the still image I S2 (step S209: No), VR display of this still image I S2 is performed (step S210). Then, when the end tag displayed on the screen is selected at time t4 (steps S211, S212: Yes), the still image (still image I S2 ) that has been displayed until then is hidden (step S213), The display of the moving image I V1 is restarted (step S219: No, S200). At this time, the moving image I V1 is reproduced from the continuation paused at the time t3.

また、図17に示すように、動画IV1の再生開始後、時刻t5に至ると、タグM3が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM3は動画IV1とは異なる画像ファイル(動画IV2)と紐付けられているため(ステップS204:No)、動画IV2の画像ファイルの読み込みが行われる(ステップS205)。そして、画面に表示されたタグM3が選択されると(ステップS206、S207:Yes)、動画IV1の表示が停止され(ステップS208)、タグM3の紐付き先である動画IV2のフレームにジャンプする(ステップS209:Yes、S214)。そして、表示部33における表示が、動画IV2に切り替えられ、ジャンプしたフレームからVR動画の再生が行われる(ステップS219:No、S200)。この後、動画IV1の画像ファイルは一旦閉じられる。動画IV2の再生開始後、タグM4が付与されたフレームの再生時間に至った後の処理についても同様である。In addition, as shown in FIG. 17, after the reproduction of the moving image I V1 is started, when the time t5 is reached, the reproduction time of the frame with the tag M3 is reached (step S202: Yes). Since this tag M3 is associated with an image file (moving image I V2 ) different from the moving image I V1 (step S204: No), the image file of the moving image I V2 is read (step S205). Then, when the tag M3 displayed on the screen is selected (steps S206 and S207: Yes), the display of the moving image I V1 is stopped (step S208) and the frame of the moving image I V2 to which the tag M3 is linked is jumped to. (Step S209: Yes, S214). Then, the display on the display unit 33 is switched to the moving image I V2 , and the VR moving image is reproduced from the jumped frame (step S219: No, S200). After that, the image file of the moving image I V1 is temporarily closed. The same applies to the processing after the reproduction time of the frame with the tag M4 is reached after the reproduction of the moving image I V2 is started.

また、図18Aに示すように、動画IV1を構成するフレームに対し、時刻t6及びt9近傍のフレームにタグM5が付与され、時刻t7及びt8近傍のフレームにタグM6が付与されているとする。この場合、図18Bに示すように、動画IV1の再生開始後、時刻t6に至ると、タグM5が付与されたフレームの再生時間となる(ステップS202:Yes)。このタグM5は、同じ動画IV1の画像ファイル内のフレームと紐付けられている(ステップS204:Yes)。そのため、タグM5が表示され(ステップS216)、このタグM5が選択されると(ステップS217:Yes)、表示部33における表示が紐付き先のフレーム、即ち、同じタグM5が付与された時刻t9からのフレームにスキップし(ステップS218)、そこから動画IV1の再生が行われる(ステップS200)。Further, as shown in FIG. 18A, it is assumed that tags M5 are attached to frames near times t6 and t9 and tags M6 are attached to frames near times t7 and t8 with respect to the frames forming the moving image I V1. . In this case, as shown in FIG. 18B, when the time t6 is reached after the reproduction of the moving image I V1 is started, the reproduction time of the frame with the tag M5 is reached (step S202: Yes). This tag M5 is associated with the frame in the image file of the same moving image I V1 (step S204: Yes). Therefore, the tag M5 is displayed (step S216), and when this tag M5 is selected (step S217: Yes), the display on the display unit 33 is the frame of the tied destination, that is, from the time t9 when the same tag M5 is added. To the frame (step S218), and the moving image I V1 is reproduced from there (step S200).

以上説明したように、本発明の第1の実施形態によれば、ユーザは、動画及び静止画によって構成される3次元的な空間内をリアルな感覚で移動することができる。   As described above, according to the first embodiment of the present invention, the user can move in a three-dimensional space composed of a moving image and a still image with a real feeling.

また、本発明の第1の実施形態によれば、従来よりも時間及び手間を要することなく、被写体を撮影することにより得られた画像を素材として、画像表示の際にユーザによる操作や動作に応じたイベントを発生させるデータを作成し、このデータに基づいて画像表示を行うことが可能となる。   Further, according to the first embodiment of the present invention, an image obtained by shooting a subject is used as a material and requires less time and effort than before, and can be operated or operated by a user when displaying an image. It is possible to create data for generating a corresponding event and display an image based on this data.

詳細には、本発明の第1の実施形態によれば、予め設定したタグによりマーキングしながら動画又は静止画を撮影するので、VR表示するための画像データを生成する際に、画像の表示切替等のイベントを発生させるために必要な情報を画像データに埋め込むための編集作業を改めて行う必要がなくなる。従って、従来よりも低い作業コストで、短時間に、VR表示のための画像データを生成することが可能となる。   More specifically, according to the first embodiment of the present invention, a moving image or a still image is captured while marking with a preset tag, so that when image data for VR display is generated, image display switching is performed. It becomes unnecessary to perform the editing work for embedding the information necessary for generating the event in the image data. Therefore, it is possible to generate image data for VR display in a short time at a lower work cost than the conventional one.

また、本発明の第1の実施形態によれば、予め設定したタグによりマーキングしながら被写体を撮影するので、画像の表示順序を考慮して撮影順序を決定したり、撮影後に時系列を整えるための編集作業を行ったりする必要がなくなる。つまり、ユーザは、所望の順序で、又はやり易い順序で被写体を撮影すれば良い。   Further, according to the first embodiment of the present invention, since the subject is photographed while marking with the preset tag, the photographing order is determined in consideration of the display order of the images, and the time series is adjusted after the photographing. There is no need to edit the file. That is, the user may shoot the subjects in a desired order or an order that is easy to perform.

また、本発明の第1の実施形態によれば、タグによって紐付けられた画像間で表示を切り替える際に、次に表示される可能性のある画像の画像ファイルの読み込みを開始した後で、画面にタグを表示するので、画像の切替えをスムーズに行うことができる。   Also, according to the first embodiment of the present invention, when switching the display between the images linked by the tags, after starting to read the image file of the image that may be displayed next, Since the tag is displayed on the screen, it is possible to switch images smoothly.

また、本発明の第1の実施形態によれば、被写体を撮影することによって得られた2次元の動画や静止画を用いて、3D空間をVR表示するための画像データを生成するので、3DCGを作成するときのような高度且つ演算コストの高い画像処理を行う必要がなくなる。従って、高スペックな機器を使用して長時間作業をする必要もなくなり、VR表示のための画像データを従来よりも低コスト且つ簡単に作成することが可能となる。   In addition, according to the first embodiment of the present invention, image data for VR display of the 3D space is generated using a two-dimensional moving image or a still image obtained by shooting a subject, and thus 3DCG is used. There is no need to perform high-level and high-cost image processing as in the case of creating. Therefore, it is not necessary to work for a long time using a high-spec device, and it is possible to easily create image data for VR display at a lower cost than before.

次に、本発明の第1の実施形態の変形例について説明する。図19は、第1の実施形態の変形例における表示装置30の動作を示すフローチャートである。図21は、本変形例における表示装置30での表示例を示す模式図である。上記第1の実施形態においては、一連の画像表示を行う際に、動画の表示から開始することとしたが、動画と静止画の表示の順はこれに限定されるものではない。   Next, a modification of the first embodiment of the present invention will be described. FIG. 19 is a flowchart showing the operation of the display device 30 in the modification of the first embodiment. FIG. 21 is a schematic diagram showing a display example on the display device 30 in the present modification. In the first embodiment, when displaying a series of images, the display of moving images is started, but the order of displaying moving images and still images is not limited to this.

まず、ステップS230において、表示装置30は、サーバ20から読み込んだ画像ファイルが、動画の画像ファイルであるか否かを判定する。画像ファイルが動画の画像ファイルである場合(ステップS230:Yes)、処理はステップS200に移行する。その後のステップS200〜S215及びS216〜S218は、上記第1の実施形態と同様である。ただし、ステップS209において、読み込んだ画像ファイルが静止画の画像ファイルである場合(ステップS209:No)、処理はステップS231に移行する。   First, in step S230, the display device 30 determines whether the image file read from the server 20 is a moving image file. When the image file is a moving image file (step S230: Yes), the process proceeds to step S200. Subsequent steps S200 to S215 and S216 to S218 are the same as those in the first embodiment. However, if the read image file is a still image file in step S209 (step S209: No), the process proceeds to step S231.

また、ステップS240において、表示装置30は、表示中のVR動画(ステップS202:No、ステップS207:No)、又は、表示切替(ステップS215参照)をしたVR動画が終了したか否か、即ち、最終フレームに至ったか否かを判定する。そして、VR動画がまだ終了していない場合(ステップS240:No)、処理はステップS200に移行する。他方、VR動画が終了した場合(ステップS240:Yes)、処理はステップS241に移行する。   In step S240, the display device 30 determines whether or not the VR moving image being displayed (step S202: No, step S207: No) or the VR moving image whose display has been switched (see step S215) has ended, that is, It is determined whether the final frame has been reached. Then, if the VR moving image is not yet finished (step S240: No), the process proceeds to step S200. On the other hand, when the VR moving image has ended (step S240: Yes), the process proceeds to step S241.

ステップS241において、表示装置30はさらに、画像の表示を終了するか否かを判断する。例えば、表示装置30の電源がオフにされる、或いは、画像の表示を中止させるための所定の入力操作が行われるといった場合、画像の表示を終了すると判断する。画像の表示を終了すると判断した場合(ステップS241:Yes)、表示装置30は画像の表示を終了する。他方、画像の表示を終了しないと判断した場合(ステップS241:No)、処理はステップS230に戻る。   In step S241, the display device 30 further determines whether to end the display of the image. For example, when the power of the display device 30 is turned off, or when a predetermined input operation for stopping the display of the image is performed, it is determined that the display of the image is ended. When it is determined that the image display is to be ended (step S241: Yes), the display device 30 ends the image display. On the other hand, when it is determined that the display of the image is not ended (step S241: No), the process returns to step S230.

他方、サーバ20から読み込んだ画像ファイルが動画の画像ファイルでない場合(ステップS230:No)、即ち、静止画の画像ファイルである場合、表示装置30は、当該画像ファイルに基づき、静止画を画面に表示させる(ステップS231)。例えば、図20は、ある建物の入り口を入った所にある玄関ホールと、入口付近から見える3つの会議室のドアとが写った静止画を示している。   On the other hand, if the image file read from the server 20 is not a moving image file (step S230: No), that is, if it is a still image file, the display device 30 displays the still image on the screen based on the image file. It is displayed (step S231). For example, FIG. 20 shows a still image showing the entrance hall at the entrance of a building and the doors of the three conference rooms visible from the vicinity of the entrance.

続く、ステップS232において、表示装置30は、VR静止画が表示された画面に、当該VR静止画の画像ファイルと紐付けられた画像ファイルにジャンプするためのタグを表示させる。例えば、図20に示す静止画の画像ファイルに対し、3つの会議室の内部をそれぞれ表す3つの画像ファイルが紐付けられている場合、表示装置30は、3つの会議室の名称(例えば、A会議室、B会議室、及びC会議室)をそれぞれ表すタグT(a)、T(b)、T(c)を画面に表示させる。なお、各会議室の内部を表す画像ファイルは、動画の画像ファイルであっても良いし、静止画の画像ファイルであっても良い。また、会議室の内部を表す画像ファイルに対し、上記第1の実施形態と同様にマーキング処理が施されていても良い。   Subsequently, in step S232, the display device 30 displays a tag for jumping to the image file associated with the image file of the VR still image on the screen on which the VR still image is displayed. For example, when the three image files respectively representing the insides of the three conference rooms are linked to the image file of the still image shown in FIG. 20, the display device 30 displays the names of the three conference rooms (for example, A Tags T (a), T (b), and T (c) representing the conference room, the B conference room, and the C conference room, respectively, are displayed on the screen. The image file representing the inside of each conference room may be a moving image file or a still image file. Further, the marking process may be performed on the image file representing the inside of the conference room as in the first embodiment.

続くステップS233において、表示装置30は、画面に表示されたタグのうちのいずれかが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、ステップS207と同様である。   In subsequent step S233, display device 30 determines whether any of the tags displayed on the screen has been selected. The method of determining whether or not a tag has been selected is the same as in step S207.

いずれのタグも選択されない場合(ステップS233:No)、表示装置30はVR静止画の表示を継続する(ステップS231)。他方、表示されたタグのいずれかが選択された場合(ステップS233:Yes)、表示装置30は、選択されたタグに対応する画像ファイルをサーバ20から読み込む(ステップS234)。その後、処理はステップS241に移行する。その後、画像の表示を終了しない場合(ステップS241:No)、表示装置30は、ステップS234において読み込んだ画像ファイルが動画の画像ファイルであるか否かを判定し(ステップS230)、判定結果に応じて、動画又は静止画を表示する(ステップS200、S231)。その後のステップは上述したとおりである。   When no tag is selected (step S233: No), the display device 30 continues to display the VR still image (step S231). On the other hand, when any of the displayed tags is selected (step S233: Yes), the display device 30 reads the image file corresponding to the selected tag from the server 20 (step S234). After that, the process proceeds to step S241. After that, when the display of the image is not ended (step S241: No), the display device 30 determines whether the image file read in step S234 is a moving image file (step S230), and according to the determination result. Then, the moving image or the still image is displayed (steps S200 and S231). Subsequent steps are as described above.

以上説明したように本変形例によれば、ユーザは、静止画に表示されるタグを選択することにより、画像によって構成される3次元的な空間内の所望の場所に移動することができる。   As described above, according to this modification, the user can move to a desired place in a three-dimensional space formed by images by selecting a tag displayed on a still image.

なお、上記変形例においては、タグの選択後(ステップS233:Yes)に、選択されたタグに対応する画像ファイルを読み込むこととしたが、タグが選択される前に、表示された全てのタグに対応する画像ファイルを読み込むこととしても良い。この場合、タグが選択されてから、選択されたタグに対応する画像ファイルに基づく画像が表示されるまでの時間を短縮することが可能となる。   In the above modification, the image file corresponding to the selected tag is read after the tag is selected (step S233: Yes), but all the tags displayed before the tag is selected. The image file corresponding to may be read. In this case, it is possible to shorten the time from when the tag is selected until the image based on the image file corresponding to the selected tag is displayed.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態に係る画像処理システムの構成は、全体として第1の実施形態と同様であり(図1参照)、撮影装置10の動作の一部が第1の実施形態と異なっている。
(Second embodiment)
Next, a second embodiment of the present invention will be described. The configuration of the image processing system according to this embodiment is the same as that of the first embodiment as a whole (see FIG. 1), and a part of the operation of the image capturing apparatus 10 is different from that of the first embodiment.

図21は、本発明の第2の実施形態における撮影装置10の動作を示すフローチャートである。図22は、撮影装置10の表示部14に表示される画面を例示する模式図である。   FIG. 21 is a flowchart showing the operation of the image capturing apparatus 10 according to the second embodiment of the present invention. FIG. 22 is a schematic diagram illustrating a screen displayed on the display unit 14 of the image capturing apparatus 10.

まず、ステップS300において、撮影装置10は、撮影モードが動画に設定されているか否かを判断する。撮影モードが動画に設定されている場合(ステップS300:Yes)、撮影装置10は、操作入力部13に対する所定の操作(例えば撮影ボタンへの操作)に応じて動画撮影を開始する(ステップS301)。これにより、撮影部12により取り込まれた画像が動画として記録される。   First, in step S300, the imaging device 10 determines whether or not the shooting mode is set to moving image. When the shooting mode is set to the moving image (step S300: Yes), the shooting device 10 starts the moving image shooting according to a predetermined operation (for example, an operation on the shooting button) on the operation input unit 13 (step S301). . As a result, the image captured by the photographing unit 12 is recorded as a moving image.

続くステップS302において、撮影装置10は、位置検出部15から出力された位置情報を取得し、動画撮影開始位置として登録する。   In subsequent step S302, the image capturing apparatus 10 acquires the position information output from the position detection unit 15 and registers it as the moving image shooting start position.

続くステップS303において、撮影装置10は、登録ボタン14f(図22参照)への操作(例えばタップ操作)を検知したか否かを判定する(ステップS303)。登録ボタン14fへの操作を検知しない場合(ステップS303:No)、撮影装置10は動画の撮影を継続しながら登録ボタンへの操作を待機する。   In the following step S303, the imaging device 10 determines whether or not an operation (for example, a tap operation) on the registration button 14f (see FIG. 22) is detected (step S303). When the operation to the registration button 14f is not detected (step S303: No), the imaging device 10 waits for the operation to the registration button while continuing to shoot the moving image.

他方、登録ボタン14fへの操作を検知した場合(ステップS303:Yes)、撮影装置10は、位置検出部15から出力された位置情報を取得し、画像の識別情報として登録する(ステップS304)。詳細には、マーキング処理部174が、登録ボタン14fへの操作を検知したタイミングで生成されたフレームを識別する情報(例えばフレーム番号)と位置情報とを対応づけるリストを作成し、記憶部16に記憶させておく。或いは、生成されたフレームの画像データに対し、位置情報を直接埋め込んでも良い。ここで登録される位置情報は、ステップS302において登録された初期位置に対する相対位置としても良い。   On the other hand, when the operation to the registration button 14f is detected (step S303: Yes), the imaging device 10 acquires the position information output from the position detection unit 15 and registers it as the image identification information (step S304). Specifically, the marking processing unit 174 creates a list in which information (for example, a frame number) for identifying a frame generated at the timing when the operation of the registration button 14f is detected is associated with the position information, and is stored in the storage unit 16. Remember. Alternatively, the position information may be directly embedded in the image data of the generated frame. The position information registered here may be a relative position with respect to the initial position registered in step S302.

続くステップS305において、撮影装置10は、動画撮影の終了操作(例えば撮影ボタンの再押下操作)を検知したか否かを判定する。動画撮影の終了操作を検知しない場合(ステップS305:No)、処理はステップS303に戻る。他方、動画撮影の終了操作を検知した場合(ステップS305:Yes)、処理はステップS306に移行する。   In subsequent step S305, the image capturing apparatus 10 determines whether or not a moving image capturing end operation (for example, a shooting button re-pressing operation) has been detected. When the ending operation of moving image shooting is not detected (step S305: No), the process returns to step S303. On the other hand, when the end operation of moving image shooting is detected (step S305: Yes), the process proceeds to step S306.

ステップS306において、撮影装置10は、位置検出部15から出力された位置情報を取得し、動画撮影終了位置として登録する。   In step S306, the imaging device 10 acquires the position information output from the position detection unit 15 and registers it as the moving image shooting end position.

ステップS307において、撮影装置10は、動画又は静止画の撮影動作を終了するか否かを判定する。例えば、撮影装置10の電源がオフにされる、所定の終了操作がなされるといった場合、撮影動作はそのまま終了する(ステップS307:Yes)。他方、撮影動作を終了しない場合には(ステップS307:No)には、処理はステップS300に戻る。   In step S307, the imaging device 10 determines whether to end the moving image or still image shooting operation. For example, when the power of the image capturing apparatus 10 is turned off or a predetermined ending operation is performed, the image capturing operation ends as it is (step S307: Yes). On the other hand, if the shooting operation is not to be ended (step S307: No), the process returns to step S300.

また、ステップS300において、撮影モードが動画に設定されていない場合(ステップS300:No)、即ち、撮影モードが静止画モードの場合、撮影装置10は、静止画の撮影ボタンへの操作を検知したか否かを判定する(ステップS311)。撮影ボタンへの操作を検知した場合(ステップS311:Yes)、撮影装置10は静止画撮影を行う(ステップ312)。これにより、撮影部12により取り込まれた画像が静止画として記録される。   Further, in step S300, when the shooting mode is not set to the moving image (step S300: No), that is, when the shooting mode is the still image mode, the shooting device 10 detects the operation of the still image shooting button. It is determined whether or not (step S311). When the operation of the shooting button is detected (step S311: Yes), the shooting device 10 shoots a still image (step 312). As a result, the image captured by the photographing unit 12 is recorded as a still image.

続くステップS313において、撮影装置10は、位置検出部15から出力された位置情報を取得し、画像の識別情報として登録する(ステップS313)。詳細には、マーキング処理部174が、ステップS312において撮影された静止画の画像データに対し、位置情報を付与する。このときの位置情報は、ステップS302において登録された初期値に対する相対位置としても良い。
その後、処理はステップS307に移行する。
In the following step S313, the imaging device 10 acquires the position information output from the position detection unit 15 and registers it as image identification information (step S313). Specifically, the marking processing unit 174 adds position information to the image data of the still image captured in step S312. The position information at this time may be a relative position with respect to the initial value registered in step S302.
After that, the process proceeds to step S307.

このようにして撮影された動画及び静止画は、それぞれの画像データに付与された位置情報を識別情報として、互いに紐付けられる。識別情報として用いる場合、位置情報はピンポイントである必要はなく、例えば、ある画像データに付与された位置情報を中心とする所定範囲(例えば数10cm〜数メートル)に、別の画像データの位置情報が含まれる場合、それらの画像には同じ識別情報が付与されているものと判断される。   The moving image and still image captured in this manner are linked to each other by using the position information given to each image data as identification information. When used as the identification information, the position information does not need to be pinpoint, and for example, the position of another image data is within a predetermined range (for example, several tens of cm to several meters) centered on the position information given to certain image data. When the information is included, it is determined that the images have the same identification information.

以上説明したように、本発明の第2の実施形態によれば、自動で検出された位置情報によって画像をマーキングするので、撮影時に手動でマーキング処理を行う手間を省くことができる。   As described above, according to the second embodiment of the present invention, the image is marked with the position information that is automatically detected, so that it is possible to save the trouble of manually performing the marking process at the time of shooting.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態に係る画像処理システムの構成は、全体として第1の実施形態と同様であり(図1参照)、本実施形態においては、撮影装置10により生成した動画又は静止画の画像データをもとに、3Dモデルの画像データを構築する点で、上記第1及び第2の実施形態と異なっている。
(Third Embodiment)
Next, a third embodiment of the present invention will be described. The configuration of the image processing system according to this embodiment is the same as that of the first embodiment as a whole (see FIG. 1), and in this embodiment, image data of a moving image or a still image generated by the image capturing apparatus 10 is also included. In addition, it differs from the first and second embodiments in that 3D model image data is constructed.

図23は、本発明の第3の実施形態における撮影装置10の動作を示すフローチャートであり、3Dモデルの画像データを構築するための画像を取得するための動作を示している。ただし、撮影装置10が生成する画像データは、第1及び第2の実施形態と同様、2次元的な動画又は静止画の画像データで良い。以下においては、動画を撮影する場合の動作を説明する。   FIG. 23 is a flowchart showing the operation of the image capturing apparatus 10 according to the third embodiment of the present invention, and shows the operation for acquiring an image for constructing image data of a 3D model. However, the image data generated by the imaging device 10 may be two-dimensional moving image or still image data, as in the first and second embodiments. In the following, the operation when shooting a moving image will be described.

まず、ステップS401において、撮影装置10は、3D画像用の撮影を開始する。詳細には、撮影装置10は、操作入力部13に対する所定の操作(例えば撮影ボタンへの操作)に応じて動画撮影を開始する。   First, in step S401, the imaging device 10 starts imaging for a 3D image. Specifically, the image capturing device 10 starts capturing a moving image in response to a predetermined operation (for example, operation on a capture button) on the operation input unit 13.

続くステップS402において、撮影装置10は、位置検出部15から出力された位置情報を取得し、動画撮影開始位置として登録する。   In subsequent step S402, the imaging device 10 acquires the position information output from the position detection unit 15 and registers it as the moving image shooting start position.

続くステップS403において、撮影装置10は、所定の登録ボタン(例えば図22に示す登録ボタン14f)への操作(例えばタップ操作)を検知したか否かを判定する。登録ボタン14fへの操作を検知しない場合(ステップS403:No)、撮影装置10は動画の撮影を継続しながら登録ボタンへの操作を待機する。   In subsequent step S403, the imaging device 10 determines whether or not an operation (for example, a tap operation) on a predetermined registration button (for example, the registration button 14f illustrated in FIG. 22) is detected. When the operation to the registration button 14f is not detected (step S403: No), the imaging device 10 waits for the operation to the registration button while continuing to shoot the moving image.

他方、登録ボタンへの操作を検知した場合(ステップS403:Yes)、撮影装置10は、位置検出部15から出力された位置情報を取得し、画像の識別情報として登録する(ステップS404)。詳細には、マーキング処理部174が、撮影中の画像(フレーム)の画像データに対して、位置情報を付与ことによりマーキングを行う。このときの位置情報は、ステップS402において登録された初期位置に対する相対位置としても良い。   On the other hand, when the operation on the registration button is detected (step S403: Yes), the imaging device 10 acquires the position information output from the position detection unit 15 and registers it as image identification information (step S404). Specifically, the marking processing unit 174 performs marking by adding position information to the image data of the image (frame) being photographed. The position information at this time may be a relative position with respect to the initial position registered in step S402.

続くステップS405において、撮影装置10は、撮影終了操作(例えば撮影ボタンの再押下操作)を検知したか否かを判定する。撮影終了操作を検知しない場合(ステップS405:No)、処理はステップS403に戻る。他方、撮影終了操作を検知した場合(ステップS405:Yes)、処理は終了する。   In the following step S405, the imaging device 10 determines whether or not a shooting end operation (for example, a shooting button re-pressing operation) has been detected. When the shooting end operation is not detected (step S405: No), the process returns to step S403. On the other hand, when the shooting end operation is detected (step S405: Yes), the process ends.

このようにして生成された画像データは、サーバ20にアップロードされる。サーバ20は、第1及び第2の実施形態と同様に、アップロードされた画像データに対し、3D空間をVR表示するための画像処理を実行する。これに加えて、本実施形態において、サーバ20は、アップロードされた画像データをもとに3Dモデルの画像データを構築する。平面の画像から3Dモデルの画像データを構築する方法としては、公知の種々の手法を用いることができる。一例として、動画内の複数のフレームに写った共通のオブジェクトの動きを検出し、動いた距離が大きいほど手前に存在するという原理に基づいてオブジェクトの奥行きを推定することにより、3Dモデルを構築する手法が知られている。   The image data generated in this way is uploaded to the server 20. The server 20 executes image processing for VR-displaying the 3D space on the uploaded image data, as in the first and second embodiments. In addition to this, in the present embodiment, the server 20 constructs the 3D model image data based on the uploaded image data. As a method for constructing 3D model image data from a plane image, various known methods can be used. As an example, a 3D model is constructed by detecting the movement of a common object appearing in a plurality of frames in a moving image and estimating the depth of the object based on the principle that the greater the distance moved, the closer to the front. The method is known.

図24は、撮影装置10により撮影された動画又は静止画の画像データをもとに構築された3Dモデルの表示例を示す模式図である。この3Dモデルの各所には、撮影時に画像データに付与された位置情報に対応するタグが埋め込まれている。これにより、3Dモデルの各所は、VR表示される動画又は静止画と紐付けられる。例えば、3Dモデルにおける玄関P30は、動画のうち玄関が写ったフレームと紐付けられ、3DモデルにおけるトイレP31は、動画のうちトイレが写ったフレームと紐付けられている。   FIG. 24 is a schematic diagram showing a display example of a 3D model constructed based on image data of a moving image or a still image captured by the image capturing apparatus 10. Tags corresponding to the position information added to the image data at the time of shooting are embedded in various places of this 3D model. As a result, each part of the 3D model is associated with the VR-displayed moving image or still image. For example, the entrance P30 in the 3D model is associated with the frame showing the entrance in the moving image, and the toilet P31 in the 3D model is associated with the frame showing the toilet in the moving image.

図25は、本発明の第3の実施形態における表示装置30の動作を示すフローチャートである。
まず、ステップS410において、表示装置30は、サーバ20から3Dモデルの画像データをダウンロードし、表示部33に表示させる。
FIG. 25 is a flowchart showing the operation of the display device 30 according to the third embodiment of the present invention.
First, in step S410, the display device 30 downloads the image data of the 3D model from the server 20 and displays it on the display unit 33.

続くステップS411において、表示装置30は、ユーザの視野に現在入っている3Dモデルの位置情報を取得する。   In subsequent step S411, the display device 30 acquires the position information of the 3D model that is currently in the user's visual field.

続くステップS412において、表示装置30は、ステップS411において取得された位置情報が、撮影時にマーキングされた範囲(図23のステップS404において位置情報が登録された範囲)内であるか否かを判定する。マーキングされた範囲内でない場合(ステップS412:No)、処理はステップS433に移行する。   In the following step S412, the display device 30 determines whether the position information acquired in step S411 is within the range marked at the time of shooting (the range in which the position information is registered in step S404 of FIG. 23). . If it is not within the marked range (step S412: No), the process proceeds to step S433.

ステップS433において、表示装置30は動作を終了するか否かを判定する。この判定方法は、図12のステップS219と同様である。動作を終了すると判定した場合(ステップS433:Yes)、そのまま終了する。他方、動作を終了しないと判定した場合(ステップS433:No)、処理はステップS410に戻る。   In step S433, the display device 30 determines whether to end the operation. This determination method is the same as step S219 in FIG. When it is determined that the operation ends (step S433: Yes), the operation ends. On the other hand, when it is determined that the operation is not ended (step S433: No), the process returns to step S410.

他方、ステップS411において取得された位置情報がマーキングされた範囲内である場合(ステップS412:Yes)、表示装置30は、取得された位置情報と紐付けられた紐付き先を検索する(ステップS413)。   On the other hand, when the position information acquired in step S411 is within the marked range (step S412: Yes), the display device 30 searches for a stringed destination associated with the acquired position information (step S413). .

紐付き先が3Dモデル内に存在する場合(ステップS414:Yes)、表示装置30は、表示中の3Dモデルにタグを表示する(ステップS415)。例えば、図24の場合、玄関P30にタグT30が表示される。   When the linked destination exists in the 3D model (step S414: Yes), the display device 30 displays the tag on the 3D model being displayed (step S415). For example, in the case of FIG. 24, the tag T30 is displayed at the entrance P30.

続くステップS416において、表示装置30は、表示されたタグが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、図12のステップS207と同様である。表示されたタグが選択された場合(ステップS416:Yes)、表示装置30は、ユーザの視野に表示させる領域を、選択されたタグと紐付けられた3Dモデル内の位置にジャンプさせる(ステップS417)。その後、処理はステップS410に移行する。この場合、ステップS410においては、ジャンプ先の領域の3Dモデルが表示される。例えば、図24において、玄関P30に表示されたタグT30が、廊下P32に埋め込まれたタグと紐付けられていた場合、3Dモデルの向きが変わり、廊下P32がユーザ側を向くように表示される。他方、ステップS416においてタグが選択されなかった場合(ステップS416:No)、処理はそのままステップS410に戻る。この場合、従前の3Dモデルが表示される。   In subsequent step S416, display device 30 determines whether or not the displayed tag is selected. The method of determining whether or not a tag has been selected is the same as in step S207 of FIG. When the displayed tag is selected (step S416: Yes), the display device 30 causes the area to be displayed in the field of view of the user to jump to the position in the 3D model associated with the selected tag (step S417). ). Then, a process transfers to step S410. In this case, in step S410, the 3D model of the jump destination area is displayed. For example, in FIG. 24, when the tag T30 displayed at the entrance P30 is associated with the tag embedded in the corridor P32, the orientation of the 3D model changes, and the corridor P32 is displayed so as to face the user side. . On the other hand, when the tag is not selected in step S416 (step S416: No), the process directly returns to step S410. In this case, the conventional 3D model is displayed.

また、ステップS414において、紐付き先が3Dモデル内に存在しない場合(ステップS414:No)、表示装置30は、紐付き先の静止画又は動画の画像ファイルをサーバ20から読み込む(ステップS418)。そして、表示装置30は、表示中の3Dモデルにタグを表示する(ステップS419)。   In addition, in step S414, when the linked destination does not exist in the 3D model (step S414: No), the display device 30 reads the image file of the linked still image or moving image from the server 20 (step S418). Then, the display device 30 displays the tag on the 3D model being displayed (step S419).

続くステップS420において、表示装置30は、表示されたタグが選択されたか否かを判定する。タグが選択されたか否かの判定方法は、図12のステップS207と同様である。タグが選択されない場合(ステップS420:No)、処理はステップS433に移行する。   In subsequent step S420, display device 30 determines whether the displayed tag has been selected. The method of determining whether or not a tag has been selected is the same as in step S207 of FIG. When the tag is not selected (step S420: No), the process proceeds to step S433.

他方、表示されたタグが選択された場合(ステップS420:Yes)、表示装置30は続いて、ステップS418において読み込まれた画像ファイルが動画であるか否かを判定する(ステップS421)。   On the other hand, when the displayed tag is selected (step S420: Yes), the display device 30 subsequently determines whether the image file read in step S418 is a moving image (step S421).

画像ファイルが動画でない場合(ステップS421:No)、即ち静止画である場合、表示装置30は、読み込まれた画像ファイルをもとに、表示部33にVR静止画を表示させる(ステップS422)。   When the image file is not a moving image (step S421: No), that is, when it is a still image, the display device 30 displays the VR still image on the display unit 33 based on the read image file (step S422).

続くステップS423において、表示装置30は、VR静止画が表示された画面に、終了タグを表示させ、終了タグが選択されたか否かを判定する(ステップS424)。タグが選択されたか否かの判定方法は、ステップS207と同様である。   In the following step S423, the display device 30 displays the end tag on the screen on which the VR still image is displayed, and determines whether the end tag is selected (step S424). The method of determining whether or not a tag has been selected is the same as in step S207.

終了タグが選択されなかった場合(ステップS424:No)、処理はステップS422に戻る。この場合、VR静止画が表示され続ける。他方、終了タグが選択された場合(ステップS424:Yes)、表示装置30は、再び3Dモデルを表示すると共に(ステップS425)、VR静止画を非表示にする(ステップS426)。その後、処理はステップS433に移行する。   When the end tag is not selected (step S424: No), the process returns to step S422. In this case, the VR still image continues to be displayed. On the other hand, when the end tag is selected (step S424: Yes), the display device 30 displays the 3D model again (step S425) and hides the VR still image (step S426). Then, a process transfers to step S433.

他方、ステップS421で読み込まれた画像ファイルが動画である場合(ステップS421:Yes)、表示装置30は、読み込まれた画像ファイルのうち、ステップS420で選択されたタグと紐付けられたフレームにジャンプする(ステップS427)。そして、表示部33における表示を、紐付き先のVR動画に切り替え(ステップS428)、紐付き先のVR動画を再生する(ステップS429)。   On the other hand, when the image file read in step S421 is a moving image (step S421: Yes), the display device 30 jumps to the frame associated with the tag selected in step S420 among the read image files. Yes (step S427). Then, the display on the display unit 33 is switched to the VR moving image of the linked destination (step S428), and the VR moving image of the linked destination is reproduced (step S429).

ここで、VR動画の再生が開始された後は、第1の実施形態における表示動作と同様に、異なるVR動画内の紐付き先のフレームへのジャンプ、同一のVR画像内でのフレームのスキップ、紐付けされた静止画の表示/非表示などを行っても良い(図12参照)。   Here, after the reproduction of the VR moving image is started, similar to the display operation in the first embodiment, a jump to a frame to which a string is attached in a different VR moving image, a frame skip in the same VR image, The linked still image may be displayed / hidden (see FIG. 12).

その後、紐付き先のVR動画の再生が終了(又は一時停止)すると(ステップS430)、表示装置30は、再び3Dモデルを表示すると共に(ステップS431)、VR動画を非表示にする(ステップS432)。その後、処理はステップS433に移行する。   After that, when the playback of the VR video of the linked destination ends (or pauses) (step S430), the display device 30 displays the 3D model again (step S431) and hides the VR video (step S432). . Then, a process transfers to step S433.

以上説明したように、本発明の第3の実施形態によれば、撮影装置10により生成された動画又は静止画の画像データをもとに3Dモデルを構築すると共に、この3Dモデルに位置情報を埋め込み、VR表示される動画又は静止画と紐付けるので、被写体をより多様な形態で表示することができる。例えば、3Dモデルにより被写体(例えば不動産物件)の全容を直感的に把握し、VR動画により動線を確認し、VR静止画により被写体の詳細を確認するといった利用方法も可能である。   As described above, according to the third embodiment of the present invention, the 3D model is constructed based on the image data of the moving image or the still image generated by the imaging device 10, and the position information is added to the 3D model. Since it is associated with a moving image or a still image that is embedded and VR displayed, the subject can be displayed in various forms. For example, it is possible to use a 3D model to intuitively grasp the whole picture of a subject (for example, a real estate property), check a moving line with a VR moving image, and check details of the subject with a VR still image.

なお、本実施形態においては、3Dモデルの画像データをサーバ20において構築することとしたが、これに限定されない。例えば、撮影装置10の画像処理部172において3Dモデルの画像データを構築しても良いし、撮影装置10において生成した動画又は静止画の画像データを3Dモデル構築専用のコンピュータに転送し、このコンピュータにおいて3Dモデルの画像データを構築しても良い。   In the present embodiment, the image data of the 3D model is constructed in the server 20, but it is not limited to this. For example, the image processing unit 172 of the image capturing apparatus 10 may construct image data of a 3D model, or the image data of a moving image or a still image generated in the image capturing apparatus 10 may be transferred to a computer dedicated to constructing a 3D model, and this computer may be used. In, the 3D model image data may be constructed.

(第4の実施形態)
次に、本発明の第4の実施形態について説明する。図26は、本発明の第4の実施形態に係る画像処理装置の概略構成を示すブロック図である。
(Fourth Embodiment)
Next, a fourth embodiment of the present invention will be described. FIG. 26 is a block diagram showing the schematic arrangement of the image processing apparatus according to the fourth embodiment of the present invention.

図26に示す画像処理装置60は、被写体を撮影して動画又は静止画の画像データを生成する機能と、該画像データに基づいてVR表示を行う機能とを備えるものである。このような画像処理装置60は、図1に示す撮影装置10及び表示装置30と同様に、汎用のスマートフォン等を用いて構成することができる。図26に示す各部のうち、撮影部61、操作入力部62、表示部63、及び位置検出部65の構成及び動作は、図1に示す撮影部12、操作入力部13、表示部14、及び位置検出部15の構成及び動作とそれぞれ同様である。また、図26に示す向き及び姿勢検出部64の構成及び動作は、図1に示す向き及び姿勢検出部34の構成及び動作と同様である。図26に示す記憶部66は、図1に示す撮影装置10と同様に、プログラム記憶部661と、画像データ記憶部662と、マーキングリスト記憶部663とを有している。図26に示すプロセッサ67は、図1に示すプロセッサ17の各部と同様に機能する撮影制御部671、画像処理部672、マーキングリスト登録部673、及びマーキング処理部674と、図1に示すプロセッサ36の各部と同様に機能する表示制御部361及び操作検出部676とを有している。   The image processing device 60 shown in FIG. 26 has a function of shooting a subject and generating image data of a moving image or a still image, and a function of performing VR display based on the image data. Such an image processing device 60 can be configured using a general-purpose smartphone or the like, like the image capturing device 10 and the display device 30 shown in FIG. Of the units shown in FIG. 26, the configurations and operations of the image capturing unit 61, the operation input unit 62, the display unit 63, and the position detecting unit 65 are as follows: the image capturing unit 12, the operation input unit 13, the display unit 14, and The configuration and operation of the position detection unit 15 are the same as each other. The configuration and operation of the orientation / posture detection unit 64 shown in FIG. 26 are the same as the configuration and operation of the orientation / posture detection unit 34 shown in FIG. The storage unit 66 shown in FIG. 26 includes a program storage unit 661, an image data storage unit 662, and a marking list storage unit 663, like the image capturing apparatus 10 shown in FIG. The processor 67 shown in FIG. 26 includes a photographing control unit 671, an image processing unit 672, a marking list registration unit 673, a marking processing unit 674, and the processor 36 shown in FIG. The display control unit 361 and the operation detection unit 676 that function in the same manner as the respective units of FIG.

このように、撮影装置10及び表示装置30がそれぞれ担う機能を同一の機器によって実現することで、サーバ20を介して画像データをアップロード及びダウンロードする手間が不要になると共に、紐付き先の画像にスムーズに表示切替をすることができるという利点も生じる。   In this way, by realizing the functions of the image capturing apparatus 10 and the display apparatus 30 by the same device, it is not necessary to upload and download the image data via the server 20, and the image of the linked destination can be smoothly displayed. There is also an advantage that the display can be switched.

以上説明した第1〜第4の実施形態及び変形例においては、動画、静止画、又は3Dモデルを、ユーザが頭部に装着して用いる表示装置30(又は画像処理装置60)において表示することとしたが、画像の表示形態はこれに限定されない。例えば、タブレット端末やパーソナルコンピュータ等の画面にこれらの画像を表示することとしても良い。この場合、画面に表示されたタグの選択は、例えば、マウス等のポインティングデバイスや、タッチパネルにより行っても良い。   In the first to fourth embodiments and the modified examples described above, a moving image, a still image, or a 3D model is displayed on the display device 30 (or the image processing device 60) that the user wears on the head. However, the display form of the image is not limited to this. For example, these images may be displayed on the screen of a tablet terminal, a personal computer, or the like. In this case, the tag displayed on the screen may be selected by using a pointing device such as a mouse or a touch panel.

また、上記第1〜第4の実施形態及び変形例においては、ユーザが頭部に装着して用いる表示装置30(又は画像処理装置60)に、動画又は静止画を3次元的に表示することとしたが、表示装置30(又は画像処理装置60)に、全天球画像の一部をパノラマ画像として表示しても良いし、平面的な2次元画像として表示しても良い。また、タブレット端末やパーソナルコンピュータ等に、パノラマ画像や平面的な2次元画像を表示することとしても良い。   In addition, in the first to fourth embodiments and the modified examples described above, a moving image or a still image is three-dimensionally displayed on the display device 30 (or the image processing device 60) that the user wears on his / her head. However, a part of the omnidirectional image may be displayed on the display device 30 (or the image processing device 60) as a panoramic image or may be displayed as a planar two-dimensional image. Also, a panoramic image or a two-dimensional planar image may be displayed on a tablet terminal, a personal computer, or the like.

本発明は、上記第1〜第4の実施形態及び変形例に限定されるものではなく、上記第1〜第4の実施形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上記第1〜第4の実施形態及び変形例に示した全構成要素からいくつかの構成要素を除外して形成しても良いし、上記第1〜第4の実施形態及び変形例に示した構成要素を適宜組み合わせて形成しても良い。   The present invention is not limited to the above-described first to fourth embodiments and modifications, but can be achieved by appropriately combining a plurality of constituent elements disclosed in the above-described first to fourth embodiments and modifications. , Various inventions can be formed. For example, some constituent elements may be formed by excluding all the constituent elements shown in the first to fourth embodiments and the modified examples, and in the first to fourth embodiments and the modified examples. It may be formed by appropriately combining the components shown.

1 画像処理システム
10 撮影装置
11、21、31 通信部
12、61 撮影部
13、32、62 操作入力部
14、33、63 表示部
15、65 位置検出部
16、35、66 記憶部
17、22、36、67 プロセッサ
20 サーバ
23 画像データ記憶部
24 物件情報データベース
30 表示装置
33a、33b 領域
34、64 向き及び姿勢検出部
37 ホルダー
60 画像処理装置
161、351、661 プログラム記憶部
162、352、662 画像データ記憶部
163、663 マーキングリスト記憶部
171、671 撮影制御部
172、221、672 画像処理部
173、673 マーキングリスト登録部
174、674 マーキング処理部
361、675 表示制御部
362、676 操作検出部

1 Image Processing System 10 Imaging Device 11, 21, 31 Communication Unit 12, 61 Imaging Unit 13, 32, 62 Operation Input Unit 14, 33, 63 Display Unit 15, 65 Position Detection Unit 16, 35, 66 Storage Unit 17, 22 , 36, 67 processor 20 server 23 image data storage unit 24 property information database 30 display device 33a, 33b area 34, 64 orientation and posture detection unit 37 holder 60 image processing device 161, 351, 661 program storage unit 162, 352, 662 Image data storage unit 163, 663 Marking list storage unit 171, 671 Imaging control unit 172, 221, 672 Image processing unit 173, 673 Marking list registration unit 174, 674 Marking processing unit 361, 675 Display control unit 362, 676 Operation detection unit

Claims (15)

被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、
所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するマーキング処理部と、
前記撮影部により生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成する画像処理部と、
前記画像処理部により生成された画像データを記憶する画像データ記憶部と、
を備える画像処理システム。
A shooting unit that generates image data of a moving image or a still image by shooting a subject,
A marking processing unit that adds identification information to a frame or a still image forming a moving image generated by the photographing unit according to a predetermined trigger,
An image processing unit that generates image data of a moving image or a still image for display based on the image data of the moving image or the still image generated by the photographing unit,
An image data storage unit that stores the image data generated by the image processing unit;
An image processing system including.
1種類以上の識別情報を記憶するマーキングリスト記憶部と、
外部からなされる操作に従って、前記1種類以上の識別情報の中から1つの識別情報を選択する操作入力部と、
をさらに備え、
前記マーキング処理部は、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記操作入力部により選択された識別情報を付与する、
請求項1に記載の画像処理システム。
A marking list storage unit that stores one or more types of identification information,
An operation input unit for selecting one piece of identification information from the one or more kinds of identification information according to an operation made from the outside,
Further equipped with,
The marking processing unit adds the identification information selected by the operation input unit to the frame or still image generated by the imaging unit at a timing according to the trigger,
The image processing system according to claim 1.
前記撮影部の位置を検出して位置情報を出力する位置検出部をさらに備え、
前記マーキング処理部は、前記トリガーに応じたタイミングで前記位置検出部から出力された位置情報を、前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記識別情報として付与する、
請求項1に記載の画像処理システム。
Further comprising a position detection unit that detects the position of the imaging unit and outputs position information,
The marking processing unit, the position information output from the position detection unit at the timing according to the trigger, the identification information for the frame or still image generated by the imaging unit at the timing according to the trigger As,
The image processing system according to claim 1.
前記トリガーは、動画の撮影中になされる所定の操作手段への操作である、請求項1〜3のいずれか1項に記載の画像処理システム。   The image processing system according to any one of claims 1 to 3, wherein the trigger is an operation performed on a predetermined operation unit during shooting of a moving image. 前記トリガーは、静止画を撮影する際に操作される操作手段への操作である、請求項1〜3のいずれか1項に記載の画像処理システム。   The image processing system according to any one of claims 1 to 3, wherein the trigger is an operation on an operation unit that is operated when a still image is captured. 前記画像データ記憶部に記憶された画像データに基づいて、動画又は静止画を表示可能な表示部と、
前記表示部における画像表示を制御する表示制御部と、
外部からなされる操作を検出する操作検出部と、
をさらに備え、
前記表示制御部は、前記表示部に表示中の動画のフレーム又は静止画に識別情報が付与されている場合に、該識別情報が付与されている旨を示す情報を前記表示部に表示させ、前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替える、
請求項1〜5のいずれか1項に記載の画像処理システム。
A display unit capable of displaying a moving image or a still image based on the image data stored in the image data storage unit;
A display control unit for controlling image display on the display unit,
An operation detection unit that detects an operation performed from the outside,
Further equipped with,
The display control unit causes the display unit to display information indicating that the identification information is added when the frame or still image of the moving image being displayed on the display unit is provided with the identification information, When the operation detection unit detects an operation of selecting the information, the image display on the display unit is a moving image to which the same identification information as the identification information added to the frame or still image of the moving image being displayed is added. Switch to the frame or still image of
The image processing system according to claim 1.
前記画像データ記憶部は、複数の動画の画像データを記憶し、
前記複数の動画の各々は、同じ識別情報が付与されたフレームを含み、
前記表示制御部は、前記複数の動画の間で前記表示部における画像表示を切り替える、
請求項6項に記載の画像処理システム。
The image data storage unit stores image data of a plurality of moving images,
Each of the plurality of moving images includes a frame to which the same identification information is added,
The display control unit switches image display on the display unit between the plurality of moving images,
The image processing system according to claim 6.
前記動画は、互いに異なる時刻に生成され、同じ識別情報が付与された複数のフレームを含み、
前記表示制御部は、前記複数のフレームの間で前記表示部における画像表示を切り替える、
請求項6に記載の画像処理システム。
The moving image includes a plurality of frames that are generated at different times and have the same identification information,
The display control unit switches image display on the display unit between the plurality of frames,
The image processing system according to claim 6.
前記動画は、前記静止画に付与された識別情報と同じ識別情報が付与されたフレームを含み、
前記表示制御部は、前記静止画と、前記同じ識別情報が付与されたフレームとの間で前記表示部における画像表示を切り替える、
請求項6に記載の画像処理システム。
The moving image includes a frame to which the same identification information as the identification information added to the still image is added,
The display control unit switches the image display on the display unit between the still image and a frame to which the same identification information is added,
The image processing system according to claim 6.
前記画像処理部は、さらに、前記撮影部により生成された前記動画又は静止画の画像データをもとに、3次元的なモデルの画像データを構築すると共に、前記マーキング処理部により前記動画又は静止画に付与された識別情報をもとに、前記モデルの各所に当該位置を表す情報を付与し、
前記表示制御部は、前記モデルの各所に付与された前記情報と、前記動画又は静止画に付与された識別情報とに基づき、前記モデルと前記動画又は静止画との間で前記表示部における画像表示を切り替える、
請求項6に記載の画像処理システム。
The image processing unit further constructs image data of a three-dimensional model on the basis of the image data of the moving image or still image generated by the photographing unit, and the marking processing unit causes the moving image or still image to be displayed. Based on the identification information given to the image, give information representing the position to each place of the model,
The display control unit, based on the information given to each part of the model and the identification information given to the moving image or the still image, an image in the display unit between the model and the moving image or the still image. Switch display,
The image processing system according to claim 6.
前記撮影部により生成された前記動画又は静止画の画像データをもとに、3次元的に表示される動画又は静止画の画像データを生成する第2の画像処理部をさらに備える、請求項1〜10のいずれか1項に記載の画像処理システム。   The second image processing unit further includes a second image processing unit that generates image data of a moving image or a still image displayed three-dimensionally based on the image data of the moving image or the still image generated by the photographing unit. 10. The image processing system according to any one of items 10 to 10. 被写体を撮影することにより動画又は静止画の画像データを生成するステップ(a)と、
所定のトリガーに応じて、前記撮影部により生成された動画を構成するフレーム又は静止画に識別情報を付与するステップ(b)と、
ステップ(a)において生成された前記動画又は静止画の画像データをもとに、表示用の動画又は静止画の画像データを生成するステップ(c)と、
ステップ(c)において生成された画像データを記憶するステップ(d)と、
を含む画像処理方法。
Step (a) of generating image data of a moving image or a still image by shooting a subject,
A step (b) of adding identification information to a frame or a still image that constitutes the moving image generated by the image capturing unit according to a predetermined trigger;
Step (c) of generating image data of a moving image or a still image for display based on the image data of the moving image or the still image generated in step (a),
Storing step (d) the image data generated in step (c),
An image processing method including.
被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、記憶部と、外部からなされる操作を受け付ける操作入力部と、を備える撮影装置に実行させるプログラムであって、
前記記憶部は、1種類以上の識別情報を予め記憶し、
前記操作入力部に対する操作に応じて、前記1種類以上の識別情報の中から1つの識別情報を選択するステップと、
所定のトリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記1つの識別情報を付与するステップと、
を実行させるプログラム。
A program to be executed by a photographing device, comprising: a photographing unit that generates image data of a moving image or a still image by photographing a subject; a storage unit; and an operation input unit that receives an operation performed from the outside.
The storage unit stores one or more types of identification information in advance,
Selecting one piece of identification information from the one or more types of identification information according to an operation on the operation input unit;
A step of adding the one piece of identification information to the frame or still image generated by the photographing unit at a timing according to a predetermined trigger;
A program to execute.
被写体を撮影することにより動画又は静止画の画像データを生成する撮影部と、前記撮影部の位置を検出して位置情報を出力する位置検出部と、を備える撮影装置に実行させるプログラムであって、
所定のトリガーに応じたタイミングで前記位置検出部からに位置情報を出力させるステップと、
前記トリガーに応じたタイミングで前記撮影部により生成された前記フレーム又は静止画に対し、前記位置情報を識別情報として付与するステップと、
を実行させるプログラム。
A program to be executed by a photographing device, comprising: a photographing unit that generates moving image or still image data by photographing a subject; and a position detection unit that detects the position of the photographing unit and outputs position information. ,
A step of outputting position information from the position detection unit at a timing according to a predetermined trigger,
A step of adding the position information as identification information to the frame or still image generated by the image capturing unit at a timing according to the trigger;
A program to execute.
動画又は静止画を表示可能な表示部と、前記表示部における画像表示を制御する表示制御部と、外部からなされる操作を検出する操作検出部と、を備える表示装置に実行させるプログラムであって、
前記表示部に表示中の動画のフレーム又は静止画に所定の識別情報が付与されている場合に、該所定の識別情報が付与されている旨を示す情報を前記表示部に表示させるステップと、
前記操作検出部が前記情報を選択する操作を検出した場合に、前記表示部における画像表示を、表示中の動画のフレーム又は静止画に付与されている前記所定の識別情報と同じ識別情報が付与された動画のフレーム又は静止画に切り替えるステップと、
を実行させるプログラム。
A program executed by a display device, comprising: a display unit capable of displaying a moving image or a still image; a display control unit for controlling image display on the display unit; and an operation detection unit for detecting an operation performed from the outside. ,
When predetermined identification information is added to a frame or still image of the moving image being displayed on the display unit, a step of displaying information indicating that the predetermined identification information is added on the display unit,
When the operation detection unit detects an operation of selecting the information, the image display on the display unit is provided with the same identification information as the predetermined identification information given to the frame or still image of the moving image being displayed. The step of switching to the frame or still image of the recorded video,
A program to execute.
JP2019534539A 2017-08-02 2018-07-31 Image processing system, image processing method, and program Active JP6635573B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017149690 2017-08-02
JP2017149690 2017-08-02
PCT/JP2018/028704 WO2019026919A1 (en) 2017-08-02 2018-07-31 Image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP6635573B2 JP6635573B2 (en) 2020-01-29
JPWO2019026919A1 true JPWO2019026919A1 (en) 2020-04-23

Family

ID=65232817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019534539A Active JP6635573B2 (en) 2017-08-02 2018-07-31 Image processing system, image processing method, and program

Country Status (2)

Country Link
JP (1) JP6635573B2 (en)
WO (1) WO2019026919A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7029118B2 (en) * 2020-06-12 2022-03-03 3D Nest株式会社 Image display method, image display system, and image display program
CN114945090A (en) * 2022-04-12 2022-08-26 阿里巴巴达摩院(杭州)科技有限公司 Video generation method and device, computer readable storage medium and computer equipment
JP7343232B1 (en) * 2022-09-13 2023-09-12 英晃 菊地 Information processing method, information processing device, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059951A (en) * 2009-09-09 2011-03-24 Toshiba Tec Corp Trajectory editing method, device, and trajectory editing program
JP2013156718A (en) * 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology Person tracking attribute estimation device, person tracking attribute estimation method and program
JP2013210843A (en) * 2012-03-30 2013-10-10 Secom Co Ltd Image processing device
JP2016018571A (en) * 2014-07-07 2016-02-01 株式会社リコー Image storage and reproduction control unit, image storage and reproduction control method, image storage and reproduction control system, and program
JP2016194783A (en) * 2015-03-31 2016-11-17 株式会社リコー Image management system, communication terminal, communication system, image management method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059951A (en) * 2009-09-09 2011-03-24 Toshiba Tec Corp Trajectory editing method, device, and trajectory editing program
JP2013156718A (en) * 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology Person tracking attribute estimation device, person tracking attribute estimation method and program
JP2013210843A (en) * 2012-03-30 2013-10-10 Secom Co Ltd Image processing device
JP2016018571A (en) * 2014-07-07 2016-02-01 株式会社リコー Image storage and reproduction control unit, image storage and reproduction control method, image storage and reproduction control system, and program
JP2016194783A (en) * 2015-03-31 2016-11-17 株式会社リコー Image management system, communication terminal, communication system, image management method, and program

Also Published As

Publication number Publication date
WO2019026919A1 (en) 2019-02-07
JP6635573B2 (en) 2020-01-29

Similar Documents

Publication Publication Date Title
JP7344974B2 (en) Multi-virtual character control method, device, and computer program
JP6348741B2 (en) Information processing system, information processing apparatus, information processing program, and information processing method
KR101690955B1 (en) Method for generating and reproducing moving image data by using augmented reality and photographing apparatus using the same
US9392248B2 (en) Dynamic POV composite 3D video system
JP2001008232A (en) Omnidirectional video output method and apparatus
US9509907B2 (en) Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method
JP2010010936A (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP6635573B2 (en) Image processing system, image processing method, and program
WO2020042494A1 (en) Method for screenshot of vr scene, device and storage medium
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
JP5800569B2 (en) Information processing system, information processing method, information processing program
JP5831764B2 (en) Image display apparatus and program
JPWO2018168823A1 (en) Image processing device and electronic equipment
JP2013254151A (en) Image processing apparatus and image processing method
JP2009230635A (en) Image data generating device, image data generating method and image data generating program
JP2019101563A (en) Information processing apparatus, information processing system, information processing method, and program
WO2020017600A1 (en) Display control device, display control method and program
JP5003358B2 (en) Display device, electronic camera, and control program
US20220394178A1 (en) Communication terminal, image communication system, and method of displaying image
JP2020057329A (en) Guide system
JP2008191751A (en) Arrangement simulation system
JP2021168461A (en) Photographer terminal, information processing unit, information processing method, and computer program
JP2013037476A (en) Observation device, observation method and imaging apparatus
JP2020204973A (en) Information processing device, program, and information processing system
JP2019012536A (en) Information providing method, program, and information providing apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190822

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190822

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191214

R150 Certificate of patent or registration of utility model

Ref document number: 6635573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350