[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5357966B2 - Information system, server device, terminal device, information processing method, and program - Google Patents

Information system, server device, terminal device, information processing method, and program Download PDF

Info

Publication number
JP5357966B2
JP5357966B2 JP2011519730A JP2011519730A JP5357966B2 JP 5357966 B2 JP5357966 B2 JP 5357966B2 JP 2011519730 A JP2011519730 A JP 2011519730A JP 2011519730 A JP2011519730 A JP 2011519730A JP 5357966 B2 JP5357966 B2 JP 5357966B2
Authority
JP
Japan
Prior art keywords
information
unit
terminal device
shooting
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011519730A
Other languages
Japanese (ja)
Other versions
JPWO2010150643A1 (en
Inventor
龍 李
和俊 角谷
Original Assignee
株式会社 ミックウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 ミックウェア filed Critical 株式会社 ミックウェア
Priority to JP2011519730A priority Critical patent/JP5357966B2/en
Publication of JPWO2010150643A1 publication Critical patent/JPWO2010150643A1/en
Application granted granted Critical
Publication of JP5357966B2 publication Critical patent/JP5357966B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To solve the problem that identifying imaged objects requires a large amount of time, a terminal device is disclosed that is provided with: a camera unit that stores at least one object information item and acquires imagery, said object information item comprising an object identifier and region information for an object; a terminal information acquisition unit that acquires terminal information comprising position information and direction information; an imaged object decision unit that applies the terminal information and a view angle to the region information in each object information item, examines each imaged object in ascending order of distance from the device, marks information for regions that become invisible due to object imaging as invisible regions, and stops examining when there are no more visible regions; an imaged object information acquisition unit that acquires at least one decided imaged object information item; and an output unit that outputs the imagery and at least one imaged object information item. This makes it possible to identify objects imaged by a camera and output information pertaining to said objects.

Description

本発明は、カメラで撮影されているオブジェクトを認識し、オブジェクトの情報を画面上に表示する情報システム等に関するものである。   The present invention relates to an information system that recognizes an object photographed by a camera and displays object information on a screen.

従来、コンピュータ上の地理的情報と実風景の景観画像中の各部分とを対応付けて利用者に提示するとともに、各種情報(広告情報、案内情報等)を利用者に流す情報発信型景観ラベリング装置があった(特許文献1)。   Conventionally, information distribution type landscape labeling in which geographical information on a computer is associated with each part in a landscape image of a real scene and presented to the user, and various information (advertisement information, guidance information, etc.) is sent to the user. There was a device (Patent Document 1).

また、ホストコンピュータでの背景データの処理、データ転送、端末表示の時間を大幅に削減し、最新の背景地図を用いた三次元地図情報を端末装置上で構成し、軽快な操作を行うことができる地図関連情報配信システムがあった(特許文献2)。   In addition, the background data processing, data transfer, and terminal display time on the host computer can be greatly reduced, and 3D map information using the latest background map can be configured on the terminal device to perform light operations. There was a map-related information distribution system that can be used (Patent Document 2).

さらに、カメラ装置で撮影される映像に、被写体の情報を自動的に埋め込む被写体情報処理装置および被写体情報処理方法があった(特許文献3)。
特開平11−66347号公報 特開2008−158583号公報 特開2002−152713号公報
Furthermore, there has been a subject information processing apparatus and a subject information processing method that automatically embed subject information in a video photographed by a camera device (Patent Document 3).
JP-A-11-66347 JP 2008-158583 A JP 2002-152713 A

しかしながら、従来のシステムにおいては、多数のオブジェクトが登録されていることを想定していない。つまり、非常に多くのオブジェクトが登録されている場合、現在、撮影されているオブジェクトを特定することに多大な時間を要する、とともに多大なCPUパワーが必要となる。したがって、例えば、ナビゲーションシステムに利用できない。   However, the conventional system does not assume that a large number of objects are registered. That is, when a very large number of objects are registered, it takes a lot of time to specify the object currently being shot, and a great amount of CPU power is required. Therefore, for example, it cannot be used for a navigation system.

本第一の発明の情報システムは、サーバ装置と端末装置とを具備する情報システムであって、サーバ装置は、オブジェクトを識別するオブジェクト識別子と、オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、端末装置から、端末装置の位置を示す位置情報と端末装置が向いている方向を示す方向情報とを有する端末情報を受信するサーバ受信部と、端末情報が有する位置情報と、端末情報が有する方向情報と、予め格納されているまたは端末情報が有する視野角とを、オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、撮影オブジェクト情報を、端末装置に送信するサーバ送信部とを具備し、端末装置は、端末装置の位置を示す位置情報と、端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、映像を取得するカメラ部と、カメラ部が取得した映像を出力するカメラ映像出力手段を具備する出力部と、端末情報取得部が取得した端末情報をサーバ装置に送信する送信部と、端末情報の送信に対応して、1以上の撮影オブジェクト情報を受信する受信部と、受信部が受信した1以上の撮影オブジェクト情報が有する1以上の領域情報を含む出力情報を取得する出力情報取得部とを具備し、出力部は、出力部が出力している映像に重ねて、出力情報取得部が取得した1以上の出力情報に含まれる領域情報を出力する領域出力手段を具備し、前記撮影オブジェクト情報決定部は、前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する情報システムである。   The information system according to the first aspect of the present invention is an information system including a server device and a terminal device, and the server device includes an object identifier for identifying an object and region information indicating a region where the object exists. An object information storage unit that can store one or more pieces of information, and a server reception unit that receives terminal information including position information indicating the position of the terminal device and direction information indicating a direction in which the terminal device is facing from the terminal device; Applying the position information included in the terminal information, the direction information included in the terminal information, and the viewing angle stored in advance or included in the terminal information to the area information of each object information in the object information storage unit. A shooting object determination unit that determines one or more objects being shot, and one or more determined by the shooting object determination unit Of one or more object information corresponding to each object, a shooting object information acquisition unit that acquires one or more shooting object information including area information from the object information storage unit, and a server that transmits the shooting object information to the terminal device A terminal unit that acquires terminal information including position information indicating a position of the terminal device and direction information indicating a direction in which the terminal device is facing, and a video. Corresponding to the transmission of the terminal unit, the output unit including the camera unit, the camera image output means for outputting the video acquired by the camera unit, the transmission unit for transmitting the terminal information acquired by the terminal information acquisition unit to the server device A receiving unit that receives one or more shooting object information, and one or more area information included in the one or more shooting object information received by the receiving unit. An output information acquisition unit that acquires output information, and the output unit outputs region information included in the one or more output information acquired by the output information acquisition unit, overlaid on the video output by the output unit And the shooting object information determination unit inspects the objects in order from the shortest distance from the terminal device, and becomes invisible by shooting the object previously determined that the terminal device is shooting. This is an information system for registering area information as an invisible area and ending the inspection of whether or not an object is photographed by the terminal device when the visible area disappears.

かかる構成により、撮影オブジェクトを検知する処理を適切に打ち切ることにより、高速な処理が可能となる。そのために、ナビゲーションシステムにも利用できる。   With this configuration, it is possible to perform high-speed processing by appropriately terminating the processing for detecting a shooting object. Therefore, it can also be used for navigation systems.

また、本第二の発明の情報システムは、第一に対して、領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、撮影オブジェクト決定部は、端末情報が有する位置情報および方向情報と、予め格納されているまたは端末情報が有する視野角とを用いて、三次元空間上での撮影領域を取得し、撮影領域を、オブジェクト情報格納部の各オブジェクト情報が有する領域情報に対して適用し、端末装置が撮影している1以上のオブジェクトを決定する情報システムである。   In the information system of the second invention, on the other hand, the area information includes two-dimensional area information indicating a two-dimensional area on the map and height information indicating the height of the object. The shooting object determination unit acquires the shooting area on the three-dimensional space using the position information and direction information included in the terminal information and the viewing angle stored in advance or included in the terminal information, This is an information system that is applied to the area information included in each object information of the object information storage unit and determines one or more objects that are photographed by the terminal device.

かかる構成により、カメラで撮影しているオブジェクトを三次元で捕らえることができる。したがって、例えば、前のビルより高いビルであり、カメラ画像に写っているビルを認識し、当該ビルに関する情報を出力できる。また、撮影オブジェクトを検知する処理を適切に打ち切ることにより、高速な処理が可能となる。そのために、ナビゲーションシステムにも利用できる。   With such a configuration, an object photographed by a camera can be captured in three dimensions. Therefore, for example, it is possible to recognize a building that is higher than the previous building and is reflected in the camera image, and output information related to the building. In addition, high-speed processing is possible by appropriately terminating the processing for detecting a shooting object. Therefore, it can also be used for navigation systems.

また、本第三の発明の情報システムは、第一または第二に対して、領域出力手段は、出力情報取得部が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力する情報システムである。   In the information system according to the third aspect of the present invention, in the first or second aspect, the region output means has a region corresponding to the region information included in the one or more pieces of output information acquired by the output information acquisition unit. Is an information system that outputs the image on the video output by the output unit so that it can be visually distinguished from other regions.

かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトの領域を、オブジェクトの大きさに合わせて出力できる。   With this configuration, it is possible to output the area of the object photographed by the camera and displayed on the display in accordance with the size of the object.

また、本第四の発明の情報システムは、第一から第三いずれかに対して、サーバ装置は、撮影オブジェクト決定部が決定した各オブジェクトと端末装置との距離を、各オブジェクトのオブジェクト情報と端末情報が有する位置情報とから、撮影オブジェクト決定部が決定したオブジェクトごとに算出する距離算出部をさらに具備し、撮影オブジェクト情報取得部は、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む情報をオブジェクト情報格納部から取得し、領域情報を含む情報と距離算出部が算出した距離とを含む1以上の撮影オブジェクト情報を構成する情報システムである。   In the information system according to the fourth aspect of the present invention, in any one of the first to third aspects, the server device determines the distance between each object determined by the shooting object determination unit and the terminal device and the object information of each object. The camera further includes a distance calculation unit that calculates each object determined by the shooting object determination unit from the position information included in the terminal information, and the shooting object information acquisition unit corresponds to one or more objects determined by the shooting object determination unit. An information system that acquires information including region information from one or more object information to be obtained from an object information storage unit, and configures one or more shooting object information including information including region information and a distance calculated by a distance calculation unit It is.

かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトまでの距離を取得できる。   With such a configuration, it is possible to acquire the distance to the object displayed on the display by photographing with the camera.

また、本第五の発明の情報システムは、第四に対して、出力情報取得部は、受信部が受信した撮影オブジェクト情報が有する1以上の領域情報と1以上の距離とを含む出力情報を取得し、出力部は、出力情報取得部が取得した1以上の出力情報に含まれる距離を出力する距離出力手段をさらに具備する情報システムである。   In the information system according to the fifth aspect of the invention, in contrast to the fourth aspect, the output information acquisition unit outputs output information including one or more area information and one or more distances included in the shooting object information received by the receiving unit. The acquisition and output unit is an information system further comprising distance output means for outputting a distance included in the one or more pieces of output information acquired by the output information acquisition unit.

かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトまでの距離を出力できる。   With this configuration, it is possible to output the distance to the object that is captured by the camera and displayed on the display.

また、本第六の発明の情報システムは、第四または第五に対して、領域出力手段は、出力情報取得部が取得した1以上の出力情報に含まれる距離が大きいほど、距離に対応するオブジェクトの領域を小さくして出力する情報システムである。   In the information system of the sixth aspect of the invention, in contrast to the fourth or fifth aspect, the region output means corresponds to the distance as the distance included in the one or more pieces of output information acquired by the output information acquisition unit increases. An information system that outputs an object with a smaller area.

かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトの領域を、オブジェクトの大きさに合わせて、端末装置に出力できる。   With this configuration, it is possible to output the area of the object photographed by the camera and displayed on the display to the terminal device in accordance with the size of the object.

また、本第七の発明の情報システムは、第一から第六いずれかに対して、1以上のウェブサーバ装置をさらに具備し、ウェブサーバ装置は、オブジェクトに関する情報であるオブジェクト関連情報を格納し得るオブジェクト関連情報格納部と、外部からの指示に応じて、オブジェクト関連情報を取得するオブジェクト関連情報取得部と、オブジェクト関連情報を送信するオブジェクト関連情報送信部とを具備し、端末装置は、オブジェクト関連情報を受信するオブジェクト関連情報受信部をさらに具備し、出力部は、オブジェクト関連情報受信部が受信したオブジェクト関連情報を出力するオブジェクト関連情報出力手段をさらに具備する情報システムである。   The information system of the seventh invention further comprises one or more web server devices for any of the first to sixth, and the web server device stores object related information that is information about the object. An object-related information storage unit, an object-related information acquisition unit that acquires object-related information in response to an external instruction, and an object-related information transmission unit that transmits object-related information. The information system further includes an object related information receiving unit that receives related information, and the output unit further includes an object related information output unit that outputs the object related information received by the object related information receiving unit.

かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトに関連する情報を出力できる。   With this configuration, it is possible to output information related to the object that is captured by the camera and displayed on the display.

また、本第八の発明の情報システムは、第七に対して、端末装置は、2つの分離された表示部である第一表示手段および第二表示手段を具備し、カメラ映像出力手段は、カメラ部が取得した映像を、第一表示手段に表示し、オブジェクト関連情報出力手段は、オブジェクト関連情報受信部が受信したオブジェクト関連情報を、第二表示手段に表示する情報システムである。   Further, in the information system of the eighth invention, in contrast to the seventh, the terminal device includes a first display unit and a second display unit which are two separated display units, and the camera image output unit includes: The video acquired by the camera unit is displayed on the first display unit, and the object-related information output unit is an information system that displays the object-related information received by the object-related information receiving unit on the second display unit.

かかる構成により、カメラで撮影している映像と、映像内のオブジェクトに関連する情報との両方を、適切な領域にそれぞれ出力できる。   With this configuration, it is possible to output both video captured by the camera and information related to objects in the video to appropriate areas.

また、本第九の発明の情報システムは、第一から第八いずれかに対して、領域出力手段は、他のオブジェクトの領域情報は出力せず、一のオブジェクトの領域情報のみを他の領域情報と視覚的に区別可能なように、出力部が出力している映像に重ねて出力する情報システムである。   In the information system according to the ninth aspect of the present invention, the area output means does not output the area information of another object, but only the area information of one object is output to the other area. This is an information system that outputs the image superimposed on the video output by the output unit so that it can be visually distinguished from the information.

かかる構成により、カメラで撮影している映像内のオブジェクトの領域を適切に出力できる。   With this configuration, it is possible to appropriately output the object area in the video image captured by the camera.

また、本第十の発明の情報システムは、第七から第九いずれかに対して、オブジェクト関連情報出力手段は、他のオブジェクトのオブジェクト関連情報は出力せず、一のオブジェクトのオブジェクト関連情報のみを出力する情報システムである。   In the information system according to the tenth aspect of the invention, for any of the seventh to ninth aspects, the object related information output means does not output the object related information of other objects, but only the object related information of one object. Is an information system that outputs

かかる構成により、カメラで撮影している映像内のオブジェクトに関連する情報を適切に出力できる。   With this configuration, it is possible to appropriately output information related to the object in the video being shot by the camera.

また、本第十一の発明の情報システムは、第九または第一に対して、撮影オブジェクト決定部は、カメラ部が撮影している映像の中で最も近い位置に存在するオブジェクトの撮影オブジェクト、またはカメラ部が撮影している映像の中で最も中央寄りに位置するオブジェクトの撮影オブジェクト、またはカメラ部が撮影している映像の中で最も大きい領域を有するオブジェクトの撮影オブジェクトを決定する情報システムである。   Further, in the information system of the eleventh aspect of the invention, in the ninth or first aspect, the shooting object determination unit is a shooting object of an object that is present at the closest position in the video shot by the camera unit, Or an information system for determining the shooting object of the object located closest to the center in the video shot by the camera unit or the shooting object of the object having the largest area in the video shot by the camera unit is there.

かかる構成により、カメラで撮影している映像内の一つのオブジェクトに関連する情報、または領域を出力できる。   With this configuration, it is possible to output information or a region related to one object in a video shot by the camera.

また、本第十二の発明の情報システムは、第一から第一一いずれかに対して、端末装置は、ユーザの指示を受け付ける第一受付手段と、受付部が指示を受け付けた場合、出力部が出力中の映像と領域を固定する出力固定部とをさらに具備する情報システムである。   Also, in the information system of the twelfth aspect of the invention, for any one of the first to the first, the terminal device outputs a first receiving means for receiving a user instruction, and an output when the receiving section receives the instruction. The information system further includes an image being output by the unit and an output fixing unit for fixing the area.

かかる構成により、カメラで撮影している映像を固定し、当該固定できるので、映像内のオブジェクトに対する操作が容易となる。   With such a configuration, since the video imaged by the camera can be fixed and fixed, the operation on the object in the video becomes easy.

また、本第十三の発明の情報システムは、第一二に対して、撮影オブジェクト情報は、オブジェクト識別子を含み、端末装置は、固定された領域に対する入力を受け付ける第二受付手段と、第二受付手段で受け付けた入力に対応する領域に対するオブジェクト識別子を取得するオブジェクト識別子取得部と、オブジェクト識別子取得部が取得したオブジェクト識別子を1以上のウェブサーバ装置のいずれかに送信するオブジェクト識別子送信部とをさらに具備し、オブジェクト関連情報受信部は、オブジェクト識別子の送信に対応して、オブジェクト関連情報を受信し、オブジェクト識別子の送信は、外部からの指示により行われる情報システムである。   Further, in the information system of the thirteenth invention, in contrast to the first, the shooting object information includes an object identifier, and the terminal device includes a second receiving unit that receives an input to the fixed area, An object identifier acquisition unit that acquires an object identifier for an area corresponding to the input received by the reception unit; and an object identifier transmission unit that transmits the object identifier acquired by the object identifier acquisition unit to one of the one or more web server devices. Further, the object related information receiving unit is an information system that receives object related information in response to transmission of an object identifier, and the transmission of the object identifier is performed by an instruction from the outside.

かかる構成により、カメラで撮影している映像を固定し、当該固定できるので、映像内のオブジェクトに対する操作が容易となる。   With such a configuration, since the video imaged by the camera can be fixed and fixed, the operation on the object in the video becomes easy.

また、本第十四の発明の情報システムは、第八から第一三いずれかに対して、端末装置は、カメラ部が取得した映像を出力するレイヤであるカメラレイヤ、オブジェクトに対応する領域を出力するレイヤであるオブジェクト識別レイヤ、オブジェクト関連情報を出力するレイヤであるウェブサーチレイヤを含む複数のレイヤのうちの、現在のレイヤであるカレントレイヤを格納し得るカレントレイヤ格納部と、カレントレイヤを設定する入力を受け付ける第三受付手段と、第三受付手段で受け付けた入力に従って、カレントレイヤ格納部のカレントレイヤを変更するカレントレイヤ変更部とをさらに具備し、カレントレイヤがカメラレイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、カレントレイヤがオブジェクト識別レイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、かつ、領域出力手段は領域を他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力し、カレントレイヤがウェブサーチレイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、かつ、領域出力手段は領域を他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力し、かつ、オブジェクト関連情報出力手段はオブジェクト関連情報を出力する情報システムである。   In the information system according to the fourteenth aspect of the present invention, in any of the eighth to first thirteenth aspects, the terminal device has a camera layer, which is a layer for outputting video acquired by the camera unit, and an area corresponding to the object. A current layer storage unit that can store a current layer that is a current layer among a plurality of layers including an object identification layer that is an output layer and a web search layer that is a layer that outputs object-related information, and a current layer A third receiving means for receiving an input to be set; and a current layer changing section for changing the current layer of the current layer storage section according to the input received by the third receiving means, and when the current layer is a camera layer, The camera video output means outputs the video acquired by the camera unit, and the current layer is the object In the case of another layer, the camera video output means outputs the video acquired by the camera section, and the area output means outputs the video output by the output section so that the area can be visually distinguished from other areas. When the current layer is a web search layer, the camera video output means outputs the video acquired by the camera unit, and the area output means can visually distinguish the area from other areas. The object related information output means is an information system that outputs the object related information by superimposing it on the video output by the output unit.

かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。   With such a configuration, it is possible to display appropriate information for an object in a video image taken by the camera.

また、本第十五の発明の情報システムは、第七から第一三いずれかに対して、オブジェクト関連情報は、ウェブページ、オブジェクトのシンボル画像、またはオブジェクトに関する音情報のうちの1以上の情報である情報システムである。   In the information system according to the fifteenth aspect of the present invention, the object related information is one or more information of a web page, a symbol image of the object, or sound information related to the object. Is an information system.

かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。   With such a configuration, it is possible to display appropriate information for an object in a video image taken by the camera.

また、本第十六の発明の情報システムは、サーバ装置と端末装置とを具備する情報システムであって、サーバ装置は、オブジェクトを識別するオブジェクト識別子と、オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、端末装置から、端末装置の位置を示す位置情報と端末装置が向いている方向を示す方向情報とを有する端末情報を受信するサーバ受信部と、端末情報が有する位置情報と、端末情報が有する方向情報と、予め格納されているまたは端末情報が有する視野角とを、オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、オブジェクト識別子を含む1以上の撮影オブジェクト情報を、オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、撮影オブジェクト情報を、端末装置に送信するサーバ送信部とを具備し、端末装置は、端末装置の位置を示す位置情報と、端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、映像を取得するカメラ部と、カメラ部が取得した映像を出力するカメラ映像出力手段を具備する出力部と、端末情報取得部が取得した端末情報をサーバ装置に送信する送信部と、端末情報の送信に対応して、撮影オブジェクト情報を受信する受信部と、受信部が受信した撮影オブジェクト情報を出力する出力部とを具備する情報システムである。   The information system of the sixteenth invention is an information system comprising a server device and a terminal device, wherein the server device includes an object identifier for identifying an object, region information indicating a region where the object exists, A server that receives, from the terminal device, terminal information having position information indicating the position of the terminal device and direction information indicating the direction in which the terminal device is facing. Applying the receiving unit, the position information included in the terminal information, the direction information included in the terminal information, and the viewing angle stored in advance or included in the terminal information to the area information of each object information in the object information storage unit, A shooting object determining unit that determines one or more objects being shot by the terminal device and a shooting object determining unit are determined. Of the one or more object information corresponding to one or more objects, one or more shooting object information including an object identifier is acquired from the object information storage unit, and the shooting object information is provided to the terminal device. A server transmission unit for transmitting, and the terminal device acquires terminal information including position information indicating a position of the terminal device and direction information indicating a direction in which the terminal device is facing, and a video A camera unit for acquiring the image, an output unit including a camera video output unit for outputting the video acquired by the camera unit, a transmission unit for transmitting the terminal information acquired by the terminal information acquisition unit to the server device, and transmission of the terminal information Corresponding to the receiving unit, and a receiving unit that receives the shooting object information, and an output unit that outputs the shooting object information received by the receiving unit. That is an information system.

かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。   With such a configuration, it is possible to display appropriate information for an object in a video image taken by the camera.

また、本第十七の発明の情報システムは、第一六に対して、1以上のウェブサーバ装置をさらに具備し、ウェブサーバ装置は、オブジェクトに関する情報であるオブジェクト関連情報を格納し得るオブジェクト関連情報格納部と、外部からの指示に応じて、オブジェクト関連情報を取得するオブジェクト関連情報取得部と、オブジェクト関連情報を送信するオブジェクト関連情報送信部とを具備し、サーバ装置のサーバ送信部は、撮影オブジェクト情報を、端末装置または1以上のいずれかのウェブサーバ装置に送信し、端末装置の受信部が受信する撮影オブジェクト情報は、オブジェクト関連情報である情報システムである。   Further, the information system according to the seventeenth aspect of the present invention further comprises at least one web server device as compared with the sixteenth, and the web server device can store object related information that is information related to an object. An information storage unit, an object-related information acquisition unit that acquires object-related information in response to an instruction from the outside, and an object-related information transmission unit that transmits object-related information, and the server transmission unit of the server device includes: The shooting object information is an information system that transmits the shooting object information to the terminal device or one or more web server devices, and is received by the receiving unit of the terminal device.

かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。   With such a configuration, it is possible to display appropriate information for an object in a video image taken by the camera.

また、本第十八の発明の端末装置は、オブジェクトを識別するオブジェクト識別子と、オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、端末装置の位置を示す位置情報と、端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、端末情報取得部が取得した端末情報が有する位置情報と、端末情報が有する方向情報と、予め格納されている視野角とを、オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、カメラ部が取得した映像を出力するカメラ映像出力手段と、映像に重ねて、1以上の撮影オブジェクト情報に含まれる領域情報を出力する領域出力手段とを具備する出力部とを具備する端末装置である。   The terminal device according to the eighteenth aspect of the present invention includes an object information storage unit capable of storing one or more object information having an object identifier for identifying an object and region information indicating a region in which the object exists, and a terminal device Terminal information acquisition unit for acquiring terminal information having position information indicating the position of the terminal device and direction information indicating the direction in which the terminal device is facing, position information included in the terminal information acquired by the terminal information acquisition unit, and terminal information A shooting object determination unit that applies the direction information and the viewing angle stored in advance to the area information of each object information in the object information storage unit, and determines one or more objects being shot by the terminal device; The region information is included in one or more object information corresponding to one or more objects determined by the shooting object determination unit. A shooting object information acquisition unit that acquires the above shooting object information from the object information storage unit, a camera unit that acquires a video, a camera video output unit that outputs a video acquired by the camera unit, and a video 1 It is a terminal device comprising an output unit comprising region output means for outputting region information included in the above photographing object information.

かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。また、サーバ装置との通信なしに、簡易に適切な情報が表示できる。   With such a configuration, it is possible to display appropriate information for an object in a video image taken by the camera. Also, appropriate information can be displayed easily without communication with the server device.

また、本第十九の発明の端末装置は、第一八に対して、領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、撮影オブジェクト決定部は、端末情報が有する位置情報および方向情報と、予め格納されている視野角とを用いて、三次元空間上での撮影領域を取得し、撮影領域を、オブジェクト情報格納部の各オブジェクト情報が有する領域情報に対して適用し、端末装置が撮影している1以上のオブジェクトを決定する端末装置である。   In addition, the terminal device according to the nineteenth aspect of the present invention, in contrast to the eighteenth aspect, has region information including two-dimensional region information indicating a two-dimensional region on a map and height information indicating the height of an object. Then, the shooting object determination unit acquires the shooting area in the three-dimensional space by using the position information and direction information included in the terminal information and the pre-stored viewing angle, and stores the shooting area in the object information. This is a terminal device that is applied to the area information included in each piece of object information and determines one or more objects being photographed by the terminal device.

かかる構成により、カメラで撮影しているオブジェクトを三次元で捕らえることができる。   With such a configuration, an object photographed by a camera can be captured in three dimensions.

また、本第二十の発明の端末装置は、第一八または第一九に対して、領域出力手段は、出力情報取得部が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力する端末装置である。   Further, in the terminal device of the twentieth aspect of the invention, in contrast to the eighteenth or nineteenth aspect, the region output means has a size corresponding to region information included in one or more pieces of output information acquired by the output information acquisition unit. This is a terminal device that superimposes the area on the video output by the output unit so that it can be visually distinguished from other areas.

かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトの領域を、オブジェクトの大きさに合わせて出力できる。   With this configuration, it is possible to output the area of the object photographed by the camera and displayed on the display in accordance with the size of the object.

また、本第二十一の発明の端末装置は、第一八から第二いずれかに対して、撮影オブジェクト決定部が決定した各オブジェクトと端末装置との距離を、各オブジェクトのオブジェクト情報と端末情報が有する位置情報とから、撮影オブジェクト決定部が決定したオブジェクトごとに算出する距離算出部をさらに具備し、撮影オブジェクト情報取得部は、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む情報をオブジェクト情報格納部から取得し、領域情報を含む情報と距離算出部が算出した距離とを含む1以上の撮影オブジェクト情報を構成する端末装置である。   The terminal device according to the twenty-first aspect of the present invention provides the distance between each object determined by the shooting object determination unit and the terminal device with respect to any one of the eighteenth to the second, the object information of each object, and the terminal. The camera further includes a distance calculation unit that calculates each object determined by the shooting object determination unit from position information included in the information, and the shooting object information acquisition unit corresponds to one or more objects determined by the shooting object determination unit. A terminal device that obtains information including area information from one or more pieces of object information from the object information storage unit and constitutes one or more shooting object information including information including area information and the distance calculated by the distance calculation unit. is there.

かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトまでの距離を取得できる。   With such a configuration, it is possible to acquire the distance to the object displayed on the display by photographing with the camera.

また、本第二十二の発明の端末装置は、第二一に対して、出力部は、1以上の撮影オブジェクト情報に含まれる距離を出力する距離出力手段をさらに具備する端末装置である。   The terminal device of the twenty-second invention is a terminal device further comprising a distance output means for outputting a distance included in the one or more pieces of photographing object information, in contrast to the first.

かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトまでの距離を出力できる。   With this configuration, it is possible to output the distance to the object that is captured by the camera and displayed on the display.

また、本第二十三の発明の端末装置は、第二一または第二二に対して、領域出力手段は、1以上の撮影オブジェクト情報に含まれる距離が大きいほど、距離に対応するオブジェクトの領域を小さくして出力する端末装置である。   In addition, in the terminal device of the twenty-third invention, in contrast to the second one or the second two, the region output means indicates the object corresponding to the distance as the distance included in the one or more shooting object information is larger. It is a terminal device that outputs an area with a smaller size.

かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトの領域を、オブジェクトの大きさに合わせて、端末装置に出力できる。   With this configuration, it is possible to output the area of the object photographed by the camera and displayed on the display to the terminal device in accordance with the size of the object.

また、本第二十四の発明の端末装置は、第一八から第二三いずれかに対して、外部の装置からオブジェクト関連情報を受信するオブジェクト関連情報受信部をさらに具備し、出力部は、オブジェクト関連情報受信部が受信したオブジェクト関連情報を出力するオブジェクト関連情報出力手段をさらに具備する端末装置である。   In addition, the terminal device according to the twenty-fourth aspect of the present invention further comprises an object-related information receiving unit that receives object-related information from an external device with respect to any of the eighteenth to second-third. The terminal device further comprises object related information output means for outputting the object related information received by the object related information receiving unit.

かかる構成により、カメラで撮影して、ディスプレイ上に表示されているオブジェクトに関連する情報を出力できる。   With this configuration, it is possible to output information related to the object that is captured by the camera and displayed on the display.

また、本第二十五の発明の端末装置は、第二四に対して、2つの分離された表示部である第一表示手段および第二表示手段をさらに具備し、カメラ映像出力手段は、カメラ部が取得した映像を、第一表示手段に表示し、オブジェクト関連情報出力手段は、オブジェクト関連情報受信部が受信したオブジェクト関連情報を、第二表示手段に表示する端末装置である。   Further, the terminal device of the twenty-fifth aspect of the present invention further comprises a first display means and a second display means, which are two separated display parts, with respect to the second, and the camera video output means is The video acquired by the camera unit is displayed on the first display unit, and the object-related information output unit is a terminal device that displays the object-related information received by the object-related information receiving unit on the second display unit.

かかる構成により、カメラで撮影している映像と、映像内のオブジェクトに関連する情報との両方を、適切な領域にそれぞれ出力できる。   With this configuration, it is possible to output both video captured by the camera and information related to objects in the video to appropriate areas.

また、本第二十六の発明の端末装置は、第一八から第二五いずれかに対して、領域出力手段は、他のオブジェクトの領域情報は出力せず、一のオブジェクトの領域情報のみを他の領域情報と視覚的に区別可能なように、出力部が出力している映像に重ねて出力する端末装置である。   Also, in the terminal device of the 26th invention, the area output means does not output the area information of other objects, but only the area information of one object, for any of the 18th to 25th Is superimposed on the video output by the output unit so that it can be visually distinguished from other area information.

かかる構成により、カメラで撮影している映像内のオブジェクトの領域を適切に出力できる。   With this configuration, it is possible to appropriately output the object area in the video image captured by the camera.

また、本第二十七の発明の端末装置は、第二四から第二六いずれかに対して、オブジェクト関連情報出力手段は、他のオブジェクトのオブジェクト関連情報は出力せず、一のオブジェクトのオブジェクト関連情報のみを出力する端末装置である。   In addition, in the terminal device of the 27th invention, the object related information output means does not output the object related information of other objects to any one of the second to the sixth, but instead of the object related information of one object. It is a terminal device that outputs only object related information.

かかる構成により、カメラで撮影している映像内のオブジェクトに関連する情報を適切に出力できる。   With this configuration, it is possible to appropriately output information related to the object in the video being shot by the camera.

また、本第二十八の発明の端末装置は、第二六または第二七に対して、撮影オブジェクト決定部は、カメラ部が撮影している映像の中で最も近い位置に存在するオブジェクトの撮影オブジェクト、またはカメラ部が撮影している映像の中で最も中央寄りに位置するオブジェクトの撮影オブジェクト、またはカメラ部が撮影している映像の中で最も大きい領域を有するオブジェクトの撮影オブジェクトを決定する端末装置である。   Also, in the terminal device of the twenty-eighth aspect of the invention, in contrast to the twenty-sixth or the twenty-seventh aspect, the shooting object determining unit determines the object that is present at the closest position in the video shot by the camera unit. The shooting object or the shooting object of the object located closest to the center in the video shot by the camera unit or the shooting object of the object having the largest area in the video shot by the camera unit is determined. It is a terminal device.

かかる構成により、カメラで撮影している映像内の一つのオブジェクトに関連する情報、または領域を出力できる。   With this configuration, it is possible to output information or a region related to one object in a video shot by the camera.

また、本第二十九の発明の端末装置は、第一八から第二八いずれかに対して、端末装置は、ユーザの指示を受け付ける第一受付手段と、受付部が指示を受け付けた場合、出力部が出力中の映像と領域を固定する出力固定部とをさらに具備する端末装置である。   In addition, in the terminal device of the twenty-ninth invention, in response to any one of the eighteenth to the twenty-eighth, the terminal device receives a user's instruction, a first receiving unit, and a receiving unit receives the instruction The terminal device further includes a video output by the output unit and an output fixing unit that fixes the area.

かかる構成により、カメラで撮影している映像を固定し、当該固定できるので、映像内のオブジェクトに対する操作が容易となる。   With such a configuration, since the video imaged by the camera can be fixed and fixed, the operation on the object in the video becomes easy.

また、本第三十の発明の端末装置は、第二九に対して、撮影オブジェクト情報は、オブジェクト識別子を含み、固定された領域に対する入力を受け付ける第二受付手段と、第二受付手段で受け付けた入力に対応する領域に対するオブジェクト識別子を取得するオブジェクト識別子取得部と、オブジェクト識別子取得部が取得したオブジェクト識別子を1以上のウェブサーバ装置のいずれかに送信するオブジェクト識別子送信部とをさらに具備し、オブジェクト関連情報受信部は、オブジェクト識別子の送信に対応して、オブジェクト関連情報を受信し、オブジェクト識別子の送信は、外部からの指示により行われる端末装置である。   Further, in the terminal device of the thirtieth aspect, in contrast to the ninth aspect, the photographing object information includes an object identifier, and is accepted by a second accepting unit that accepts an input to a fixed area, and a second accepting unit. An object identifier acquisition unit that acquires an object identifier for an area corresponding to the input, and an object identifier transmission unit that transmits the object identifier acquired by the object identifier acquisition unit to one of the one or more web server devices, The object related information receiving unit is a terminal device that receives object related information in response to the transmission of the object identifier, and the transmission of the object identifier is performed according to an instruction from the outside.

かかる構成により、カメラで撮影している映像を固定し、当該固定できるので、映像内のオブジェクトに対する操作が容易となる。   With such a configuration, since the video imaged by the camera can be fixed and fixed, the operation on the object in the video becomes easy.

また、本第三十一の発明の端末装置は、第二五から第三いずれかに対して、カメラ部が取得した映像を出力するレイヤであるカメラレイヤ、オブジェクトに対応する領域を出力するレイヤであるオブジェクト識別レイヤ、オブジェクト関連情報を出力するレイヤであるウェブサーチレイヤを含む複数のレイヤのうちの、現在のレイヤであるカレントレイヤを格納し得るカレントレイヤ格納部と、カレントレイヤを設定する入力を受け付ける第三受付手段と、第三受付手段で受け付けた入力に従って、カレントレイヤ格納部のカレントレイヤを変更するカレントレイヤ変更部とをさらに具備し、カレントレイヤがカメラレイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、カレントレイヤがオブジェクト識別レイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、かつ、領域出力手段は領域を他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力し、カレントレイヤがウェブサーチレイヤである場合、カメラ映像出力手段はカメラ部が取得した映像を出力し、かつ、領域出力手段は領域を他の領域と視覚的に区別可能なように、出力部が出力している映像に重ねて出力し、かつ、オブジェクト関連情報出力手段はオブジェクト関連情報を出力する端末装置である。   The terminal device according to the thirty-first aspect of the present invention provides a camera layer, which is a layer for outputting video acquired by the camera unit, or a layer for outputting an area corresponding to an object. Among the plurality of layers including the object identification layer, the web search layer that outputs the object related information, and the current layer storage unit that can store the current layer that is the current layer, and the input that sets the current layer And a current layer changing unit for changing the current layer of the current layer storage unit according to the input received by the third receiving unit, and when the current layer is a camera layer, the camera video output The means outputs the video acquired by the camera unit, and the current layer is the object identification layer. In this case, the camera video output means outputs the video acquired by the camera unit, and the area output means outputs the video image superimposed on the video output by the output part so that the area can be visually distinguished from other areas. When the current layer is a web search layer, the camera video output means outputs the video acquired by the camera section, and the area output means outputs the output section so that the area can be visually distinguished from other areas. The object related information output means is a terminal device that outputs the object related information.

かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。   With such a configuration, it is possible to display appropriate information for an object in a video image taken by the camera.

また、本第三十二の発明の端末装置は、オブジェクトを識別するオブジェクト識別子と、オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、端末装置の位置を示す位置情報と、端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、端末情報取得部が取得した端末情報が有する位置情報と、端末情報が有する方向情報と、予め格納されている視野角とを、オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、オブジェクト識別子を含む1以上の撮影オブジェクト情報を、オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、カメラ部が取得した映像を出力し、1以上の撮影オブジェクト情報を出力する出力部とを具備する端末装置である。   The terminal device according to the thirty-second invention includes an object information storage unit capable of storing one or more object information having an object identifier for identifying an object and area information indicating an area in which the object exists, and a terminal A terminal information acquisition unit for acquiring terminal information including position information indicating the position of the device and direction information indicating a direction in which the terminal device is facing; position information included in the terminal information acquired by the terminal information acquisition unit; and a terminal A shooting object determination unit that applies the direction information included in the information and the pre-stored viewing angle to the area information of each object information in the object information storage unit, and determines one or more objects being shot by the terminal device Among the one or more pieces of object information corresponding to each of the one or more objects determined by the shooting object determination unit A shooting object information acquisition unit that acquires one or more shooting object information including a bespoke from the object information storage unit, a camera unit that acquires a video, and a video acquired by the camera unit, and outputs one or more shooting object information Is a terminal device.

かかる構成により、カメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。   With such a configuration, it is possible to display appropriate information for an object in a video image taken by the camera.

本発明による情報システムによれば、カメラで撮影したオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる。   According to the information system of the present invention, it is possible to recognize an object photographed by a camera and output information related to the object.

以下、情報システム等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。   Hereinafter, embodiments of an information system and the like will be described with reference to the drawings. In addition, since the component which attached | subjected the same code | symbol in embodiment performs the same operation | movement, description may be abbreviate | omitted again.

(実施の形態1)   (Embodiment 1)

本実施の形態において、カメラで撮影して取得した映像に映っているオブジェクトを認識し、オブジェクトに関連する情報を出力する情報システム1について説明する。   In the present embodiment, an information system 1 that recognizes an object appearing in an image captured by a camera and outputs information related to the object will be described.

オブジェクトに関連する情報とは、オブジェクトの領域や、オブジェクトに関連するウェブページや、オブジェクトのシンボル画像やシンボル的な音楽や音情報や、オブジェクトに到達するまでの案内情報(画像、文字列、音声など問わない)などである。   Information related to the object includes the object area, the web page related to the object, the symbol image of the object, symbolic music and sound information, and guidance information (images, character strings, audio) Etc.).

図1は、本実施の形態における情報システム1の概念図である。情報システム1は、サーバ装置11、1以上のウェブサーバ装置12、端末装置13を具備する。端末装置13は、図1においては2画面のディスプレイを有する端末であるが、1画面のディスプレイを有する端末でも良い。端末装置13は、カメラ機能を有し、外部の風景、建物などを撮影している際に、撮影している映像内のオブジェクト(建物など)の領域や、オブジェクトに関連する情報などを出力できる。また、サーバ装置11、ウェブサーバ装置12、および端末装置13は、通常、通信可能である。   FIG. 1 is a conceptual diagram of an information system 1 in the present embodiment. The information system 1 includes a server device 11, one or more web server devices 12, and a terminal device 13. The terminal device 13 is a terminal having a two-screen display in FIG. 1, but may be a terminal having a one-screen display. The terminal device 13 has a camera function, and can output an area of an object (building, etc.) in the image being taken, information related to the object, etc. when shooting an external landscape, a building, or the like. . Moreover, the server apparatus 11, the web server apparatus 12, and the terminal device 13 are normally communicable.

なお、情報システム1は、サーバ装置11と端末装置13のみにより実現されても良い。また、かかる場合、サーバ装置11は、ウェブサーバ装置の機能を有していても良い。また、ウェブサーバ装置12は、いわゆるウェブ上のウェブページを格納している装置であるが、格納している情報は、ウェブページでなく、広告情報など、他の情報でも良い。ウェブサーバ装置12が格納している情報の形式や内容は問わない。   The information system 1 may be realized only by the server device 11 and the terminal device 13. In such a case, the server device 11 may have the function of a web server device. Further, the web server device 12 is a device that stores a so-called web page on the web, but the stored information may be other information such as advertisement information instead of the web page. The format and content of the information stored in the web server device 12 are not limited.

図2は、本実施の形態における情報システム1のブロック図である。サーバ装置11は、オブジェクト情報格納部111、サーバ受信部112、撮影オブジェクト決定部113、距離算出部114、撮影オブジェクト情報取得部115、サーバ送信部116を具備する。   FIG. 2 is a block diagram of the information system 1 in the present embodiment. The server device 11 includes an object information storage unit 111, a server reception unit 112, a shooting object determination unit 113, a distance calculation unit 114, a shooting object information acquisition unit 115, and a server transmission unit 116.

ウェブサーバ装置12は、オブジェクト関連情報格納部121、オブジェクト関連情報取得部122、オブジェクト関連情報送信部123を具備する。   The web server device 12 includes an object related information storage unit 121, an object related information acquisition unit 122, and an object related information transmission unit 123.

端末装置13は、カレントレイヤ格納部1301、受付部1302、端末情報取得部1303、カメラ部1304、送信部1305、受信部1306、オブジェクト関連情報受信部1307、出力情報取得部1308、出力部1309、カレントレイヤ変更部1310、出力固定部1311、オブジェクト識別子取得部1312、オブジェクト識別子送信部1313、表示部1314を具備する。   The terminal device 13 includes a current layer storage unit 1301, a reception unit 1302, a terminal information acquisition unit 1303, a camera unit 1304, a transmission unit 1305, a reception unit 1306, an object related information reception unit 1307, an output information acquisition unit 1308, an output unit 1309, A current layer changing unit 1310, an output fixing unit 1311, an object identifier acquiring unit 1312, an object identifier transmitting unit 1313, and a display unit 1314 are provided.

受付部1302は、第一受付手段13021、第二受付手段13022、第三受付手段13023を具備する。端末情報取得部1303は、位置情報取得手段13031、方向情報取得手段13032を有する。出力部1309は、カメラ映像出力手段13091、領域出力手段13092、距離出力手段13093、オブジェクト関連情報出力手段13094を具備する。表示部1314は、第一表示手段13141、第二表示手段13142を具備する。   The receiving unit 1302 includes a first receiving unit 13021, a second receiving unit 13022, and a third receiving unit 13023. The terminal information acquisition unit 1303 includes position information acquisition means 13031 and direction information acquisition means 13032. The output unit 1309 includes camera video output means 13091, area output means 13092, distance output means 13093, and object related information output means 13094. The display unit 1314 includes first display means 13141 and second display means 13142.

オブジェクト情報格納部111は、1以上のオブジェクト情報を格納し得る。オブジェクト情報とは、オブジェクト識別子と、オブジェクトが存在する領域を示す領域情報とを有する情報である。オブジェクトとは、通常、地図上または地理上に現れるオブジェクトである地理オブジェクトである。オブジェクトは、例えば、建物、山、川、名勝、公園などである。オブジェクトは、例えば、ビルの中の店舗や会社などでも良い。オブジェクトは、地図上または地理上に現れるものであれば、内容は問わない。オブジェクト情報格納部111は、地図情報を格納していても良い。かかる場合、地図情報は1以上のオブジェクト情報を含む。オブジェクト識別子とはオブジェクトを識別する情報であり、例えば、オブジェクトの名称、オブジェクトを識別するID、オブジェクトについての情報が格納されているウェブページのURL、URIなどである。領域情報とは、通常、二次元の領域の情報である。ただし、三次元の領域の情報でも、一次元の情報(点の情報)でも良い。つまり、領域情報はオブジェクトの位置(点)を特定する位置情報(X,Y)でも良い。この(X,Y)は、例えば、(緯度,経度)であり、例えば、オブジェクトの領域の重心点を示す情報である。領域が矩形であるとする場合、領域情報は、例えば、矩形の左上点、右下点の位置情報(経度,緯度)の情報である。さらに、領域情報は、例えば、三次元のオブジェクトの立体図形(例えば、6面体)の頂点を構成する点(8点)の集合や、立体図形(例えば、6面体)の高さを有する4点の集合などである。   The object information storage unit 111 can store one or more pieces of object information. The object information is information having an object identifier and area information indicating an area where the object exists. An object is a geographic object that is usually an object that appears on a map or on a geography. The object is, for example, a building, a mountain, a river, a scenic spot, a park, or the like. The object may be, for example, a store or a company in a building. The content of the object is not limited as long as it appears on the map or the geography. The object information storage unit 111 may store map information. In such a case, the map information includes one or more object information. The object identifier is information for identifying an object, such as an object name, an ID for identifying the object, a URL of a web page in which information about the object is stored, a URI, and the like. The area information is usually information on a two-dimensional area. However, information of a three-dimensional region or one-dimensional information (point information) may be used. That is, the area information may be position information (X, Y) that specifies the position (point) of the object. This (X, Y) is, for example, (latitude, longitude), and is information indicating the center of gravity of the object region, for example. When the area is a rectangle, the area information is, for example, information on position information (longitude, latitude) of the upper left point and lower right point of the rectangle. Furthermore, the area information includes, for example, a set of points (eight points) constituting the vertex of a three-dimensional object solid figure (for example, hexahedron) or four points having the height of the solid figure (for example, hexahedron). And so on.

オブジェクト情報格納部111は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。オブジェクト情報格納部111にオブジェクト情報が記憶される過程は問わない。例えば、記録媒体を介してオブジェクト情報がオブジェクト情報格納部111で記憶されるようになってもよく、通信回線等を介して送信されたオブジェクト情報がオブジェクト情報格納部111で記憶されるようになってもよく、あるいは、入力デバイスを介して入力されたオブジェクト情報がオブジェクト情報格納部111で記憶されるようになってもよい。   The object information storage unit 111 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium. The process in which the object information is stored in the object information storage unit 111 does not matter. For example, object information may be stored in the object information storage unit 111 via a recording medium, and object information transmitted via a communication line or the like is stored in the object information storage unit 111. Alternatively, the object information input via the input device may be stored in the object information storage unit 111.

サーバ受信部112は、端末装置13から、端末情報を受信する。端末情報は、端末装置13の位置を示す位置情報と端末装置13が向いている方向を示す方向情報とを有する。端末情報は、通常、端末装置13を識別する端末識別子を有する。位置情報とは、通常、(緯度,経度)の情報であるが、空間内の位置を示す情報でも良い。空間内の位置を示す情報は、例えば、(緯度,経度、高度)である。方向情報は、東西南北などの方位の情報を含んでも良い。また、方向情報は、端末の向き(上向き、下向きなど)を含んでも良い。方向情報は、例えば、56.2°(北を0°、東を90°とする方位)や、南南西などである。方向情報は、例えば、高さ方向の角度を含んでも良い。また、方向情報は、例えば、(Yaw,Pitch,Roll)などでも良い。(Yaw,Pitch,Roll)の「Yaw」は垂直軸に対する角度や先端の左右の揺れの度合い(長さなど)、「Pitch」は横軸に対する角度や先端の上下の揺れの度合い、「Roll」は縦軸に対する角度や端末装置13全体の左右の揺れの度合いである。なお、位置情報とは、例えば、GPS受信機により取得される。また、方向情報とは、例えば、コンパス、またはコンパスとジャイロにより取得される。方向情報や位置情報を取得する手段は問わない。さらに、端末情報は、端末装置13を識別する端末識別子(例えば、情報の送受信に用いられるIPアドレスや、電話番号や、IDや、MACアドレスなど)も含むことは好適である。   The server reception unit 112 receives terminal information from the terminal device 13. The terminal information includes position information indicating the position of the terminal device 13 and direction information indicating the direction in which the terminal device 13 is facing. The terminal information usually has a terminal identifier that identifies the terminal device 13. The position information is usually (latitude, longitude) information, but may be information indicating a position in space. The information indicating the position in the space is, for example, (latitude, longitude, altitude). The direction information may include direction information such as east, west, south, and north. The direction information may include the orientation of the terminal (upward, downward, etc.). The direction information is, for example, 56.2 ° (an orientation in which north is 0 ° and east is 90 °), south-southwest, and the like. The direction information may include, for example, an angle in the height direction. The direction information may be, for example, (Yaw, Pitch, Roll). “Yaw” of (Yaw, Pitch, Roll) is the angle with respect to the vertical axis and the degree of left and right shaking of the tip (length etc.), “Pitch” is the angle with respect to the horizontal axis and the degree of shaking of the tip up and down, “Roll” Is the angle with respect to the vertical axis and the degree of lateral shaking of the entire terminal device 13. The position information is acquired by, for example, a GPS receiver. The direction information is acquired by, for example, a compass or a compass and a gyro. There is no limitation on the means for acquiring the direction information and the position information. Further, the terminal information preferably includes a terminal identifier for identifying the terminal device 13 (for example, an IP address, a telephone number, an ID, a MAC address, etc. used for transmission / reception of information).

サーバ受信部112は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。   The server receiving unit 112 is usually realized by a wireless or wired communication means, but may be realized by a means for receiving a broadcast.

撮影オブジェクト決定部113は、端末情報が有する位置情報と、端末情報が有する方向情報と、視野角とを、オブジェクト情報格納部111の各オブジェクト情報の領域情報に適用し、端末装置13が撮影している1以上のオブジェクトを決定する。視野角とは、カメラ部1304が撮影可能な角度であり、平面上の角度でも良いし、高さ方向を含めた立体的な角度でも良い。立体的な角度とは、例えば、平面上の角度(θ1)と高さ方向の角度(θ2)とにより得られる。また、視野角は、撮影オブジェクト決定部113が予め格納していても良いし、端末情報に含まれていても良い。ここで、「オブジェクトを決定する」とは、オブジェクト識別子を取得することでも良いし、オブジェクト情報の全部または一部を取得することでも良いし、オブジェクト情報を管理しているテーブルのレコードIDを取得すること等でも良い。つまり、「オブジェクトを決定する」とは、オブジェクトを特定する情報を取得することであれば良い。   The shooting object determination unit 113 applies the position information included in the terminal information, the direction information included in the terminal information, and the viewing angle to the area information of each object information in the object information storage unit 111, and the terminal device 13 performs shooting. Determine one or more objects. The viewing angle is an angle at which the camera unit 1304 can shoot, and may be an angle on a plane or a three-dimensional angle including a height direction. The three-dimensional angle is obtained, for example, by a plane angle (θ1) and a height direction angle (θ2). The viewing angle may be stored in advance by the shooting object determination unit 113 or may be included in the terminal information. Here, “determining an object” may be to acquire an object identifier, to acquire all or part of object information, or to acquire a record ID of a table that manages object information It may be to do. In other words, “determining an object” only needs to acquire information for specifying an object.

撮影オブジェクト決定部113は、例えば、カメラ部1304が撮影した映像の中で、端末装置13から最も距離が近い位置に存在するオブジェクトの撮影オブジェクト、またはカメラ部1304が撮影した映像の中で最も中央寄りに位置するオブジェクトの撮影オブジェクト、またはカメラ部1304が撮影した映像の中で最も大きい領域(平面上または立体上)を有するオブジェクトの撮影オブジェクトを決定しても良い。   For example, the shooting object determination unit 113 may be the shooting object of the object that is closest to the terminal device 13 in the video shot by the camera unit 1304 or the center of the video shot by the camera unit 1304. A shooting object of an object located closer to the object or an object having the largest area (on a plane or a solid) in a video shot by the camera unit 1304 may be determined.

撮影オブジェクト決定部113は、端末情報が有する位置情報と、オブジェクト情報格納部111の各オブジェクト情報の領域情報等から取得されるオブジェクトの位置を示すオブジェクト位置情報とから、端末装置13とオブジェクトの距離を算出し、当該距離が予め決められた距離以内、または、当該距離が近い方から、予め決められた数のオブジェクトを、撮影オブジェクトとして決定しても良い。かかる場合、撮影オブジェクトの取得アルゴリズムとしては正確ではないが、高速な処理が可能となる。のあ、距離の算出は、距離算出部114が行っても良いことは言うまでもない。   The shooting object determination unit 113 determines the distance between the terminal device 13 and the object from the position information included in the terminal information and the object position information indicating the position of the object acquired from the area information of each object information in the object information storage unit 111. , And a predetermined number of objects may be determined as shooting objects from the distance within the predetermined distance or closer to the distance. In such a case, the shooting object acquisition algorithm is not accurate, but high-speed processing is possible. Needless to say, the distance calculation may be performed by the distance calculation unit 114.

撮影オブジェクト決定部113は、さらに具体的には、例えば、後述する図5のフローチャートに示すようなアルゴリズムで、端末装置13が撮影している1以上のオブジェクトを決定することは好適である。   More specifically, the shooting object determination unit 113 preferably determines one or more objects being shot by the terminal device 13 using an algorithm as shown in a flowchart of FIG.

撮影オブジェクト決定部113は、通常、MPUやメモリ等から実現され得る。撮影オブジェクト決定部113の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The shooting object determination unit 113 can be usually realized by an MPU, a memory, or the like. The processing procedure of the shooting object determination unit 113 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

距離算出部114は、撮影オブジェクト決定部113が決定した各オブジェクトと端末装置13との距離を、各オブジェクトのオブジェクト情報と端末情報が有する位置情報とから、撮影オブジェクト決定部113が決定したオブジェクトごとに算出する。ここで、距離とは、領域の重心と位置情報が示す位置との距離、領域のいずれかの点と位置情報が示す位置との距離、位置情報が示す位置に最も近い領域内の点との距離などでも良い。つまり、距離の算出基準は種々あり得る。また、位置情報は、領域情報から生成された情報でも良い。位置情報は、例えば、領域情報から得られる領域の重心を取得されることにより得られる。距離算出部114は、通常、MPUやメモリ等から実現され得る。距離算出部114の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The distance calculation unit 114 determines the distance between each object determined by the shooting object determination unit 113 and the terminal device 13 for each object determined by the shooting object determination unit 113 from the object information of each object and the position information included in the terminal information. To calculate. Here, the distance is the distance between the center of gravity of the area and the position indicated by the position information, the distance between any point in the area and the position indicated by the position information, and the point in the area closest to the position indicated by the position information. It may be distance. That is, there can be various distance calculation criteria. Further, the position information may be information generated from the area information. The position information is obtained, for example, by acquiring the center of gravity of the area obtained from the area information. The distance calculation unit 114 can usually be realized by an MPU, a memory, or the like. The processing procedure of the distance calculation unit 114 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

撮影オブジェクト情報取得部115は、撮影オブジェクト決定部113が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、オブジェクト情報格納部111から取得する。撮影オブジェクト情報取得部115は、撮影オブジェクト情報として、どのような情報を含んでも良い。撮影オブジェクト情報取得部115は、例えば、撮影オブジェクトごとに、距離算出部114が算出した距離を含んでも良い。撮影オブジェクト情報取得部115は、通常、MPUやメモリ等から実現され得る。撮影オブジェクト情報取得部115の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The shooting object information acquisition unit 115 receives, from the object information storage unit 111, one or more shooting object information including area information among one or more object information corresponding to one or more objects determined by the shooting object determination unit 113. get. The shooting object information acquisition unit 115 may include any information as shooting object information. For example, the shooting object information acquisition unit 115 may include the distance calculated by the distance calculation unit 114 for each shooting object. The shooting object information acquisition unit 115 can usually be realized by an MPU, a memory, or the like. The processing procedure of the shooting object information acquisition unit 115 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

サーバ送信部116は、撮影オブジェクト情報取得部115が取得した撮影オブジェクト情報を、端末装置13に送信する。サーバ送信部116は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。   The server transmission unit 116 transmits the shooting object information acquired by the shooting object information acquisition unit 115 to the terminal device 13. The server transmission unit 116 is usually realized by a wireless or wired communication unit, but may be realized by a broadcasting unit.

オブジェクト関連情報格納部121は、オブジェクトに関する情報であるオブジェクト関連情報を格納し得る。オブジェクト関連情報とは、ウェブページ、特に、電子商取引や予約のウェブページ、前記オブジェクトのシンボル画像、または前記オブジェクトに関する音情報(音楽情報を含む)、オブジェクトを宣伝広告する広告情報、オブジェクトに到達するための道案内情報(音声、画像、テキストなど)、オブジェクトを想起させるゲームのプログラムなど、オブジェクトに関連する情報であれば何でも良い。オブジェクト関連情報格納部121は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。   The object related information storage unit 121 can store object related information that is information related to an object. The object-related information is a web page, in particular, an e-commerce or reservation web page, a symbol image of the object, or sound information (including music information) about the object, advertising information for advertising the object, and reaching the object. Any information related to the object can be used, such as route guidance information (sound, image, text, etc.), a game program that recalls the object. The object-related information storage unit 121 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium.

オブジェクト関連情報格納部121にオブジェクト関連情報が記憶される過程は問わない。例えば、記録媒体を介してオブジェクト関連情報がオブジェクト関連情報格納部121で記憶されるようになってもよく、通信回線等を介して送信されたオブジェクト関連情報がオブジェクト関連情報格納部121で記憶されるようになってもよく、あるいは、入力デバイスを介して入力されたオブジェクト関連情報がオブジェクト関連情報格納部121で記憶されるようになってもよい。   The process in which object relevant information is memorize | stored in the object relevant information storage part 121 is not ask | required. For example, the object-related information may be stored in the object-related information storage unit 121 via a recording medium, and the object-related information transmitted via a communication line or the like is stored in the object-related information storage unit 121. Alternatively, the object related information input via the input device may be stored in the object related information storage unit 121.

オブジェクト関連情報取得部122は、外部からの指示に応じて、オブジェクト関連情報を取得する。外部からの指示とは、例えば、端末装置13に出力された領域(オブジェクトの領域、枠など)を、ユーザがポイントすることにより発生した指示である。かかる指示は、端末装置13から直接届いても良いし、サーバ装置11経由で届いても良い。オブジェクト関連情報とは、オブジェクト関連情報を構成する一部の情報でも良い。オブジェクト関連情報取得部122は、通常、MPUやメモリ等から実現され得る。オブジェクト関連情報取得部122の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The object related information acquisition unit 122 acquires object related information in response to an instruction from the outside. The instruction from the outside is, for example, an instruction generated when the user points to an area (an object area, a frame, or the like) output to the terminal device 13. Such an instruction may arrive directly from the terminal device 13 or may arrive via the server device 11. The object related information may be a part of information constituting the object related information. The object related information acquisition unit 122 can be usually realized by an MPU, a memory, or the like. The processing procedure of the object related information acquisition unit 122 is usually realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

オブジェクト関連情報送信部123は、オブジェクト関連情報取得部122が取得したオブジェクト関連情報を送信する。オブジェクト関連情報送信部123は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。   The object related information transmission unit 123 transmits the object related information acquired by the object related information acquisition unit 122. The object-related information transmission unit 123 is usually realized by a wireless or wired communication unit, but may be realized by a broadcasting unit.

カレントレイヤ格納部1301は、カレントレイヤを格納し得る。カレントレイヤとは、現在のレイヤである。レイヤとは、端末装置13が行う処理の階層である。端末装置13は、通常、複数のレイヤを有する。レイヤには、例えば、カメラ部1304が取得した映像を出力するレイヤであるカメラレイヤ、オブジェクトに対応する領域を出力するレイヤであるオブジェクト識別レイヤ、オブジェクト関連情報を出力するレイヤであるウェブサーチレイヤがある。そして、例えば、端末装置13は、下から、カメラレイヤ、オブジェクト識別レイヤ、ウェブサーチレイヤというレイヤを有する。また、例えば、端末装置13は、ナビゲーションレイヤやゲームレイヤや音楽レイヤや写真レイヤなどの他のアプリケーションを示すレイヤを有しても良い。ナビゲーションレイヤとは、オブジェクトまでの道案内を出力するためのレイヤである。ゲームレイヤとは、ゲームプログラムを出力し、ゲームを行える環境を提供するレイヤである。音楽レイヤとは、音楽を出力するレイヤである。写真レイヤとは、1以上の写真を出力するレイヤである。   The current layer storage unit 1301 can store the current layer. The current layer is the current layer. A layer is a hierarchy of processing performed by the terminal device 13. The terminal device 13 usually has a plurality of layers. The layers include, for example, a camera layer that is a layer that outputs video acquired by the camera unit 1304, an object identification layer that is a layer that outputs an area corresponding to an object, and a web search layer that is a layer that outputs object-related information. is there. For example, the terminal device 13 has layers of a camera layer, an object identification layer, and a web search layer from the bottom. For example, the terminal device 13 may have a layer indicating another application such as a navigation layer, a game layer, a music layer, or a photo layer. The navigation layer is a layer for outputting route guidance to an object. The game layer is a layer that outputs a game program and provides an environment where a game can be played. The music layer is a layer that outputs music. A photo layer is a layer that outputs one or more photos.

カレントレイヤ格納部1301は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。カレントレイヤ格納部1301にカレントレイヤが記憶される過程は問わない。例えば、記録媒体を介してカレントレイヤがカレントレイヤ格納部1301で記憶されるようになってもよく、通信回線等を介して送信されたカレントレイヤがカレントレイヤ格納部1301で記憶されるようになってもよく、あるいは、入力デバイスを介して入力されたカレントレイヤがカレントレイヤ格納部1301で記憶されるようになってもよい。   The current layer storage unit 1301 is preferably a nonvolatile recording medium, but can also be realized by a volatile recording medium. The process of storing the current layer in the current layer storage unit 1301 does not matter. For example, the current layer may be stored in the current layer storage unit 1301 via a recording medium, and the current layer transmitted via a communication line or the like is stored in the current layer storage unit 1301. Alternatively, the current layer input via the input device may be stored in the current layer storage unit 1301.

受付部1302は、ユーザから、指示やデータ等の入力を受け付ける。指示やデータ等の入力手段は、キーボードやマウスやテンキーやメニュー画面によるもの等、何でも良い。受付部1302は、キーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。   The accepting unit 1302 accepts inputs such as instructions and data from the user. Any means such as a keyboard, a mouse, a numeric keypad, or a menu screen may be used for inputting instructions and data. The accepting unit 1302 can be realized by a device driver for input means such as a keyboard, control software for a menu screen, or the like.

受付部1302を構成する第一受付手段13021は、ユーザの指示を受け付ける。また、第二受付手段13022は、固定された領域に対する入力を受け付ける。さらに、第三受付手段13023は、カレントレイヤを設定する入力を受け付ける。ユーザの指示や、固定された領域に対する入力や、カレントレイヤを設定する入力などの入力手段は同じ手段でも良いし、異なる手段でも良い。   The first receiving unit 13021 constituting the receiving unit 1302 receives a user instruction. The second accepting unit 13022 accepts an input for the fixed area. Further, the third receiving unit 13023 receives an input for setting the current layer. Input means such as user instructions, input to a fixed area, and input for setting the current layer may be the same means or different means.

端末情報取得部1303は、端末装置13の位置を示す位置情報と、端末装置13が向いている方向を示す方向情報とを有する端末情報を取得する。   The terminal information acquisition unit 1303 acquires terminal information including position information indicating the position of the terminal device 13 and direction information indicating the direction in which the terminal device 13 is facing.

端末情報取得部1303を構成する位置情報取得手段13031は、端末装置13の位置を示す位置情報を取得する。位置情報取得手段13031は、例えば、GPS受信機により構成される。また、位置情報取得手段13031は、例えば、無線電波の受信手段と、3つ以上の基地局から受信した3つ以上の電波の強度から位置情報を取得する処理手段(例えば、MPUやメモリ等で構成される手段)とから構成されても良い。位置情報取得手段13031が位置情報を取得する方法は問わない。また、位置情報は、二次元上の位置でも良いし、三次元空間における位置でも良い。   Position information acquisition means 13031 constituting the terminal information acquisition unit 1303 acquires position information indicating the position of the terminal device 13. The position information acquisition unit 13031 is configured by, for example, a GPS receiver. The position information acquisition unit 13031 is, for example, a radio wave reception unit and a processing unit (for example, an MPU or a memory) that acquires position information from the intensity of three or more radio waves received from three or more base stations. It is also possible to configure the device. The method by which the position information acquisition unit 13031 acquires position information does not matter. The position information may be a two-dimensional position or a position in a three-dimensional space.

方向情報取得手段13032は、端末装置13が向いている方向を示す方向情報を取得する。方向情報は、2次元上の向きを示す情報でも良いし、3次元上の方向(上下方向も含む)を示す情報でも良い。方向情報取得手段13032は、例えば、コンパスで実現される。また、方向情報取得手段13032は、例えば、コンパスとジャイロで実現される。   The direction information acquisition unit 13032 acquires direction information indicating the direction in which the terminal device 13 is facing. The direction information may be information indicating a two-dimensional direction or information indicating a three-dimensional direction (including the vertical direction). The direction information acquisition unit 13032 is realized by a compass, for example. In addition, the direction information acquisition unit 13032 is realized by, for example, a compass and a gyro.

また、端末情報は、カメラ部1304の視野角を含んでも良い。視野角とは、視野角の情報と同意義である。かかる場合、例えば、端末情報取得部1303は、カメラ部1304の視野角を予め格納している、とする。視野角は、二次元の角度でも三次元の角度でも良い。なお、端末装置13(カメラ部1304)の位置、方向、視野角が分かれば、撮影できる領域が分かる。つまり、端末情報は、カメラ部1304が撮影する領域を特定する情報である。撮影する領域は、三次元の領域であることが好適であるが、二次元の領域でも良い。   Further, the terminal information may include the viewing angle of the camera unit 1304. The viewing angle is synonymous with viewing angle information. In such a case, for example, it is assumed that the terminal information acquisition unit 1303 stores the viewing angle of the camera unit 1304 in advance. The viewing angle may be a two-dimensional angle or a three-dimensional angle. In addition, if the position, direction, and viewing angle of the terminal device 13 (camera unit 1304) are known, it is possible to know a region that can be photographed. That is, the terminal information is information for specifying an area to be photographed by the camera unit 1304. The area to be imaged is preferably a three-dimensional area, but may be a two-dimensional area.

また、端末情報は、端末識別子を含んでも良い。視野角や端末識別子は、例えば、端末情報取得部1303が有する図示しない記憶媒体に格納されている。端末識別子とは、端末を識別する情報であり、例えば、電話番号、IPアドレス、MACアドレスなどである。   The terminal information may include a terminal identifier. The viewing angle and the terminal identifier are stored in a storage medium (not shown) included in the terminal information acquisition unit 1303, for example. The terminal identifier is information for identifying a terminal, such as a telephone number, an IP address, or a MAC address.

カメラ部1304は、映像を取得する。カメラ部1304は、いわゆるカメラである。カメラ部1304は、通常、現在、ファインダーに映っている映像を取得する。カメラ部1304は、例えば、CCDカメラにより実現され得る。   The camera unit 1304 acquires a video. The camera unit 1304 is a so-called camera. The camera unit 1304 normally acquires an image currently displayed in the viewfinder. The camera unit 1304 can be realized by, for example, a CCD camera.

送信部1305は、端末情報取得部1303が取得した端末情報をサーバ装置11に送信する。送信部1305は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。   The transmission unit 1305 transmits the terminal information acquired by the terminal information acquisition unit 1303 to the server device 11. The transmission unit 1305 is usually realized by wireless or wired communication means, but may be realized by broadcasting means.

受信部1306は、端末情報の送信に対応して、撮影オブジェクト情報を受信する。撮影オブジェクト情報は、通常、オブジェクト識別子も含む。撮影オブジェクト情報は、端末装置13から当該オブジェクトまでの距離を含んでも良い。受信部1306は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。   The receiving unit 1306 receives shooting object information in response to transmission of terminal information. The shooting object information usually includes an object identifier. The shooting object information may include a distance from the terminal device 13 to the object. The receiving unit 1306 is usually realized by a wireless or wired communication means, but may be realized by a means for receiving a broadcast.

オブジェクト関連情報受信部1307は、オブジェクト関連情報を受信する。オブジェクト関連情報受信部1307は、オブジェクト識別子の送信に対応して、オブジェクト関連情報を受信しても良い。また、オブジェクト関連情報受信部1307は、オブジェクト関連情報を、ウェブサーバ装置12、またはサーバ装置11から受信する。また、オブジェクト関連情報受信部1307は、オブジェクト関連情報を、ウェブサーバ装置12からサーバ装置11経由で受信しても良い。オブジェクト関連情報受信部1307は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。   The object related information receiving unit 1307 receives object related information. The object related information receiving unit 1307 may receive the object related information in response to the transmission of the object identifier. The object related information receiving unit 1307 receives object related information from the web server device 12 or the server device 11. The object related information receiving unit 1307 may receive object related information from the web server device 12 via the server device 11. The object-related information receiving unit 1307 is usually realized by a wireless or wired communication means, but may be realized by a means for receiving a broadcast.

出力情報取得部1308は、受信部1306が受信した撮影オブジェクト情報が有する1以上の領域情報を含む出力情報を取得する。なお、通常、出力情報取得部1308は、領域情報とオブジェクト識別子とを対に有する出力情報を取得する。出力情報取得部1308は、受信部1306が受信した撮影オブジェクト情報が有する1以上の領域情報と1以上の距離とを含む出力情報を取得しても良い。なお、出力情報取得部1308は、撮影オブジェクト情報を出力部1309などの他の要素に、単に渡す場合は、何ら処理を行わない。かかる場合、出力情報取得部1308は、不要である。出力情報取得部1308は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力情報取得部1308は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。   The output information acquisition unit 1308 acquires output information including one or more area information included in the shooting object information received by the reception unit 1306. In general, the output information acquisition unit 1308 acquires output information having a pair of region information and an object identifier. The output information acquisition unit 1308 may acquire output information including one or more area information and one or more distances included in the shooting object information received by the reception unit 1306. Note that the output information acquisition unit 1308 does not perform any processing when simply passing the shooting object information to another element such as the output unit 1309. In such a case, the output information acquisition unit 1308 is not necessary. The output information acquisition unit 1308 may or may not include an output device such as a display or a speaker. The output information acquisition unit 1308 can be implemented by output device driver software, or output device driver software and an output device.

出力部1309は、映像、音声、文字列、画像などのうちの一以上の情報を出力する。出力部1309は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力部1309は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。   The output unit 1309 outputs one or more pieces of information among video, audio, character strings, images, and the like. The output unit 1309 may be considered as including or not including an output device such as a display or a speaker. The output unit 1309 may be realized by output device driver software, or output device driver software and an output device.

カメラ映像出力手段13091は、カメラ部1304が取得した映像を出力する。カメラ映像出力手段13091は、カメラ部1304が取得した映像を、第一表示手段13141に表示することは好適である。   The camera video output unit 13091 outputs the video acquired by the camera unit 1304. The camera video output unit 13091 preferably displays the video acquired by the camera unit 1304 on the first display unit 13141.

領域出力手段13092は、カメラ映像出力手段13091が出力している映像に重ねて、出力情報取得部1308が取得した1以上の出力情報に含まれる領域情報を出力する。かかる場合、領域情報が示すオブジェクトの領域が視覚的に判断できるように、領域情報(例えば、枠)を出力する。領域出力手段13092は、出力情報取得部1308が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、カメラ映像出力手段13091が出力している映像に重ねて出力する。領域出力手段13092は、出力情報取得部1308が取得した1以上の出力情報に含まれる距離が大きいほど、距離に対応するオブジェクトの領域を小さくして出力することは好適である。領域出力手段13092は、他のオブジェクトの領域は出力せず、一のオブジェクトの領域のみを他の領域と視覚的に区別可能なように、カメラ映像出力手段13091が出力している映像に重ねて出力することは好適である。「一のオブジェクトの領域のみ」とは、他の領域を出力しない意図であり、他の種類の情報(領域情報以外の情報)を出力しない意図ではない。なお、上記において、出力情報取得部1308が取得した1以上の出力情報に含まれる領域情報は、1以上の撮影オブジェクトに含まれる領域情報でも良い。   The area output unit 13092 outputs area information included in one or more pieces of output information acquired by the output information acquisition unit 1308 so as to overlap the video output by the camera video output unit 13091. In such a case, region information (for example, a frame) is output so that the region of the object indicated by the region information can be visually determined. The area output means 13092 is a camera video output means so that an area having a size corresponding to the area information included in the one or more pieces of output information acquired by the output information acquisition unit 1308 can be visually distinguished from other areas. The image is output by being overlaid on the video output by 13091. It is preferable that the area output unit 13092 outputs an object corresponding to the distance with a smaller size as the distance included in the one or more pieces of output information acquired by the output information acquisition unit 1308 is larger. The area output means 13092 does not output the area of the other object, and superimposes only the area of one object on the video output by the camera video output means 13091 so that it can be visually distinguished from the other areas. It is preferable to output. “Only one object area” is intended not to output other areas, and is not intended to output other types of information (information other than area information). In the above, the area information included in the one or more pieces of output information acquired by the output information acquisition unit 1308 may be the area information included in one or more shooting objects.

領域出力手段13092は、ディスプレイ等の出力デバイスを含むと考えても含まないと考えても良い。領域出力手段13092は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。   The region output means 13092 may or may not include an output device such as a display. The area output means 13092 can be realized by output device driver software, or output device driver software and an output device.

距離出力手段13093は、1以上の撮影オブジェクトに含まれる距離を出力する。距離出力手段13093は、領域出力手段13092が出力した領域に対応付けて出力することは好適である。また、距離出力手段13093は、出力部1309が出力している映像に重ねて、距離を出力することは好適である。ここで、「領域に対応付けて」とは、領域内に距離を出力することが好適であるが、領域外への距離の出力でも良い。距離出力手段13093は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。距離出力手段13093は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。   The distance output unit 13093 outputs a distance included in one or more shooting objects. The distance output unit 13093 is preferably output in association with the region output by the region output unit 13092. In addition, it is preferable that the distance output unit 13093 outputs the distance so as to be superimposed on the video output by the output unit 1309. Here, “corresponding to the region” is preferably output of the distance within the region, but may be output of the distance outside the region. The distance output unit 13093 may or may not include an output device such as a display or a speaker. The distance output means 13093 can be implemented by output device driver software, or output device driver software and an output device.

オブジェクト関連情報出力手段13094は、オブジェクト関連情報受信部1307が受信したオブジェクト関連情報を出力する。   The object related information output unit 13094 outputs the object related information received by the object related information receiving unit 1307.

オブジェクト関連情報出力手段13094は、オブジェクト関連情報受信部1307が受信したオブジェクト関連情報を、第二表示手段13142に表示することは好適である。かかる場合、カメラ部1304が取得した映像が第一表示手段13141に表示され、オブジェクト関連情報が第二表示手段13142に表示される。オブジェクト関連情報出力手段13094は、他のオブジェクトのオブジェクト関連情報は出力せず、一のオブジェクトのオブジェクト関連情報のみを出力することは好適である。ここで、「一のオブジェクトのオブジェクト関連情報のみを出力する」とは、他のオブジェクトのオブジェクト関連情報は出力しないことであり、他の種類の情報を出力しないことではない。オブジェクト関連情報出力手段13094は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。オブジェクト関連情報出力手段13094は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。   It is preferable that the object related information output unit 13094 displays the object related information received by the object related information receiving unit 1307 on the second display unit 13142. In such a case, the video acquired by the camera unit 1304 is displayed on the first display unit 13141, and the object related information is displayed on the second display unit 13142. The object related information output means 13094 preferably outputs only the object related information of one object without outputting the object related information of other objects. Here, “output only the object-related information of one object” means that the object-related information of another object is not output, and does not mean that other types of information are not output. The object related information output unit 13094 may be considered as including or not including an output device such as a display or a speaker. The object-related information output unit 13094 can be realized by output device driver software, or output device driver software and output device.

カレントレイヤ変更部1310は、第三受付手段13023で受け付けた入力に従って、カレントレイヤ格納部1301のカレントレイヤを変更する。第三受付手段13023で受け付けた入力には、カレントレイヤを特定する情報(カレントレイヤまたは、カレントレイヤを進める情報(レイヤに順序がある場合))が含まれる、とする。カレントレイヤ変更部1310は、通常、MPUやメモリ等から実現され得る。カレントレイヤ変更部1310の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The current layer changing unit 1310 changes the current layer in the current layer storage unit 1301 according to the input received by the third receiving unit 13023. It is assumed that the input received by the third receiving unit 13023 includes information for specifying the current layer (current layer or information for advancing the current layer (when the layers are in order)). The current layer changing unit 1310 can usually be realized by an MPU, a memory, or the like. The processing procedure of the current layer changing unit 1310 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

出力固定部1311は、受付部1302が指示を受け付けた場合、出力部1309が出力中の映像と領域を固定する。ここで、固定とは、Pause、Resumeのことである。つまり、固定とは、カメラのアングルを動かしても、画面上に出力されている映像や領域情報などは動かない、という意味である。そして、出力固定部1311は、出力部1309が出力中の映像と領域を、少なくとも一時的に、図示しない記憶媒体に記録する。なお、出力中の映像などを固定する技術は、いわゆるビデオムービーなどの機能と同様であり、公知技術である。出力固定部1311は、通常、MPUやメモリ等から実現され得る。出力固定部1311の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   When the receiving unit 1302 receives an instruction, the output fixing unit 1311 fixes the video and the area that the output unit 1309 is outputting. Here, “fixed” refers to Pause and Resume. In other words, “fixed” means that even if the angle of the camera is moved, the image or area information output on the screen does not move. Then, the output fixing unit 1311 records the video and area being output by the output unit 1309 at least temporarily on a storage medium (not shown). Note that a technique for fixing an image being output is the same as a function of a so-called video movie, and is a known technique. The output fixing unit 1311 can be usually realized by an MPU, a memory, or the like. The processing procedure of the output fixing unit 1311 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

オブジェクト識別子取得部1312は、第二受付手段13022で受け付けた入力に対応する領域に対するオブジェクト識別子を取得する。オブジェクト識別子取得部1312は、例えば、領域情報と対になっているオブジェクト識別子を取得する。オブジェクト識別子取得部1312は、例えば、指示された枠(領域)で特定される領域情報を、1以上の撮影オブジェクト情報から取得し、当該領域情報と対になるオブジェクト識別子を取得する。なお、ここで、オブジェクト識別子とは、オブジェクトを識別する情報であれば良く、例えば、URLやオブジェクト名などでも良い。また、オブジェクト識別子取得部1312が取得するオブジェクト識別子と、他の構成要素が処理するオブジェクト識別子とが異なった種類の情報(例えば、オブジェクトIDとURLなど)でも良い。オブジェクト識別子取得部1312は、通常、MPUやメモリ等から実現され得る。オブジェクト識別子取得部1312の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。   The object identifier acquisition unit 1312 acquires an object identifier for an area corresponding to the input received by the second receiving unit 13022. The object identifier acquisition unit 1312 acquires, for example, an object identifier that is paired with the area information. For example, the object identifier acquisition unit 1312 acquires area information specified by the designated frame (area) from one or more pieces of shooting object information, and acquires an object identifier paired with the area information. Here, the object identifier may be any information that identifies an object, and may be, for example, a URL or an object name. In addition, the object identifier acquired by the object identifier acquisition unit 1312 and the object identifier processed by another component may be different types of information (for example, object ID and URL). The object identifier acquisition unit 1312 can usually be realized by an MPU, a memory, or the like. The processing procedure of the object identifier acquisition unit 1312 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).

オブジェクト識別子送信部1313は、オブジェクト識別子取得部1312が取得したオブジェクト識別子を1以上のウェブサーバ装置12のいずれかに送信する。オブジェクト識別子送信部1313は、オブジェクト識別子をサーバ装置11に送信しても良い。オブジェクト識別子送信部1313は、オブジェクト識別子により特定できるウェブサーバ装置12に、オブジェクト関連情報の送信指示を送信しても良い。かかる場合も、オブジェクト識別子の送信である、とする。オブジェクト識別子送信部1313は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。   The object identifier transmission unit 1313 transmits the object identifier acquired by the object identifier acquisition unit 1312 to one of the one or more web server devices 12. The object identifier transmission unit 1313 may transmit the object identifier to the server device 11. The object identifier transmission unit 1313 may transmit an object-related information transmission instruction to the web server device 12 that can be specified by the object identifier. In such a case, it is also assumed that the object identifier is transmitted. The object identifier transmission unit 1313 is usually realized by a wireless or wired communication unit, but may be realized by a broadcasting unit.

表示部1314は、情報を表示するデバイスである。第一表示手段13141は、情報を表示する第一のデバイスである。第二表示手段13142は、情報を表示する第二のデバイスである。第一表示手段13141と第二表示手段13142とは、例えば、物理的に分離されていることは好適であるが、それぞれ、一ディスプレイを2分割したウィンドウでも良い。   The display unit 1314 is a device that displays information. The first display unit 13141 is a first device that displays information. The second display unit 13142 is a second device that displays information. For example, the first display unit 13141 and the second display unit 13142 are preferably physically separated, but each display may be divided into two windows.

次に、情報システム1の動作について説明する。まず、サーバ装置11の動作について、図4のフローチャートを用いて説明する。   Next, the operation of the information system 1 will be described. First, operation | movement of the server apparatus 11 is demonstrated using the flowchart of FIG.

(ステップS401)サーバ受信部112は、端末装置13から、端末情報を受信したか否かを判断する。端末情報を受信すればステップS402に行き、端末情報を受信しなければステップS401に戻る。   (Step S <b> 401) The server reception unit 112 determines whether terminal information has been received from the terminal device 13. If terminal information is received, it will go to step S402, and if terminal information is not received, it will return to step S401.

(ステップS402)撮影オブジェクト決定部113は、ステップS401で受信された端末情報を用いて、当該端末情報が有する位置情報および/または方向情報を、オブジェクト情報格納部111の各オブジェクト情報の領域情報に適用し、端末装置13が撮影している(端末装置13のディスプレイに映っている)1以上のオブジェクトを決定する。かかる処理を撮影オブジェクト決定処理という。なお、撮影オブジェクト決定部113は、予め格納されている視野角をも用いて、端末装置13が撮影している1以上のオブジェクトを決定することは好適である。なお、端末装置13が撮影しているオブジェクトを撮影オブジェクトとも言う。撮影オブジェクト決定処理について、図5のフローチャートを用いて説明する。   (Step S402) Using the terminal information received in step S401, the shooting object determination unit 113 uses the location information and / or direction information of the terminal information as region information of each object information in the object information storage unit 111. Apply one or more objects that are captured by the terminal device 13 (shown on the display of the terminal device 13). Such a process is called a shooting object determination process. Note that it is preferable that the shooting object determination unit 113 determines one or more objects being shot by the terminal device 13 also using a pre-stored viewing angle. Note that an object being photographed by the terminal device 13 is also referred to as a photographing object. The shooting object determination process will be described with reference to the flowchart of FIG.

(ステップS403)距離算出部114は、ステップS401で受信された端末情報が有する位置情報を取得する。かかる位置情報は、端末装置13の位置を示す情報である。   (Step S403) The distance calculation unit 114 acquires position information included in the terminal information received in Step S401. Such position information is information indicating the position of the terminal device 13.

(ステップS404)距離算出部114は、カウンタiに1を代入する。   (Step S404) The distance calculation unit 114 substitutes 1 for a counter i.

(ステップS405)距離算出部114は、i番目の撮影オブジェクトが存在するか否かを判断する。i番目の撮影オブジェクトが存在すればステップS406に行き、i番目の撮影オブジェクトが存在しなければステップS410に行く。   (Step S405) The distance calculation unit 114 determines whether or not the i-th shooting object exists. If the i-th shooting object exists, the process goes to step S406, and if the i-th shooting object does not exist, the process goes to step S410.

(ステップS406)距離算出部114は、i番目の撮影オブジェクトの位置情報を、オブジェクト情報格納部111から取得する。なお、i番目の撮影オブジェクトの位置情報は、i番目の撮影オブジェクトのオブジェクト情報に含まれる。   (Step S406) The distance calculation unit 114 acquires the position information of the i-th shooting object from the object information storage unit 111. Note that the position information of the i-th shooting object is included in the object information of the i-th shooting object.

(ステップS407)距離算出部114は、ステップS403で取得した位置情報が示す地点と、ステップS406で取得した位置情報が示す地点との距離を算出する。2地点の各位置情報から、両地点の距離を算出する技術は公知技術である。なお、ここで算出された距離は、端末装置13と撮影オブジェクトとの距離である。   (Step S407) The distance calculation unit 114 calculates the distance between the point indicated by the position information acquired in step S403 and the point indicated by the position information acquired in step S406. A technique for calculating the distance between the two points from each position information of the two points is a known technique. The distance calculated here is the distance between the terminal device 13 and the shooting object.

(ステップS408)撮影オブジェクト情報取得部115は、i番目の撮影オブジェクトの領域情報を含む情報をオブジェクト情報格納部111から取得する。そして、撮影オブジェクト情報取得部115は、オブジェクト情報格納部111から取得したi番目の撮影オブジェクトの情報と、ステップS407で取得した距離を有する撮影オブジェクト情報を構成する。次に、撮影オブジェクト情報取得部115は、i番目の撮影オブジェクト情報をバッファに一時格納する。   (Step S408) The shooting object information acquisition unit 115 acquires information including area information of the i-th shooting object from the object information storage unit 111. The shooting object information acquisition unit 115 configures shooting object information having the i-th shooting object information acquired from the object information storage unit 111 and the distance acquired in step S407. Next, the shooting object information acquisition unit 115 temporarily stores the i-th shooting object information in the buffer.

(ステップS409)距離算出部114は、カウンタiを1、インクリメントする。ステップS405に戻る。   (Step S409) The distance calculation unit 114 increments the counter i by 1. The process returns to step S405.

(ステップS410)サーバ送信部116は、ステップS408でバッファに一時格納された1以上の撮影オブジェクト情報を、端末装置13に送信する。ステップS401に戻る。   (Step S <b> 410) The server transmission unit 116 transmits one or more pieces of shooting object information temporarily stored in the buffer in step S <b> 408 to the terminal device 13. The process returns to step S401.

なお、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。   In the flowchart of FIG. 4, the process ends when the power is turned off or the process ends.

また、図4のフローチャートにおいて、端末装置13と撮影オブジェクトとの距離の算出は、一度だけで良いことは言うまでもない。つまり、ステップS402の中で、端末装置13と撮影オブジェクトとの距離を算出し、格納した場合には、ステップS406からS407の処理は不要となる。   In the flowchart of FIG. 4, it is needless to say that the distance between the terminal device 13 and the shooting object may be calculated only once. That is, when the distance between the terminal device 13 and the shooting object is calculated and stored in step S402, the processing of steps S406 to S407 is not necessary.

次に、ステップS402の撮影オブジェクト決定処理について、図5のフローチャートを用いて説明する。   Next, the shooting object determination process in step S402 will be described with reference to the flowchart of FIG.

(ステップS501)撮影オブジェクト決定部113は、ステップS401で受信された端末情報が有する位置情報を取得する。   (Step S501) The shooting object determination unit 113 acquires position information included in the terminal information received in step S401.

(ステップS502)撮影オブジェクト決定部113は、ステップS401で受信された端末情報が有する方向情報と、視野角とを用いて、撮影されない角度を取得する。そして、撮影オブジェクト決定部113は、かかる角度(不可視領域の角度)を記録媒体に登録(記録)する。例えば、方向情報が90度(例えば、真東)であり、視野角が40度である場合、撮影される角度は「70度から110度」である。したがって、撮影オブジェクト決定部113は、「0<=不可視領域の角度<70」および「110<不可視領域の角度<=360」を登録する。なお、ここで、撮影オブジェクト決定部113は、撮影される角度(可視領域の角度)を取得し、登録しても良い。つまり、可視領域の角度の登録も、不可視領域の角度の登録と同意義である、とする。   (Step S502) The shooting object determination unit 113 acquires an angle at which shooting is not performed using the direction information included in the terminal information received in step S401 and the viewing angle. Then, the shooting object determination unit 113 registers (records) the angle (the angle of the invisible region) on the recording medium. For example, when the direction information is 90 degrees (for example, true east) and the viewing angle is 40 degrees, the captured angle is “70 degrees to 110 degrees”. Therefore, the photographing object determination unit 113 registers “0 <= invisible region angle <70” and “110 <invisible region angle <= 360”. Here, the shooting object determination unit 113 may acquire and register the shooting angle (the angle of the visible region). That is, it is assumed that the registration of the angle of the visible region is equivalent to the registration of the angle of the invisible region.

(ステップS503)撮影オブジェクト決定部113は、ステップS501で取得した位置情報を用いて、端末装置13から近いオブジェクトの順に、オブジェクト情報格納部111のオブジェクト情報をソートする。かかる処理をオブジェクトソート処理という。オブジェクトソート処理について、図6のフローチャートを用いて説明する。   (Step S503) The shooting object determination unit 113 sorts the object information in the object information storage unit 111 in the order of objects closer to the terminal device 13, using the position information acquired in step S501. Such processing is called object sort processing. The object sort process will be described with reference to the flowchart of FIG.

(ステップS504)撮影オブジェクト決定部113は、カウンタiに1を代入する。   (Step S504) The shooting object determination unit 113 substitutes 1 for the counter i.

(ステップS505)撮影オブジェクト決定部113は、オブジェクト情報格納部111に、i番目のオブジェクトが存在するか否かを判断する。i番目のオブジェクトが存在すればステップS506に行き、i番目のオブジェクトが存在しなければ上位処理にリターンする。   (Step S505) The shooting object determination unit 113 determines whether or not the i-th object exists in the object information storage unit 111. If the i-th object exists, the process proceeds to step S506, and if the i-th object does not exist, the process returns to the upper process.

(ステップS506)撮影オブジェクト決定部113は、オブジェクト情報格納部111から、i番目のオブジェクトのオブジェクト情報が有する領域情報を取得する。   (Step S506) The shooting object determining unit 113 acquires area information included in the object information of the i-th object from the object information storage unit 111.

(ステップS507)撮影オブジェクト決定部113は、ステップS501で取得した位置情報と、ステップS505で取得した領域情報とを用いて、i番目のオブジェクトが、撮影オブジェクト(端末装置13のディスプレイに映っている)か否かを判断する。かかる判断を、可視判断処理という。可視判断処理について、図7、図8のフローチャートを用いて説明する。   (Step S507) The shooting object determination unit 113 uses the position information acquired in step S501 and the region information acquired in step S505 to display the i-th object on the shooting object (display of the terminal device 13). ) Or not. Such a determination is referred to as a visual determination process. The visibility determination process will be described with reference to the flowcharts of FIGS.

(ステップS508)撮影オブジェクト決定部113は、ステップS506における判断の結果、i番目のオブジェクトが撮影オブジェクトであればステップS509に行き、撮影オブジェクトでなければステップS510に行く。   (Step S508) As a result of the determination in step S506, the shooting object determination unit 113 goes to step S509 if the i-th object is a shooting object, and goes to step S510 if it is not a shooting object.

(ステップS509)撮影オブジェクト決定部113は、少なくとも、i番目のオブジェクトのオブジェクト識別子を図示しない記憶媒体に格納する。   (Step S509) The shooting object determination unit 113 stores at least the object identifier of the i-th object in a storage medium (not shown).

(ステップS510)撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在するか否かを判断する。可視領域が存在すればステップS511に行き、存在しなければ上位処理にリターンする。なお、かかる判断は、二次元平面において行われても良いし、三次元空間において行われても良い。   (Step S510) The photographing object information determination unit 113 determines whether or not a visible area exists from the registered invisible area or visible area. If the visible area exists, the process goes to step S511, and if not, the process returns to the upper process. Such determination may be performed in a two-dimensional plane or may be performed in a three-dimensional space.

(ステップS511)撮影オブジェクト決定部113は、カウンタiを1、インクリメントする。ステップS505に戻る。   (Step S511) The photographing object determining unit 113 increments the counter i by 1. The process returns to step S505.

なお、図5のフローチャートにおいて、不可視領域の角度を登録したが、可視領域の角度を登録し、以後、かかる角度に入いるオブジェクトのみを処理対象としても良い。   In the flowchart of FIG. 5, the angle of the invisible region is registered. However, the angle of the visible region may be registered, and only an object that falls within the angle may be processed thereafter.

また、図5のフローチャートのステップS510において、撮影オブジェクト情報決定部113は、端末装置13からの距離が近い順(範囲や角度を区切った中のオブジェクトの集合の中での近い順でも良い)にオブジェクトを検査し、端末装置13が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合(すべてが不可視領域になった場合と同意義)に、オブジェクトが端末装置13に撮影されているか否かの検査を終了することを説明した。   Further, in step S510 of the flowchart of FIG. 5, the shooting object information determination unit 113 is arranged in the order of the short distance from the terminal device 13 (the order may be the closest in the set of objects in which the range and angle are divided). When an object is inspected and information on an invisible area is registered as an invisible area as a result of shooting the object previously determined that the terminal device 13 is shooting, the visible area disappears (all become invisible areas). In this case, it is explained that the inspection of whether or not the object is photographed on the terminal device 13 is terminated.

さらに、具体的には、ステップS510の処理は、以下である。つまり、撮影オブジェクト情報決定部113は、端末装置13から近い順にオブジェクトを検査し、端末装置13が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報(ここでは、通常、後述の最小角度(θ)および最大角度(θ))を不可視領域として登録し、次に検査するオブジェクトと端末装置13とにより不可視領域となる領域の情報を取得し、前記最小角度(θ)および最大角度(θ)により特定される領域のすべてが既に不可視領域として登録されているか否かを判断し、不可視領域として登録されていなければ前記次に検査するオブジェクトを端末装置13が撮影しているとして決定し、当該最小角度(θ)および最大角度(θ)により特定される領域を不可視領域として登録する処理を繰り返し、端末情報が有する視野角すべての領域が不可視領域となった場合に、オブジェクトの検査を終了することである。Furthermore, specifically, the process of step S510 is as follows. In other words, the shooting object information determination unit 113 inspects the objects in the order from the terminal device 13, and information on an area that becomes invisible by shooting of the object previously determined that the terminal device 13 is shooting (here, normally, A minimum angle (θ 1 ) and a maximum angle (θ 2 ), which will be described later, are registered as an invisible region, information on a region that becomes an invisible region is acquired by the object to be inspected next and the terminal device 13, and the minimum angle (θ 3 ) It is determined whether all the areas specified by the maximum angle (θ 4 ) have already been registered as invisible areas, and if not registered as invisible areas, the terminal device 13 determines the object to be inspected next. The area determined by the minimum angle (θ 3 ) and the maximum angle (θ 4 ) is registered as an invisible area. This process is repeated, and the inspection of the object is terminated when all the viewing angles of the terminal information are invisible.

また、図5のフローチャートにおいて、ステップS510の処理は無くても良い。
さらに、図5のフローチャートにおいて、可視領域が存在しなくなった場合に、撮影されているオブジェクトの検知処理を終了した。しかし、閾値の数だけ、可視領域内のオブジェクトが見つかった場合、予め決められた条件に合致するオブジェクトが見つかった場合など、他の条件により、オブジェクトの検知処理を終了しても良い。
Further, in the flowchart of FIG. 5, the process of step S510 may be omitted.
Furthermore, in the flowchart of FIG. 5, when the visible region no longer exists, the detection processing of the object being photographed is terminated. However, the object detection process may be terminated depending on other conditions, such as when an object in the visible region corresponding to the threshold number is found, or an object that matches a predetermined condition is found.

次に、ステップS502のオブジェクトソート処理について、図6のフローチャートを用いて説明する。   Next, the object sort processing in step S502 will be described using the flowchart of FIG.

(ステップS601)撮影オブジェクト決定部113は、カウンタiに1を代入する。   (Step S601) The photographic object determination unit 113 substitutes 1 for a counter i.

(ステップS602)撮影オブジェクト決定部113は、オブジェクト情報格納部111に、i番目のオブジェクトが存在するか否かを判断する。i番目のオブジェクトが存在すればステップS603に行き、i番目のオブジェクトが存在しなければステップS607に行く。   (Step S602) The shooting object determination unit 113 determines whether or not the i-th object exists in the object information storage unit 111. If the i-th object exists, the process goes to step S603, and if the i-th object does not exist, the process goes to step S607.

(ステップS603)撮影オブジェクト決定部113は、i番目のオブジェクトの位置情報を、オブジェクト情報格納部111から取得する。なお、i番目のオブジェクトの位置情報は、i番目のオブジェクトのオブジェクト情報に含まれる。   (Step S <b> 603) The shooting object determination unit 113 acquires the position information of the i-th object from the object information storage unit 111. Note that the position information of the i-th object is included in the object information of the i-th object.

(ステップS604)撮影オブジェクト決定部113は、ステップS403で取得した位置情報が示す地点と、ステップS603で取得した位置情報が示す地点との距離を算出する。   (Step S604) The shooting object determining unit 113 calculates the distance between the point indicated by the position information acquired in step S403 and the point indicated by the position information acquired in step S603.

(ステップS605)撮影オブジェクト決定部113は、ステップS604で取得した距離とi番目のオブジェクトのオブジェクト情報(またはそのうちの一部の情報)とを対にして、図示しない記録媒体に一時的に格納する。   (Step S605) The shooting object determination unit 113 pairs the distance acquired in Step S604 and the object information (or part of the information) of the i-th object and temporarily stores them in a recording medium (not shown). .

(ステップS606)撮影オブジェクト決定部113は、カウンタiを1、インクリメントする。ステップS602に戻る。   (Step S606) The photographing object determining unit 113 increments the counter i by one. The process returns to step S602.

(ステップS607)撮影オブジェクト決定部113は、距離をキーとして、距離の近い(小さい)順に、オブジェクト情報をソートする。上位処理にリターンする。   (Step S607) The shooting object determination unit 113 sorts the object information in the order of closer (smaller) distance using the distance as a key. Return to upper process.

次に、ステップS506の可視判断処理について、図7のフローチャートを用いて説明する。なお、ここでの可視判断処理は、第一の可視判断処理である。第一の可視判断処理は、オブジェクトの平面的な情報のみを用いて、オブジェクトが端末装置13のディスプレイに出力されているか否かを判断する処理である。   Next, the visibility determination process in step S506 will be described with reference to the flowchart in FIG. The visibility determination process here is a first visibility determination process. The first visibility determination process is a process for determining whether or not the object is output on the display of the terminal device 13 using only the planar information of the object.

(ステップS701)撮影オブジェクト決定部113は、カウンタiに1を代入する。   (Step S701) The shooting object determining unit 113 substitutes 1 for the counter i.

(ステップS702)撮影オブジェクト決定部113は、判断対象となるオブジェクトの領域情報の中にi番目の点が存在するか否かを判断する。i番目の点が存在すればステップS703に行き、i番目の点が存在しなければステップS705に行く。なお、領域情報は、例えば、その外形を示す点から構成されるとする。外形を示す点とは、領域情報が示す領域が4角形であれば4点存在し、8角形であれば8点存在する。点とは、通常、(緯度,経度)または(x座標、y座標)などで示される。   (Step S702) The shooting object determination unit 113 determines whether or not the i-th point exists in the area information of the object to be determined. If the i-th point exists, the process goes to step S703, and if the i-th point does not exist, the process goes to step S705. The region information is assumed to be composed of points indicating the outer shape, for example. The points indicating the outer shape include four points if the region indicated by the region information is a tetragon, and eight points if the region is an octagon. The point is usually indicated by (latitude, longitude) or (x coordinate, y coordinate).

(ステップS703)撮影オブジェクト決定部113は、i番目の点と位置情報との角度(θ)を算出し、当該角度(θ)をバッファに一時記憶する。角度(θ)の基準は、例えば、真北である。ただし、基準は一定であれば良く、真北であるとは限らない。なお、位置情報とは、端末装置13の位置を示す情報である。   (Step S703) The shooting object determining unit 113 calculates an angle (θ) between the i-th point and the position information, and temporarily stores the angle (θ) in a buffer. The reference for the angle (θ) is, for example, true north. However, the standard only needs to be constant and is not necessarily true north. The position information is information indicating the position of the terminal device 13.

(ステップS704)撮影オブジェクト決定部113は、カウンタiを1、インクリメントする。ステップS702に戻る。   (Step S704) The photographing object determining unit 113 increments the counter i by 1. The process returns to step S702.

(ステップS705)撮影オブジェクト決定部113は、ステップS703でバッファに一時格納された角度(θ)から、最小の角度(θ)と最大角度(θ)とを取得する。(Step S705) The shooting object determining unit 113 acquires the minimum angle (θ 1 ) and the maximum angle (θ 2 ) from the angle (θ) temporarily stored in the buffer in step S703.

(ステップS706)撮影オブジェクト決定部113は、ステップS705で取得した最小の角度(θ)と最大角度(θ)の領域すべてが、既に登録されている角度の領域であるか否かを判断する。既に登録されている角度の領域であればステップS710に行き、既に登録されている角度の領域を一部でも含まない場合はステップS707に行く。(Step S706) The shooting object determining unit 113 determines whether or not all the areas of the minimum angle (θ 1 ) and the maximum angle (θ 2 ) acquired in step S705 are already registered angle areas. To do. If it is an area of an already registered angle, go to step S710, and if it does not include any of the already registered angle areas, go to step S707.

(ステップS707)撮影オブジェクト決定部113は、このオブジェクトを撮影オブジェクトであると判断する。リターン値として、撮影オブジェクトである旨の情報(例えば、「1」)を代入する。   (Step S707) The shooting object determination unit 113 determines that this object is a shooting object. Information (for example, “1”) indicating that the object is a shooting object is substituted as a return value.

(ステップS708)撮影オブジェクト決定部113は、このオブジェクトを撮影オブジェクトであるとしたために、現在、不可視領域として登録されている角度に加え、最小の角度(θ)と最大角度(θ)の領域を不可視領域とする角度の幅(領域)を取得する。なお、例えば、現在、「30度から40度」が登録されており、最小の角度(θ)が35度であり、最大角度(θ)が45度である場合、撮影オブジェクト決定部113は、「30度から45度」を取得する。また、例えば、現在、「30度から40度」が登録されており、最小の角度(θ)が55度であり、最大角度(θ)が60度である場合、「55度から60度」を取得する。(Step S708) Since the shooting object determining unit 113 determines that this object is a shooting object, in addition to the angle currently registered as the invisible region, the shooting object determination unit 113 sets the minimum angle (θ 1 ) and the maximum angle (θ 2 ). Acquires the width (region) of the angle that makes the region an invisible region. For example, if “30 to 40 degrees” is currently registered, the minimum angle (θ 1 ) is 35 degrees, and the maximum angle (θ 2 ) is 45 degrees, the shooting object determination unit 113 Acquires “30 degrees to 45 degrees”. Also, for example, when “30 to 40 degrees” is currently registered, the minimum angle (θ 1 ) is 55 degrees, and the maximum angle (θ 2 ) is 60 degrees, “55 to 60 degrees”. Get "degree".

(ステップS709)撮影オブジェクト決定部113は、ステップS708で取得した角度を登録する。なお、例えば、上記において、「30度から45度」は、「30度から40度」の情報に上書きされる。また、例えば、上記において、「55度から60度」が追記される。上位処理にリターンする。このとき、リターン値も返される。   (Step S709) The shooting object determining unit 113 registers the angle acquired in step S708. For example, in the above, “30 degrees to 45 degrees” is overwritten with the information “30 degrees to 40 degrees”. For example, in the above, “55 degrees to 60 degrees” is additionally written. Return to upper process. At this time, a return value is also returned.

(ステップS710)撮影オブジェクト決定部113は、撮影オブジェクト決定部113は、このオブジェクトを非撮影オブジェクトであると判断する。リターン値として、非撮影オブジェクトである旨の情報(例えば、「0」)を代入する。上位処理にリターンする。このとき、リターン値も返される。   (Step S710) The shooting object determination unit 113 determines that the shooting object determination unit 113 is a non-shooting object. Information indicating that the object is a non-photographing object (for example, “0”) is substituted as a return value. Return to upper process. At this time, a return value is also returned.

次に、ステップS506の可視判断処理について、図8のフローチャートを用いて説明する。なお、ここでの可視判断処理は、第二の可視判断処理である。第二の可視判断処理は、オブジェクトの立体的な情報のみを用いて、オブジェクトが端末装置13のディスプレイに出力されているか否かを判断する処理である。図8のフローチャートにおいて、図7のフローチャートと同様のステップについて、説明を省略する。   Next, the visibility determination process in step S506 will be described with reference to the flowchart in FIG. The visibility determination process here is a second visibility determination process. The second visibility determination process is a process for determining whether or not the object is output on the display of the terminal device 13 using only the three-dimensional information of the object. In the flowchart of FIG. 8, the description of the same steps as those of the flowchart of FIG.

(ステップS801)撮影オブジェクト決定部113は、i番目の点(x1,y1,z1)と位置情報(x0,y0,z0)との高さ方向の角度(θ)を算出し、バッファに格納する。(Step S801) The shooting object determination unit 113 calculates the angle (θ h ) in the height direction between the i-th point (x1, y1, z1) and the position information (x0, y0, z0), and stores it in the buffer. To do.

(ステップS802)撮影オブジェクト決定部113は、視点(位置情報)からの高さ方向の角度(θ)を取得する。θは、ステップS801で格納したθのうち、最大の角度である。(Step S802) The shooting object determining unit 113 acquires the angle (θ 3 ) in the height direction from the viewpoint (position information). θ 3 is the maximum angle among θ h stored in step S801.

(ステップS803)撮影オブジェクト決定部113は、最小の角度(θ)と最大角度(θ)の領域において、高さ方向の角度(θ)以上の角度が既に、登録されているか否かを判断する。登録されていればステップS710に行き、登録されていなければステップS707に行く。高さ方向の角度(θ)以上の角度が既に登録されている場合は、対象となるオブジェクトは不可視領域にあり、撮影オブジェクトではないことを示す。(Step S803) The photographing object determining unit 113 determines whether or not an angle equal to or higher than the angle (θ 3 ) in the height direction has already been registered in the region of the minimum angle (θ 1 ) and the maximum angle (θ 2 ). Judging. If it is registered, the process goes to step S710, and if not registered, the process goes to step S707. If an angle equal to or higher than the angle (θ 3 ) in the height direction has already been registered, it indicates that the target object is in the invisible region and is not a shooting object.

(ステップS804)撮影オブジェクト決定部113は、このオブジェクトを撮影オブジェクトであるとしたために、現在、不可視領域として登録されている角度に加え、最小角度(θ)と最大角度(θ)の平面領域を不可視領域とする角度の幅(領域)を取得する。なお、例えば、現在、「30度から40度」が登録されており、最小の角度(θ)が35度であり、最大角度(θ)が45度である場合、撮影オブジェクト決定部113は、「30度から45度」を取得する。(Step S804) Since the shooting object determination unit 113 determines that this object is a shooting object, a plane having a minimum angle (θ 1 ) and a maximum angle (θ 2 ) in addition to the angle currently registered as the invisible region. Acquires the width (region) of the angle that makes the region an invisible region. For example, if “30 to 40 degrees” is currently registered, the minimum angle (θ 1 ) is 35 degrees, and the maximum angle (θ 2 ) is 45 degrees, the shooting object determination unit 113 Acquires “30 degrees to 45 degrees”.

(ステップS805)撮影オブジェクト決定部113は、このオブジェクトを撮影オブジェクトであるとしたために、高さ方向の角度(θ)を取得する。なお、例えば、現在、最小の角度(θ)と最大角度(θ)の平面領域において、高さの角度「30度」が登録されている場合、取得した高さ方向の角度(θ)が「35度」であれば、「35度」を取得する。(Step S805) The shooting object determination unit 113 acquires the angle (θ 3 ) in the height direction because this object is a shooting object. For example, when the height angle “30 degrees” is registered in the plane area of the minimum angle (θ 1 ) and the maximum angle (θ 2 ), the acquired angle in the height direction (θ 3 ) Is “35 degrees”, “35 degrees” is acquired.

(ステップS806)撮影オブジェクト決定部113は、ステップS804で取得した平面領域の角度(例えば、「30度から45度」)と、高さ方向の角度(例えば、「35度」)を対応付けて蓄積(登録)する。上位処理にリターンする。このとき、リターン値も返される。なお、撮影オブジェクト決定部113は、最小角度(θ)と最大角度(θ)の平面領域において、現在、不可視領域として登録されている高さ方向の角度が、高さ方向の角度(θ)以上であるか否かを判断し、高さ方向の角度(θ)以上であれば、高さ方向の角度(θ)を蓄積しない。(Step S806) The shooting object determining unit 113 associates the angle of the planar area (for example, “30 degrees to 45 degrees”) acquired in Step S804 with the angle in the height direction (for example, “35 degrees”). Accumulate (register). Return to upper process. At this time, a return value is also returned. Note that the shooting object determination unit 113 determines that the angle in the height direction currently registered as the invisible area in the plane area of the minimum angle (θ 1 ) and the maximum angle (θ 2 ) is the angle in the height direction (θ 3) determines the whether or, if the height direction of the angle (theta 3) above, do not accumulate angle (theta 3) in the height direction.

次に、情報システム1のウェブサーバ装置12の動作について説明する。ウェブサーバ装置12のオブジェクト関連情報取得部122は、外部(通常、端末装置13またはサーバ装置11)からの指示に応じて、オブジェクト関連情報を、オブジェクト関連情報格納部121から取得する。そして、オブジェクト関連情報送信部123は、オブジェクト関連情報取得部122が取得したオブジェクト関連情報を端末装置13またはサーバ装置11に送信する。   Next, the operation of the web server device 12 of the information system 1 will be described. The object related information acquisition unit 122 of the web server device 12 acquires object related information from the object related information storage unit 121 in response to an instruction from the outside (usually the terminal device 13 or the server device 11). Then, the object related information transmission unit 123 transmits the object related information acquired by the object related information acquisition unit 122 to the terminal device 13 or the server device 11.

次に、端末装置13の動作について、図9のフローチャートを用いて説明する。   Next, operation | movement of the terminal device 13 is demonstrated using the flowchart of FIG.

(ステップS901)受付部1302は、指示等を受け付けたか否かを判断する。指示等を受け付ければステップS902に行き、指示等を受け付けなければステップS901に戻る。   (Step S901) The receiving unit 1302 determines whether an instruction or the like has been received. If an instruction or the like is accepted, the process goes to step S902. If an instruction or the like is not accepted, the process returns to step S901.

(ステップS902)第一受付手段13021は、ステップS901で受け付けた指示がオブジェクト取得指示であるか否かを判断する。オブジェクト取得指示とは、撮影しているオブジェクトに関する情報を取得する指示である。オブジェクト取得指示であればステップS903に行き、オブジェクト取得指示でなければステップS909に行く。   (Step S902) First receiving means 13021 determines whether or not the instruction received in step S901 is an object acquisition instruction. The object acquisition instruction is an instruction to acquire information regarding the object being photographed. If it is an object acquisition instruction, the process proceeds to step S903, and if it is not an object acquisition instruction, the process proceeds to step S909.

(ステップS903)端末情報取得部1303の位置情報取得手段13031は、端末装置13の位置情報を取得する。   (Step S903) The position information acquisition unit 13031 of the terminal information acquisition unit 1303 acquires the position information of the terminal device 13.

(ステップS904)方向情報取得手段13032は、端末装置13が向いている方向を示す方向情報を取得する。   (Step S904) The direction information acquisition unit 13032 acquires direction information indicating the direction in which the terminal device 13 is facing.

(ステップS905)端末情報取得部1303は、ステップS903で取得した位置情報と、ステップS904で取得した方向情報とを有する端末情報を構成する。なお、端末情報取得部1303は、予め格納している視野角を含む端末情報を構成することは好適である。   (Step S905) The terminal information acquisition unit 1303 configures terminal information including the position information acquired in Step S903 and the direction information acquired in Step S904. In addition, it is suitable for the terminal information acquisition part 1303 to comprise the terminal information containing the viewing angle stored beforehand.

(ステップS906)送信部1305は、ステップS905で構成した端末情報をサーバ装置11に送信する。   (Step S906) The transmission unit 1305 transmits the terminal information configured in Step S905 to the server device 11.

(ステップS907)受信部1306は、端末情報の送信に対応して、撮影オブジェクト情報を受信したか否かを判断する。撮影オブジェクト情報を受信すればステップS908に行き、撮影オブジェクト情報を受信しなければステップS907に戻る。   (Step S907) The receiving unit 1306 determines whether or not the shooting object information has been received in response to the transmission of the terminal information. If the shooting object information is received, the process proceeds to step S908. If the shooting object information is not received, the process returns to step S907.

(ステップS908)出力部1309等は、ステップS907で受信した撮影オブジェクト情報を出力する処理を行う。かかる処理は、撮影オブジェクト情報出力処理という。ステップS901に戻る。   (Step S908) The output unit 1309 and the like perform processing for outputting the shooting object information received in step S907. Such processing is called shooting object information output processing. The process returns to step S901.

(ステップS909)第二受付手段13022は、ステップS901で受け付けた入力が領域に対する入力であるか否かを判断する。領域に対する入力とは、オブジェクトを示す領域(枠)の表示に対する指示である。領域に対する入力であればステップS910に行き、領域に対する入力でなければステップS911に行く。   (Step S909) The second accepting means 13022 judges whether or not the input accepted in Step S901 is an input for the area. The input to the area is an instruction to display an area (frame) indicating the object. If the input is for an area, the process goes to step S910, and if not, the process goes to step S911.

(ステップS910)出力部1309等は、指示された領域に対するオブジェクトに関する情報を出力する処理を行う。かかる処理を、オブジェクト関連情報出力処理という。ステップS901に戻る。   (Step S910) The output unit 1309 and the like perform a process of outputting information related to the object for the designated area. Such processing is called object-related information output processing. The process returns to step S901.

(ステップS911)第三受付手段13023は、ステップS901で受け付けた入力がカレントレイヤを設定する入力であるか否かを判断する。カレントレイヤを設定する入力であればステップS912に行き、カレントレイヤを設定する入力でなければステップS913に行く。   (Step S911) The third receiving unit 13023 determines whether or not the input received in step S901 is an input for setting the current layer. If the input is for setting the current layer, the process goes to step S912. If the input is not for setting the current layer, the process goes to step S913.

(ステップS912)カレントレイヤ変更部1310は、ステップS911で受け付けた入力に従って、カレントレイヤ格納部1301のカレントレイヤを変更する。   (Step S912) The current layer changing unit 1310 changes the current layer of the current layer storage unit 1301 according to the input received in step S911.

(ステップS913)各構成要素は、受け付けた指示に対応した動作を行う。例えば、受け付けた指示が撮影開始指示であれば、カメラ部1304が起動し、映像を取得し、カメラ映像出力手段13091が、カメラ部1304が取得した映像を出力する。また、例えば、受け付けた指示が出力固定指示である場合、出力固定部1311は、出力部1309が出力中の映像と領域を固定する。   (Step S913) Each component performs an operation corresponding to the received instruction. For example, if the received instruction is a shooting start instruction, the camera unit 1304 is activated to acquire a video, and the camera video output unit 13091 outputs the video acquired by the camera unit 1304. Further, for example, when the received instruction is an output fixing instruction, the output fixing unit 1311 fixes the video and the region being output by the output unit 1309.

次に、ステップS908の撮影オブジェクト情報出力処理について、図10のフローチャートを用いて説明する。   Next, the shooting object information output process in step S908 will be described with reference to the flowchart of FIG.

(ステップS1001)出力部1309は、カレントレイヤを、カレントレイヤ格納部1301から読み出す。   (Step S1001) The output unit 1309 reads the current layer from the current layer storage unit 1301.

(ステップS1002)出力情報取得部1308は、カウンタiに1を代入する。   (Step S1002) The output information acquisition unit 1308 substitutes 1 for the counter i.

(ステップS1003)出力情報取得部1308は、出力対象の撮影オブジェクト情報の中に、i番目の撮影オブジェクトが存在するか否かを判断する。i番目の撮影オブジェクトが存在すればステップS1004に行き、i番目の撮影オブジェクトが存在しなければ上位処理にリターンする。   (Step S1003) The output information acquisition unit 1308 determines whether or not the i-th shooting object exists in the shooting object information to be output. If the i-th shooting object exists, the process proceeds to step S1004. If the i-th shooting object does not exist, the process returns to the upper process.

(ステップS1004)出力情報取得部1308は、i番目の撮影オブジェクトの領域情報を取得する。   (Step S1004) The output information acquisition unit 1308 acquires area information of the i-th shooting object.

(ステップS1005)出力部1309は、i番目の撮影オブジェクトの領域情報から、枠サイズを決定する。枠サイズとは、通常、領域情報に対応する大きさの枠(通常、矩形)である。   (Step S1005) The output unit 1309 determines the frame size from the area information of the i-th shooting object. The frame size is usually a frame (usually a rectangle) having a size corresponding to the area information.

(ステップS1006)出力部1309は、ステップS1001で読み出したカレントレイヤが、オブジェクト識別レイヤであるか否かを判断する。オブジェクト識別レイヤであればステップS1007に行き、オブジェクト識別レイヤでなければステップS1010に行く。   (Step S1006) The output unit 1309 determines whether or not the current layer read in step S1001 is an object identification layer. If it is the object identification layer, go to step S1007, and if it is not the object identification layer, go to step S1010.

(ステップS1007)領域出力手段13092は、ステップS1005で決定された枠サイズに合致する枠を構成する。枠とは、例えば、矩形の領域のウィンドウやオブジェクトや図形等である。   (Step S1007) The region output means 13092 configures a frame that matches the frame size determined in step S1005. The frame is, for example, a rectangular area window, object, figure, or the like.

(ステップS1008)領域出力手段13092は、領域情報が示す領域に、ステップS1007で構成した枠を出力する。領域出力手段13092は、通常、カメラ映像出力手段13091が出力している映像に重ねて、枠を出力する。この枠は、出力情報取得部1308が取得した1以上の出力情報に含まれる領域情報とも言える。   (Step S1008) The area output unit 13092 outputs the frame configured in step S1007 to the area indicated by the area information. The region output unit 13092 normally outputs a frame in a manner that overlaps the video output by the camera video output unit 13091. This frame can also be said to be area information included in one or more pieces of output information acquired by the output information acquisition unit 1308.

なお、本ステップで、距離出力手段13093は、出力情報取得部1308が取得した1以上の出力情報に含まれる距離をも出力することは好適である。この距離の出力は、枠内または枠に対応付けて出力することはさらに好適である。   In this step, it is preferable that the distance output unit 13093 also outputs a distance included in one or more pieces of output information acquired by the output information acquisition unit 1308. It is more preferable to output the distance in association with the frame or the frame.

(ステップS1009)出力情報取得部1308は、カウンタiを1、インクリメントする。ステップS1003に戻る。   (Step S1009) The output information acquisition unit 1308 increments the counter i by one. The process returns to step S1003.

(ステップS1010)出力部1309は、ステップS1001で読み出したカレントレイヤが、ウェブサーチレイヤであるか否かを判断する。ウェブサーチレイヤであればステップS1007に行き、ウェブサーチレイヤでなければステップS1009に行く。   (Step S1010) The output unit 1309 determines whether or not the current layer read in step S1001 is a web search layer. If it is the web search layer, go to step S1007, and if it is not the web search layer, go to step S1009.

(ステップS1011)出力部1309は、オブジェクト関連情報の出力処理を行う。ステップS1009に行く。   (Step S1011) The output unit 1309 performs an object related information output process. Go to step S1009.

なお、図10のフローチャートにおいて、領域情報(例えば、枠)の出力は必須ではない。また、距離の出力も必須ではない。出力部1309は、撮影オブジェクト情報のうちのいかなる情報を出力しても良い。   In the flowchart of FIG. 10, it is not essential to output area information (for example, a frame). Moreover, the output of distance is not essential. The output unit 1309 may output any information of the shooting object information.

次に、ステップS101のオブジェクト関連情報出力処理について、図11のフローチャートを用いて説明する。   Next, the object related information output processing in step S101 will be described with reference to the flowchart of FIG.

(ステップS1101)オブジェクト識別子取得部1312は、第二受付手段13022で受け付けた入力に対応する領域に対するオブジェクト識別子を取得する。   (Step S1101) The object identifier acquisition unit 1312 acquires an object identifier for an area corresponding to the input received by the second receiving unit 13022.

(ステップS1102)オブジェクト識別子送信部1313は、ステップS1101で取得されたオブジェクト識別子を1以上のウェブサーバ装置12のいずれかに送信する。オブジェクト識別子がウェブサーバ装置12のURLである場合、オブジェクト識別子送信部1313は、オブジェクト識別子を、当該URLに対応するウェブサーバ装置12に送信する。なお、オブジェクト識別子の送信とは、オブジェクト関連情報を取得するための、何らかの情報の送信も含まれる。   (Step S1102) The object identifier transmission unit 1313 transmits the object identifier acquired in step S1101 to one of the one or more web server devices 12. When the object identifier is the URL of the web server device 12, the object identifier transmission unit 1313 transmits the object identifier to the web server device 12 corresponding to the URL. The transmission of the object identifier includes transmission of some information for obtaining the object related information.

(ステップS1103)オブジェクト関連情報受信部1307は、ステップS1102におけるオブジェクト識別子の送信に対応して、オブジェクト関連情報を受信したか否かを判断する。オブジェクト関連情報を受信すればステップS1104に行き、オブジェクト関連情報を受信しなければステップS1103に戻る。   (Step S1103) The object-related information receiving unit 1307 determines whether or not object-related information has been received in response to the transmission of the object identifier in step S1102. If the object related information is received, the process proceeds to step S1104. If the object related information is not received, the process returns to step S1103.

(ステップS1104)出力部1309は、ステップS1103で受信したオブジェクト関連情報がシンボル情報であるか否かを判断する。シンボル情報であればステップS1105に行き、シンボル情報でなければステップS1106に行く。なお、シンボル情報とは、オブジェクトを特定する画像やアイコンなどである。シンボル情報とは、例えば、後述するシンボル画像やシンボル音楽(特に、アイコン)などである。   (Step S1104) The output unit 1309 determines whether or not the object related information received in step S1103 is symbol information. If it is symbol information, go to step S1105, and if it is not symbol information, go to step S1106. Note that the symbol information is an image or icon that identifies an object. The symbol information is, for example, a symbol image or symbol music (particularly an icon) described later.

(ステップS1105)オブジェクト関連情報出力手段13094は、オブジェクト関連情報受信部1307が受信したオブジェクト関連情報を、領域に合わせて縮小または拡大する。   (Step S1105) The object related information output unit 13094 reduces or enlarges the object related information received by the object related information receiving unit 1307 in accordance with the area.

(ステップS1106)オブジェクト関連情報出力手段13094は、オブジェクト関連情報を出力する。上位処理にリターンする。   (Step S1106) The object related information output means 13094 outputs object related information. Return to upper process.

以下、本実施の形態における情報システム1の具体的な動作について説明する。情報システム1の概念図は図1である。   Hereinafter, a specific operation of the information system 1 in the present embodiment will be described. A conceptual diagram of the information system 1 is shown in FIG.

まず、情報システム1の技術的な概念について説明する。情報システム1は、例えば、図12に示すような概念を有している。情報システム1は、拡張ウェブブラウジング(Augmented Web Browsing)を実現できる。つまり、情報システム1は、カメラで捉えている画像に含まれるオブジェクトに関する情報(領域を示す枠、ウェブページ、シンボル画像など)を、当該オブジェクトに重ねて、または他の領域(他のウィンドウや他のディスプレイ)に表示できる。   First, the technical concept of the information system 1 will be described. The information system 1 has a concept as shown in FIG. 12, for example. The information system 1 can realize Augmented Web Browsing. That is, the information system 1 superimposes information related to an object included in an image captured by the camera (a frame indicating a region, a web page, a symbol image, etc.) on the object or another region (another window or another). Display).

また、情報システム1の端末装置13は、図12に示すように、複数のレイヤを有する。レイヤとは、端末装置13が行う処理の階層である。レイヤとは、例えば、カメラレイヤ(camera layer)、地図センシングレイヤ(Geospatial Sensing layer)、オブジェクト識別レイヤ(Object-identification layer)、ウェブサーチレイヤ(Web search API layer)、タッチコントロールレイヤ(Touch-control layer)などである。かかる複数のレイヤが有する構造を、Layer-based Media Integration Platform という。   Moreover, the terminal device 13 of the information system 1 has a plurality of layers as shown in FIG. A layer is a hierarchy of processing performed by the terminal device 13. The layers are, for example, a camera layer, a map sensing layer, an object identification layer, a web search API layer, a touch control layer. ) Etc. Such a structure of a plurality of layers is referred to as a Layer-based Media Integration Platform.

なお、地図センシングレイヤとは、地図情報を検出するための処理のレイヤである。また、タッチコントロールレイヤとは、ユーザからの指示(通常、タッチ)を受け付け、指示に対応する処理に移行するレイヤである。また、カメラレイヤ、オブジェクト識別レイヤ、ウェブサーチレイヤは、出力する情報を区別でき、かつ処理も行えるレイヤである。地図センシングレイヤ、タッチコントロールレイヤは、処理を行うためのレイヤである。   The map sensing layer is a process layer for detecting map information. The touch control layer is a layer that accepts an instruction (usually touch) from the user and shifts to processing corresponding to the instruction. In addition, the camera layer, the object identification layer, and the web search layer are layers that can distinguish output information and perform processing. The map sensing layer and the touch control layer are layers for performing processing.

ここでは、カレントレイヤがカメラレイヤの場合は、カメラ部1304が取得した映像のみを出力する。また、カレントレイヤがオブジェクト識別レイヤの場合は、カメラ部1304が取得した映像と、当該映像に含まれるオブジェクトに関する情報(例えば、枠など)を出力する。さらに、カレントレイヤがウェブサーチレイヤの場合は、カメラ部1304が取得した映像、当該映像に含まれるオブジェクトに関する情報(例えば、枠など)、およびウェブサーバ装置12から取得した情報を出力する。なお、カレントレイヤがウェブサーチレイヤの場合は、カメラ部1304が取得した映像およびウェブサーバ装置12から取得した情報のみを出力しても良い。   Here, when the current layer is a camera layer, only the video acquired by the camera unit 1304 is output. When the current layer is an object identification layer, the video acquired by the camera unit 1304 and information (for example, a frame) about the object included in the video are output. Furthermore, when the current layer is a web search layer, the video acquired by the camera unit 1304, information about objects included in the video (for example, a frame), and information acquired from the web server device 12 are output. If the current layer is a web search layer, only the video acquired by the camera unit 1304 and information acquired from the web server device 12 may be output.

また、情報システム1において、上記したレイヤだけでなく、種々のレイヤを有しても良い(図13参照)。種々のレイヤとは、上述したレイヤの他、例えば、メディア重畳レイヤ(Media Superimposing layer)や、ナビゲーションレイヤがある。メディア重畳レイヤとは、種々のメディアを重畳して出力するレイヤである。ナビゲーションレイヤとは、オブジェクトへの道などをナビゲーションするレイヤである。   Further, the information system 1 may have various layers in addition to the above-described layers (see FIG. 13). In addition to the layers described above, the various layers include, for example, a media superimposing layer and a navigation layer. The media superposition layer is a layer that superimposes and outputs various media. The navigation layer is a layer for navigating the way to the object.

次に、2つの具体例を用いて、情報システム1について説明する。具体例1は、オブジェクトの高さまでは考慮せず、オブジェクトの平面的な情報のみを考慮して、撮影されている映像の中に含まれるオブジェクトを認識し、当該オブジェクトに関する情報を出力する態様である。具体例2は、オブジェクトの高さをも考慮して、撮影されている映像の中に含まれるオブジェクトを認識し、当該オブジェクトに関する情報を出力する態様である。   Next, the information system 1 will be described using two specific examples. Specific example 1 is a mode in which an object included in a captured video is recognized in consideration of only planar information of the object without considering the height of the object, and information related to the object is output. is there. Specific example 2 is an aspect in which the height of the object is also taken into account, the object included in the video being captured is recognized, and information related to the object is output.

(具体例1)   (Specific example 1)

今、サーバ装置11のオブジェクト情報格納部111は、図14に示すオブジェクト情報管理表を保持している。オブジェクト情報管理表は、地図上のオブジェクト情報を管理している表である。オブジェクト情報管理表は、「オブジェクト識別子」「オブジェクト名」「URL」「位置情報」「領域情報」などの属性値を有するレコードを1以上、管理している。「オブジェクト識別子」は、ここでは、オブジェクトのIDである。「オブジェクト名」は、オブジェクトの名称を示す。URLは、オブジェクトに関して説明するウェブページ(ここでのオブジェクト関連情報)が存在する場所を示す情報である。「位置情報」は、オブジェクトの位置を特定する情報であり、ここでは、(緯度,経度)である。「領域情報」は、オブジェクトが配置されている二次元領域を示す情報であり、ここでは、多角形であるオブジェクトの3以上の頂点を示す。頂点も、ここでは、(緯度,経度)である。   Now, the object information storage unit 111 of the server apparatus 11 holds the object information management table shown in FIG. The object information management table is a table that manages object information on the map. The object information management table manages one or more records having attribute values such as “object identifier”, “object name”, “URL”, “location information”, and “region information”. Here, the “object identifier” is an ID of an object. “Object name” indicates the name of the object. The URL is information indicating a location where a web page (object-related information here) describing the object exists. “Position information” is information for specifying the position of an object, and here is (latitude, longitude). “Area information” is information indicating a two-dimensional area in which an object is arranged, and here indicates three or more vertices of an object that is a polygon. The vertex is also (latitude, longitude) here.

また、ウェブサーバ装置12のオブジェクト関連情報格納部121は、例えば、図15に示すオブジェクト関連情報を有する。オブジェクト関連情報は、ここでは、シンボル画像、シンボル音楽、ウェブページを有する。シンボル画像は、オブジェクトを象徴する画像(アイコン)である。シンボル音楽は、オブジェクトを象徴する音楽と、音楽を示す画像(アイコン)である。なお、シンボル音楽は、オブジェクトを象徴する音楽だけでも良い。また、ウェブページは、オブジェクトを説明する説明情報の一種である。ウェブページは、オブジェクトについて、単に説明するページでも良いし、オブジェクトの広告情報でも良いし、オブジェクトに対して何らかのアクションを発生させるページ(例えば、商品やサービスの注文や予約など)でも良い。つまり、説明情報は、ウェブページを用いて行える処理を実現する情報などでも良い。また、図15において、ウェブページに、シンボル画像、シンボル音楽などが含まれても良い。   Moreover, the object relevant information storage part 121 of the web server apparatus 12 has the object relevant information shown in FIG. 15, for example. Here, the object-related information includes a symbol image, symbol music, and a web page. The symbol image is an image (icon) that symbolizes an object. The symbol music is music that symbolizes an object and an image (icon) indicating the music. The symbol music may be only music that symbolizes an object. A web page is a type of explanation information that describes an object. The web page may be a page that simply describes the object, may be advertisement information of the object, or may be a page that generates some action on the object (for example, order or reservation of goods or services). That is, the explanation information may be information that realizes processing that can be performed using a web page. In FIG. 15, the web page may include a symbol image, symbol music, and the like.

また、端末装置13は、2つのディスプレイを有する端末である、とする。なお、端末装置13は、一つのディスプレイを有する端末であっても良いし、3つ以上のディスプレイを有する端末であっても良い。   Further, it is assumed that the terminal device 13 is a terminal having two displays. The terminal device 13 may be a terminal having one display or a terminal having three or more displays.

さらに、端末装置13のカレントレイヤ格納部1301は、「カレントレイヤ=カメラレイヤ」を格納している、とする。   Furthermore, it is assumed that the current layer storage unit 1301 of the terminal device 13 stores “current layer = camera layer”.

かかる場合、ユーザは、端末装置13を起動した、とする。すると、受付部1302は、起動の指示を受け付ける。そして、カメラ部1304は、カレントレイヤ格納部1301から「カレントレイヤ=カメラレイヤ」を読み出す。そして、カメラ部1304は、カメラを起動する。すると、図16に示すように、端末装置13の第一表示手段13141に、外界の映像が出力される。   In this case, it is assumed that the user has activated the terminal device 13. Then, the accepting unit 1302 accepts an activation instruction. Then, the camera unit 1304 reads “current layer = camera layer” from the current layer storage unit 1301. Then, the camera unit 1304 activates the camera. Then, as shown in FIG. 16, an external image is output to the first display unit 13141 of the terminal device 13.

次に、ユーザは、カレントレイヤをオブジェクト識別レイヤにする指示を入力した、とする。すると、第三受付手段13023は、受け付けた入力がカレントレイヤを設定する入力であると判断する。次に、カレントレイヤ変更部1310は、受け付けた入力に従って、カレントレイヤ格納部1301のカレントレイヤをオブジェクト識別レイヤに変更する。   Next, it is assumed that the user has input an instruction to make the current layer an object identification layer. Then, the third receiving unit 13023 determines that the received input is an input for setting the current layer. Next, the current layer changing unit 1310 changes the current layer of the current layer storage unit 1301 to the object identification layer according to the received input.

次に、ユーザは、図16の端末装置13の状態から、映像中のオブジェクトの情報を得ようとして、オブジェクト取得指示を入力する。オブジェクト取得指示は、タッチすることにより入力されることが好適であるが、メニューからの選択、キーボード等の入力手段による入力等により、入力されても良い。次に、第一受付手段13021は、オブジェクト取得指示を受け付ける。   Next, the user inputs an object acquisition instruction to obtain information on the object in the video from the state of the terminal device 13 in FIG. The object acquisition instruction is preferably input by touching, but may be input by selection from a menu, input by an input means such as a keyboard, or the like. Next, the first receiving unit 13021 receives an object acquisition instruction.

次に、端末情報取得部1303の位置情報取得手段13031(ここでは、例えば、GPS受信機)は、端末装置13の位置情報(X,Y)を取得する。   Next, position information acquisition means 13031 (here, for example, a GPS receiver) of the terminal information acquisition unit 1303 acquires the position information (X, Y) of the terminal device 13.

次に、方向情報取得手段13032は、端末装置13が向いている方向を示す方向情報(θA)を取得する。方向情報(θA)は、例えば、真北から時計回りの角度(真東は90度)を示す。   Next, the direction information acquisition unit 13032 acquires direction information (θA) indicating the direction in which the terminal device 13 is facing. The direction information (θA) indicates, for example, a clockwise angle from true north (90 degrees for true east).

また、端末情報取得部1303は、カメラ部1304が有する視野角の情報(単に「視野角」という)を読み出す。ここでは、視野角は「θa」である、とする。また、カメラ部1304は、予め視野角「θa」を格納している。とする。   In addition, the terminal information acquisition unit 1303 reads information on the viewing angle of the camera unit 1304 (simply referred to as “viewing angle”). Here, it is assumed that the viewing angle is “θa”. The camera unit 1304 stores a viewing angle “θa” in advance. And

次に、端末情報取得部1303は、取得した位置情報(X,Y)と、取得した方向情報(θA)と、視野角(θa)とを有する端末情報(X,Y,θA,θa)を構成する。   Next, the terminal information acquisition unit 1303 obtains terminal information (X, Y, θA, θa) having the acquired position information (X, Y), the acquired direction information (θA), and the viewing angle (θa). Configure.

次に、送信部1305は、構成した端末情報(X,Y,θA,θa)をサーバ装置11に送信する。   Next, the transmission unit 1305 transmits the configured terminal information (X, Y, θA, θa) to the server device 11.

そして、サーバ受信部112は、端末装置13から、端末情報(X,Y,θA,θa)を受信する。   Then, the server reception unit 112 receives terminal information (X, Y, θA, θa) from the terminal device 13.

次に、サーバ受信部112は、以下のように、撮影オブジェクトを決定する。つまり、撮影オブジェクト決定部113は、受信された端末情報が有する位置情報(X,Y)を取得する。   Next, the server reception unit 112 determines a shooting object as follows. That is, the shooting object determination unit 113 acquires position information (X, Y) included in the received terminal information.

次に、撮影オブジェクト決定部113は、端末情報が有する方向情報(θA)と視野角(θa)とを用いて、不可視領域となる角度を算出する。撮影オブジェクト決定部113は、「(θA−(θa/2))<=可視領域<=(θA+(θa/2))」を可視領域となる角度として決定する。そして、可視領域を除く角度を不可視領域角度として算出し、蓄積する。かかる概念を図17に示す。なお、可視領域が真北のラインをまたがっていない場合、不可視領域角度は「0<=不可視領域角度<(θA−(θa/2))」および「(θA+(θa/2))<不可視領域角度<=360」である。また、可視領域が真北のラインをまたがっている場合、不可視領域角度は「(θA+(θa/2))<不可視領域角度<(θA−(θa/2))」である。   Next, the shooting object determination unit 113 calculates an angle that becomes an invisible region by using the direction information (θA) and the viewing angle (θa) included in the terminal information. The shooting object determination unit 113 determines “(θA− (θa / 2)) <= visible region <= (θA + (θa / 2))” as an angle that becomes a visible region. Then, the angle excluding the visible region is calculated and stored as the invisible region angle. This concept is shown in FIG. When the visible region does not cross the true north line, the invisible region angle is “0 <= invisible region angle <(θA− (θa / 2))” and “(θA + (θa / 2)) <invisible region. Angle <= 360 ”. When the visible region extends across the true north line, the invisible region angle is “(θA + (θa / 2)) <invisible region angle <(θA− (θa / 2))”.

そして、撮影オブジェクト決定部113は、取得した位置情報(X,Y)を用いて、端末装置13から近いオブジェクトの順に、オブジェクト情報格納部111のオブジェクト情報をソートする。ソート処理については、図6で説明した処理により行う。ソート処理の結果、撮影オブジェクト決定部113は、図18に示すようなオブジェクト一時管理表を取得する。オブジェクト一時管理表の各レコードは、オブジェクト識別子と距離とを有する。距離は、位置情報(X,Y)が示す点とオブジェクトの位置情報が示す点との距離である。   Then, the shooting object determination unit 113 sorts the object information in the object information storage unit 111 in the order of objects closer to the terminal device 13 using the acquired position information (X, Y). The sort process is performed by the process described with reference to FIG. As a result of the sorting process, the shooting object determining unit 113 acquires an object temporary management table as shown in FIG. Each record of the object temporary management table has an object identifier and a distance. The distance is the distance between the point indicated by the position information (X, Y) and the point indicated by the object position information.

次に、撮影オブジェクト決定部113は、オブジェクト一時管理表の上位のレコードから、撮影オブジェクトであるか否かを判断する。   Next, the shooting object determination unit 113 determines whether or not the object is a shooting object from a higher-order record in the object temporary management table.

つまり、撮影オブジェクト決定部113は、オブジェクト一時管理表の1番目のレコードのオブジェクト識別子「1」を読み出す。そして、当該オブジェクト識別子「1」をキーとして、オブジェクト情報管理表を検索し、オブジェクト識別子「1」と対になる領域情報「(x,y)(x,y)(x,y)(x,y)」を取得する。That is, the shooting object determination unit 113 reads the object identifier “1” of the first record in the temporary object management table. Then, the object information management table is searched using the object identifier “1” as a key, and region information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 ) ”.

次に、撮影オブジェクト決定部113は、受信された端末情報(X,Y,θA,θa)と、取得した領域情報「(x,y)(x,y)(x,y)(x,y)」とを用いて、1番目のオブジェクトが、撮影オブジェクトか否かを判断する。Next, the shooting object determination unit 113 receives the received terminal information (X, Y, θA, θa) and the acquired area information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 ) ”to determine whether or not the first object is a shooting object.

まず、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「1」のオブジェクト)の領域情報の中の1番目の点(x,y)を取得する。First, the shooting object determination unit 113 acquires the first point (x 1 , y 1 ) in the area information of the object to be determined (object with the object identifier “1”).

次に、撮影オブジェクト決定部113は、1番目の点(x,y)と位置情報(X,Y)との角度(θ1)を算出し、当該角度(θ1)をバッファに一時記憶する。同様に、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「1」のオブジェクト)の領域情報の中の2番目の点から4番目の各点と位置情報(X,Y)との角度(θ2,θ3,θ4)を算出し、当該角度(θ2,θ3,θ4)もバッファに一時記憶する。バッファには、(θ1,θ2,θ3,θ4)が格納されたことになる。Next, the shooting object determination unit 113 calculates an angle (θ1) between the first point (x 1 , y 1 ) and the position information (X, Y), and temporarily stores the angle (θ1) in the buffer. . Similarly, the shooting object determination unit 113 sets each point from the second point to the position information (X, Y) in the region information of the object to be determined (object having the object identifier “1”). The angles (θ2, θ3, θ4) are calculated, and the angles (θ2, θ3, θ4) are also temporarily stored in the buffer. (Θ1, θ2, θ3, θ4) is stored in the buffer.

次に、撮影オブジェクト決定部113は、バッファに一時格納された角度(θ1,θ2,θ3,θ4)から、最小角度(例えば、(θ1))と最大角度(例えば、(θ4))とを取得する。   Next, the shooting object determination unit 113 acquires the minimum angle (for example, (θ1)) and the maximum angle (for example, (θ4)) from the angles (θ1, θ2, θ3, θ4) temporarily stored in the buffer. To do.

次に、撮影オブジェクト決定部113は、取得した最小角度(θ1)と最大角度(θ4)の領域すべてが、既に登録されている角度の領域(「(θA−(θa/2))<=可視領域<=(θA+(θa/2))」を除く角度)であるか否かを判断する。ここで、撮影オブジェクト決定部113は、取得した最小角度(θ1)と最大角度(θ4)の領域は、可視領域であると判断した、とする。そして、撮影オブジェクト決定部113は、オブジェクト識別子「1」のオブジェクトは、撮影オブジェクトであると判断する。   Next, the imaging object determination unit 113 determines that all the acquired areas of the minimum angle (θ1) and the maximum angle (θ4) are already registered angle areas (“(θA− (θa / 2)) <= visible. It is determined whether or not the region ≦ = (θA + (θa / 2)) ”. Here, it is assumed that the shooting object determination unit 113 determines that the acquired area of the minimum angle (θ1) and the maximum angle (θ4) is a visible area. Then, the shooting object determination unit 113 determines that the object with the object identifier “1” is a shooting object.

次に、撮影オブジェクト決定部113は、「θ1<=不可視領域<=θ4」を新たな不可視領域とする。つまり、撮影オブジェクト決定部113は、例えば、「0<=不可視領域角度<(θA−(θa/2))」および「(θA+(θa/2))<不可視領域角度<=360」と「θ1<=不可視領域<=θ4」とをマージした不可視領域角度を記録媒体に登録する。ここで、マージとは、今までの不可視領域に、「θ1<=不可視領域<=θ4」を加えることである。   Next, the shooting object determining unit 113 sets “θ1 <= invisible region <= θ4” as a new invisible region. That is, the imaging object determination unit 113, for example, “0 <= invisible area angle <(θA− (θa / 2))” and “(θA + (θa / 2)) <invisible area angle <= 360” and “θ1”. The invisible area angle obtained by merging <= invisible area <= θ4 ”is registered in the recording medium. Here, “merging” means adding “θ1 <= invisible region <= θ4” to the invisible region so far.

次に、撮影オブジェクト決定部113は、1番目のオブジェクトのオブジェクト識別子「1」を図示しない記憶媒体に格納する。
次に、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在する、と判断する。
Next, the shooting object determination unit 113 stores the object identifier “1” of the first object in a storage medium (not shown).
Next, the shooting object information determination unit 113 determines that a visible area exists from the registered invisible area or visible area.

次に、撮影オブジェクト決定部113は、オブジェクト一時管理表の2番目のオブジェクト識別子「17」を取得し、当該識別子「17」をキーとして、オブジェクト情報管理表を検索し、オブジェクト識別子「17」と対になる領域情報(例えば、「(x101,y101)(x102,y102)(x103,y103)(x103,y103)」)を取得する。Next, the shooting object determination unit 113 acquires the second object identifier “17” of the temporary object management table, searches the object information management table using the identifier “17” as a key, and obtains the object identifier “17”. The paired region information (for example, “(x 101 , y 101 ) (x 102 , y 102 ) (x 103 , y 103 ) (x 103 , y 103 )”) is acquired.

次に、撮影オブジェクト決定部113は、受信された端末情報(X,Y,θA,θa)と、取得した領域情報「(x101,y101)(x102,y102)(x103,y103)(x103,y103)」とを用いて、2番目のオブジェクトが、撮影オブジェクトか否かを判断する。Next, the shooting object determination unit 113 receives the received terminal information (X, Y, θA, θa) and the acquired area information “(x 101 , y 101 ) (x 102 , y 102 ) (x 103 , y). 103 ) (x 103 , y 103 ) ”is used to determine whether or not the second object is a shooting object.

まず、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「17」のオブジェクト)の領域情報の中の1番目の点(x101,y101)を取得する。First, the shooting object determination unit 113 acquires the first point (x 101 , y 101 ) in the area information of the object to be determined (object with the object identifier “17”).

次に、撮影オブジェクト決定部113は、1番目の点(x101,y101)と位置情報(X,Y)との角度(θ101)を算出し、当該角度(θ101)をバッファに一時記憶する。同様に、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「17」のオブジェクト)の領域情報の中の2番目の点から4番目の各点と位置情報(X,Y)との角度(θ102,θ103,θ104)を算出し、当該角度(θ102,θ103,θ104)もバッファに一時記憶する。バッファには、(θ101,θ102,θ103,θ104)が格納されたことになる。Next, the shooting object determination unit 113 calculates an angle (θ101) between the first point (x 101 , y 101 ) and the position information (X, Y), and temporarily stores the angle (θ101) in the buffer. . Similarly, the shooting object determining unit 113 sets each of the fourth point from the second point in the area information of the object to be determined (object having the object identifier “17”) and the position information (X, Y). The angles (θ102, θ103, θ104) are calculated, and the angles (θ102, θ103, θ104) are also temporarily stored in the buffer. (Θ101, θ102, θ103, θ104) is stored in the buffer.

次に、撮影オブジェクト決定部113は、バッファに一時格納された角度(θ101,θ102,θ103,θ104)から、最小角度(例えば、(θ101))と最大角度(例えば、(θ103))とを取得する。   Next, the shooting object determination unit 113 acquires the minimum angle (for example, (θ101)) and the maximum angle (for example, (θ103)) from the angles (θ101, θ102, θ103, θ104) temporarily stored in the buffer. To do.

次に、撮影オブジェクト決定部113は、取得した最小角度(θ101)と最大角度(θ103)の領域すべてが、既に登録されている角度の領域であるか否かを判断する。そして、撮影オブジェクト決定部113は、最小角度(θ101)と最大角度(θ103)の領域すべてが、既に登録されている角度の領域であると、判断したとする。したがって、撮影オブジェクト決定部113は、オブジェクト識別子「17」のオブジェクトは撮影オブジェクトでない、と決定する。
次に、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在する、と判断する。
Next, the shooting object determination unit 113 determines whether or not all of the acquired areas of the minimum angle (θ101) and the maximum angle (θ103) are already registered angle areas. Then, it is assumed that the shooting object determination unit 113 determines that all the areas of the minimum angle (θ101) and the maximum angle (θ103) are already registered angle areas. Therefore, the shooting object determination unit 113 determines that the object with the object identifier “17” is not a shooting object.
Next, the shooting object information determination unit 113 determines that a visible area exists from the registered invisible area or visible area.

次に、撮影オブジェクト決定部113は、オブジェクト一時管理表の3番目のオブジェクト識別子「3」を取得し、当該識別子「3」をキーとして、オブジェクト情報管理表を検索し、オブジェクト識別子「17」と対になる領域情報「(x11,y11)(x12,y12)(x13,y13)(x14,y14)」を取得する。Next, the shooting object determining unit 113 acquires the third object identifier “3” of the temporary object management table, searches the object information management table using the identifier “3” as a key, and sets the object identifier “17” as “17”. The paired region information “(x 11 , y 11 ) (x 12 , y 12 ) (x 13 , y 13 ) (x 14 , y 14 )” is acquired.

次に、撮影オブジェクト決定部113は、受信された端末情報(X,Y,θA,θa)と、取得した領域情報「(x11,y11)(x12,y12)(x13,y13)(x14,y14)」とを用いて、3番目のオブジェクトが、撮影オブジェクトか否かを判断する。Next, the shooting object determination unit 113 receives the received terminal information (X, Y, θA, θa) and the acquired area information “(x 11 , y 11 ) (x 12 , y 12 ) (x 13 , y). 13 ) (x 14 , y 14 ) ”, it is determined whether or not the third object is a shooting object.

まず、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「3」のオブジェクト)の領域情報の中の1番目の点(x11,y11)を取得する。First, the shooting object determination unit 113 obtains the first point (x 11 , y 11 ) in the area information of the object to be determined (object with the object identifier “3”).

次に、撮影オブジェクト決定部113は、1番目の点(x11,y11)と位置情報(X,Y)との角度(θ11)を算出し、当該角度(θ11)をバッファに一時記憶する。同様に、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「3」のオブジェクト)の領域情報の中の2番目の点から4番目の各点と位置情報(X,Y)との角度(θ12,θ13,θ14)を算出し、当該角度(θ12,θ13,θ14)もバッファに一時記憶する。バッファには、(θ11,θ12,θ13,θ14)が格納されたことになる。Next, the shooting object determination unit 113 calculates an angle (θ11) between the first point (x 11 , y 11 ) and the position information (X, Y), and temporarily stores the angle (θ11) in the buffer. . Similarly, the shooting object determination unit 113 sets each point from the second point to the position information (X, Y) in the region information of the object to be determined (object with the object identifier “3”). The angles (θ12, θ13, θ14) are calculated, and the angles (θ12, θ13, θ14) are also temporarily stored in the buffer. (Θ11, θ12, θ13, θ14) is stored in the buffer.

次に、撮影オブジェクト決定部113は、バッファに一時格納された角度(θ11,θ12,θ13,θ14)から、最小角度(例えば、(θ11))と最大角度(例えば、(θ14))とを取得する。   Next, the shooting object determination unit 113 acquires the minimum angle (for example, (θ11)) and the maximum angle (for example, (θ14)) from the angles (θ11, θ12, θ13, θ14) temporarily stored in the buffer. To do.

次に、撮影オブジェクト決定部113は、取得した最小角度(θ11)と最大角度(θ14)の領域すべてが、既に登録されている角度の領域であるか否かを判断する。ここで、撮影オブジェクト決定部113は、取得した最小角度(θ11)と最大角度(θ14)の領域と、既に登録されている不可視領域の角度とを比較する。そして、撮影オブジェクト決定部113は、取得した最小角度(θ11)と最大角度(θ14)の領域は、可視領域であると判断した、とする。そして、撮影オブジェクト決定部113は、オブジェクト識別子「3」のオブジェクトは、撮影オブジェクトであると判断する。   Next, the shooting object determination unit 113 determines whether or not all of the acquired areas of the minimum angle (θ11) and the maximum angle (θ14) are already registered angle areas. Here, the shooting object determination unit 113 compares the acquired area of the minimum angle (θ11) and the maximum angle (θ14) with the angle of the already registered invisible area. Then, it is assumed that the shooting object determination unit 113 determines that the acquired area of the minimum angle (θ11) and the maximum angle (θ14) is a visible area. Then, the shooting object determination unit 113 determines that the object with the object identifier “3” is a shooting object.

次に、撮影オブジェクト決定部113は、「θ11<=不可視領域<=θ14」を新たな不可視領域とする。   Next, the shooting object determination unit 113 sets “θ11 <= invisible region <= θ14” as a new invisible region.

次に、撮影オブジェクト決定部113は、3番目のオブジェクトのオブジェクト識別子「3」を図示しない記憶媒体に格納する。
次に、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在する、と判断する。
Next, the shooting object determination unit 113 stores the object identifier “3” of the third object in a storage medium (not shown).
Next, the shooting object information determination unit 113 determines that a visible area exists from the registered invisible area or visible area.

以上の処理を、4番目以降のオブジェクトに対しても繰り返す。そして、オブジェクト識別子「25」で識別されるオブジェクトを撮影オブジェクトであると決定した後、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在しない、と判断した、とする。そして、最終的に、撮影オブジェクトの識別子の集合「1,3,25」が得られた、とする。   The above processing is repeated for the fourth and subsequent objects. Then, after determining that the object identified by the object identifier “25” is a shooting object, the shooting object information determination unit 113 determines that there is no visible area from the registered invisible area or visible area. Suppose that Finally, it is assumed that a set “1, 3, 25” of identifiers of shooting objects is obtained.

次に、オブジェクト識別子「1」の撮影オブジェクト情報を構成する。つまり、撮影オブジェクト情報取得部115は、オブジェクト情報管理表から、オブジェクト識別子「1」のオブジェクト名「コーヒーショップA」、URL「http://www.coffee-A.co.jp」、位置情報(xa,ya)、領域情報「(x,y)(x,y)(x,y)(x,y)」を読み出す。次に、撮影オブジェクト情報取得部115は、オブジェクト一時管理表から距離「100m」を読み出す。そして、撮影オブジェクト情報取得部115は、オブジェクト識別子「1」のオブジェクト名「コーヒーショップA」、URL「http://www.coffee-A.co.jp」、位置情報(xa,ya)、領域情報「(x,y)(x,y)(x,y)(x,y)」、距離「100m」を有する撮影オブジェクト情報を構成し、バッファに一時格納する。Next, the shooting object information with the object identifier “1” is configured. That is, the shooting object information acquisition unit 115 obtains the object name “coffee shop A” of the object identifier “1”, the URL “http://www.coffee-A.co.jp”, the position information (from the object information management table). xa, ya) and area information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 )” are read out. Next, the shooting object information acquisition unit 115 reads the distance “100 m” from the object temporary management table. Then, the shooting object information acquisition unit 115 has the object name “coffee shop A” of the object identifier “1”, the URL “http://www.coffee-A.co.jp”, the position information (xa, ya), the area. The photographing object information having the information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 )” and the distance “100 m” is configured and temporarily stored in the buffer. .

そして、同様に、撮影オブジェクト情報取得部115は、オブジェクト識別子「3」、オブジェクト識別子「25」の撮影オブジェクト情報を構成し、バッファに追記する。そして、撮影オブジェクト情報取得部115は、図19に示す撮影オブジェクト情報管理表を得る。   Similarly, the shooting object information acquisition unit 115 configures shooting object information with the object identifier “3” and the object identifier “25” and adds the shooting object information to the buffer. Then, the shooting object information acquisition unit 115 obtains a shooting object information management table shown in FIG.

次に、サーバ送信部116は、バッファに一時格納された1以上の撮影オブジェクト情報(図19に示す撮影オブジェクト情報管理表)を、端末装置13に送信する。   Next, the server transmission unit 116 transmits one or more pieces of shooting object information (shooting object information management table shown in FIG. 19) temporarily stored in the buffer to the terminal device 13.

次に、受信部1306は、端末情報の送信に対応して、1以上の撮影オブジェクト情報を受信する。   Next, the receiving unit 1306 receives one or more shooting object information in response to the transmission of the terminal information.

次に、出力部1309は、カレントレイヤ格納部1301から、「カレントレイヤ=オブジェクト識別レイヤ」を読み出す。   Next, the output unit 1309 reads “current layer = object identification layer” from the current layer storage unit 1301.

次に、出力情報取得部1308は、受信した撮影オブジェクト情報の中の最も距離が近いオブジェクトの撮影オブジェクト情報(オブジェクト識別子「1」、オブジェクト名「コーヒーショップA」、URL「http://www.coffee-A.co.jp」、位置情報(xa,ya)、領域情報「(x,y)(x,y)(x,y)(x,y)」、距離「100m」)を取得する。Next, the output information acquisition unit 1308 includes shooting object information (object identifier “1”, object name “coffee shop A”, URL “http: // www. coffee-A.co.jp ", the position information (xa, ya), the area information" (x 1, y 1) ( x 2, y 2) (x 3, y 3) (x 4, y 4) ", Distance "100 m").

そして、出力部1309の領域出力手段13092は、この撮影オブジェクトの領域情報「(x,y)(x,y)(x,y)(x,y)」から、枠サイズを決定する。Then, the area output unit 13092 of the output unit 1309 uses the area information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 )” of the shooting object, Determine the frame size.

次に、領域出力手段13092は、決定された枠サイズに合致する枠を構成する。そして、領域出力手段13092は、領域情報が示す領域に、構成した枠を出力する。   Next, the area output unit 13092 configures a frame that matches the determined frame size. Then, the region output unit 13092 outputs the configured frame to the region indicated by the region information.

また、距離出力手段13093は、撮影オブジェクト情報に含まれる距離「100m」を、枠に対応付けて出力する。かかる出力例を図20に示す。ここでは、枠は、四角形である。また、枠の高さは、ディスプレイの高さに合致している。つまり、すべてのオブジェクトの枠の高さは一定である。   The distance output unit 13093 outputs the distance “100 m” included in the shooting object information in association with the frame. An example of such output is shown in FIG. Here, the frame is a rectangle. Further, the height of the frame matches the height of the display. That is, the height of the frame of all objects is constant.

なお、上記において、端末装置13からの距離が最も近い撮影オブジェクトの情報のみを出力した。しかし、端末装置13の最も中央部に存在する撮影オブジェクトの情報のみを出力しても良い。かかる場合、撮影オブジェクト情報は、撮影オブジェクトの方向情報(最大の角度と最小の角度の真ん中の角度(平均))を有することとなる。そして、撮影オブジェクトの方向情報と、端末情報が有する方向情報との差異が最も小さい撮影オブジェクトが選択され、かかる撮影オブジェクトの情報が出力される。さらに、領域出力手段13092は、すべての撮影オブジェクトの情報を出力しても良いことは言うまでもない。かかる場合の出力例を図21に示す。図21において、距離が最も近い(または最も中央寄りの)撮影オブジェクトの距離のみが出力されているが、すべての撮影オブジェクトの距離を出力しても良いことは言うまでもない。   In the above description, only the information of the shooting object that is the closest to the terminal device 13 is output. However, only the information of the shooting object existing at the center of the terminal device 13 may be output. In this case, the shooting object information includes shooting object direction information (the middle angle (average) between the maximum angle and the minimum angle). Then, the shooting object having the smallest difference between the direction information of the shooting object and the direction information included in the terminal information is selected, and the information of the shooting object is output. Furthermore, it goes without saying that the area output unit 13092 may output information on all the shooting objects. An output example in such a case is shown in FIG. In FIG. 21, only the distance of the shooting object with the shortest distance (or closest to the center) is output, but it goes without saying that the distances of all the shooting objects may be output.

なお、図20の画面出力の状態で、ユーザは、出力を固定する指示を入力した、とする。すると、出力固定部1311は、出力部1309が出力中の映像と領域(図20の画面)を固定する。なお、かかる画面の固定化処理は公知技術である。また、画面の固定化処理は、例えば、VRAMの画像を変更しないようにし、カメラ部1304の動作を停止するなどの処理により行われる。   It is assumed that the user inputs an instruction to fix the output in the screen output state of FIG. Then, the output fixing unit 1311 fixes the video and area (screen in FIG. 20) being output by the output unit 1309. This screen fixing process is a known technique. Further, the screen fixing process is performed by, for example, a process in which the image of the VRAM is not changed and the operation of the camera unit 1304 is stopped.

次に、画面が固定されている状態で、ユーザは、オブジェクト識別子「1」の撮影オブジェクト(枠が表示されているオブジェクト)の枠に対して指示を入力する(タッチする)、とする。すると、第二受付手段13022は、領域(ここでは、矩形の枠)に対する入力を受け付ける。なお、画面が固定されているので、端末装置13を動かしても、画面上の表示は変わらず、ユーザにとって操作しやすくなる。   Next, it is assumed that the user inputs (touches) an instruction to the frame of the shooting object (object on which the frame is displayed) having the object identifier “1” in a state where the screen is fixed. Then, the second accepting unit 13022 accepts an input for an area (here, a rectangular frame). Since the screen is fixed, even if the terminal device 13 is moved, the display on the screen does not change and it is easy for the user to operate.

次に、以降で説明するような処理により、オブジェクトに関する情報が出力される。つまり、オブジェクト識別子取得部1312は、第二受付手段13022で受け付けた入力に対応する領域に対するオブジェクト識別子を、撮影オブジェクト情報から取得する。ここでのオブジェクト識別子は、「URL」であるとする。つまり、オブジェクト識別子取得部1312は、URL「http://www.coffee-A.co.jp」を取得する。   Next, information related to the object is output by processing as described below. That is, the object identifier acquisition unit 1312 acquires the object identifier for the area corresponding to the input received by the second receiving unit 13022 from the shooting object information. The object identifier here is assumed to be “URL”. That is, the object identifier acquisition unit 1312 acquires the URL “http://www.coffee-A.co.jp”.

なお、撮影オブジェクト(枠が表示されているオブジェクト)の枠に対して指示が入力された場合、少なくとも、一時的に、カレントレイヤ格納部1301のカレントレイヤがウェブサーチレイヤに変更される、としても良い。   Note that when an instruction is input to the frame of the shooting object (object on which the frame is displayed), at least temporarily, the current layer of the current layer storage unit 1301 may be changed to the web search layer. good.

次に、オブジェクト識別子送信部1313は、取得されたURL「http://www.coffee-A.co.jp」を用いて、URL「http://www.coffee-A.co.jp」に対応するウェブサーバ装置12にアクセスする。   Next, the object identifier transmission unit 1313 changes the URL “http://www.coffee-A.co.jp” to the URL “http://www.coffee-A.co.jp” using the acquired URL “http://www.coffee-A.co.jp”. The corresponding web server device 12 is accessed.

そして、ウェブサーバ装置12のオブジェクト関連情報取得部122は、URL「http://www.coffee-A.co.jp」に対応するオブジェクト関連情報を取得する。ここで、取得したオブジェクト関連情報は、図15に示すオブジェクト関連情報である。   Then, the object related information acquisition unit 122 of the web server device 12 acquires object related information corresponding to the URL “http://www.coffee-A.co.jp”. Here, the acquired object related information is the object related information shown in FIG.

次に、ウェブサーバ装置12のオブジェクト関連情報送信部123は、図15に示すオブジェクト関連情報を、端末装置13に送信する。   Next, the object related information transmission unit 123 of the web server device 12 transmits the object related information illustrated in FIG. 15 to the terminal device 13.

次に、端末装置13のオブジェクト関連情報受信部1307は、図15に示すオブジェクト関連情報を受信する。   Next, the object related information receiving unit 1307 of the terminal device 13 receives the object related information shown in FIG.

そして、出力部1309は、受信したオブジェクト関連情報にシンボル情報(シンボル画像)が含まれるので、当該シンボル画像を、枠サイズの大きさに縮小する。そして、オブジェクト関連情報出力手段13094は、縮小したシンボル画像を、枠の領域に配置する。かかる出力例が図22である。縮小されたシンボル画像は、2201である。   Since the received object related information includes symbol information (symbol image), the output unit 1309 reduces the symbol image to the size of the frame size. Then, the object related information output unit 13094 arranges the reduced symbol image in the frame area. FIG. 22 shows an example of such output. The reduced symbol image is 2201.

なお、出力部1309は、カメラ部1304が取得した映像を、第一の画面(第一表示手段13141)に表示し、オブジェクト関連情報出力手段13094は、受信されたオブジェクト関連情報(ここでは、シンボル画像)を、第二表示手段13142に表示することは好適である。かかる出力例は図23である。図23において、オブジェクト関連情報出力手段13094は、枠や距離を第一表示手段13141に表示し、シンボル画像を、第二表示手段13142に表示している。   The output unit 1309 displays the video acquired by the camera unit 1304 on the first screen (first display unit 13141), and the object related information output unit 13094 receives the received object related information (here, symbol It is preferable to display the image) on the second display means 13142. An example of such output is shown in FIG. In FIG. 23, the object related information output unit 13094 displays a frame and a distance on the first display unit 13141 and displays a symbol image on the second display unit 13142.

さらに、今、端末装置13は、図16の表示状態である、とする。そして、次に、ユーザは、カレントレイヤをウェブサーチレイヤにする指示を入力した、とする。すると、第三受付手段13023は、受け付けた入力がカレントレイヤを設定する入力であると判断する。次に、カレントレイヤ変更部1310は、受け付けた入力に従って、カレントレイヤ格納部1301のカレントレイヤをウェブサーチレイヤに変更する。   Furthermore, it is assumed that the terminal device 13 is in the display state of FIG. Next, it is assumed that the user inputs an instruction to set the current layer as the web search layer. Then, the third receiving unit 13023 determines that the received input is an input for setting the current layer. Next, the current layer changing unit 1310 changes the current layer in the current layer storage unit 1301 to the web search layer according to the received input.

次に、ユーザは、図16の端末装置13の状態から、映像中のオブジェクトの情報を得ようとして、オブジェクト取得指示を入力する。   Next, the user inputs an object acquisition instruction to obtain information on the object in the video from the state of the terminal device 13 in FIG.

次に、上記で説明した処理により、端末情報取得部1303は、端末情報(X,Y,θA,θa)を構成する。   Next, the terminal information acquisition unit 1303 configures terminal information (X, Y, θA, θa) by the processing described above.

次に、送信部1305は、構成した端末情報(X,Y,θA,θa)をサーバ装置11に送信する。   Next, the transmission unit 1305 transmits the configured terminal information (X, Y, θA, θa) to the server device 11.

そして、サーバ受信部112は、端末装置13から、端末情報(X,Y,θA,θa)を受信する。   Then, the server reception unit 112 receives terminal information (X, Y, θA, θa) from the terminal device 13.

次に、サーバ受信部112は、上記で説明した処理により、撮影オブジェクト(ID[1,3,25])を決定する。そして、撮影オブジェクト情報取得部115は、図19に示す撮影オブジェクト情報管理表を得る。   Next, the server reception unit 112 determines the shooting object (ID [1, 3, 25]) by the processing described above. Then, the shooting object information acquisition unit 115 obtains a shooting object information management table shown in FIG.

次に、サーバ送信部116は、バッファに一時格納された1以上の撮影オブジェクト情報(図19に示す撮影オブジェクト情報管理表)を、端末装置13に送信する。   Next, the server transmission unit 116 transmits one or more pieces of shooting object information (shooting object information management table shown in FIG. 19) temporarily stored in the buffer to the terminal device 13.

次に、受信部1306は、端末情報の送信に対応して、1以上の撮影オブジェクト情報を受信する。   Next, the receiving unit 1306 receives one or more shooting object information in response to the transmission of the terminal information.

次に、出力部1309は、カレントレイヤ格納部1301から、「カレントレイヤ=ウェブサーチレイヤ」を読み出す。   Next, the output unit 1309 reads “current layer = web search layer” from the current layer storage unit 1301.

次に、出力情報取得部1308は、受信した撮影オブジェクト情報の中の最も距離が近いオブジェクトの撮影オブジェクト情報(オブジェクト識別子「1」、オブジェクト名「コーヒーショップA」、URL「http://www.coffee-A.co.jp」、位置情報(xa,ya)、領域情報「(x,y)(x,y)(x,y)(x,y)」、距離「100m」)を取得する。Next, the output information acquisition unit 1308 includes shooting object information (object identifier “1”, object name “coffee shop A”, URL “http: // www. coffee-A.co.jp ", the position information (xa, ya), the area information" (x 1, y 1) ( x 2, y 2) (x 3, y 3) (x 4, y 4) ", Distance "100 m").

そして、出力部1309の領域出力手段13092は、この撮影オブジェクトの領域情報「(x,y)(x,y)(x,y)(x,y)」から、枠サイズを決定する。Then, the area output unit 13092 of the output unit 1309 uses the area information “(x 1 , y 1 ) (x 2 , y 2 ) (x 3 , y 3 ) (x 4 , y 4 )” of the shooting object, Determine the frame size.

次に、領域出力手段13092は、決定された枠サイズに合致する枠を構成する。そして、領域出力手段13092は、領域情報が示す領域に、構成した枠を出力する。   Next, the area output unit 13092 configures a frame that matches the determined frame size. Then, the region output unit 13092 outputs the configured frame to the region indicated by the region information.

また、距離出力手段13093は、撮影オブジェクト情報に含まれる距離「100m」を、枠に対応付けて出力する。   The distance output unit 13093 outputs the distance “100 m” included in the shooting object information in association with the frame.

次に、オブジェクト関連情報出力手段13094は、受信されたオブジェクト関連情報(ここでは、シンボル画像)を、第二表示手段13142に表示する。かかる出力例を図23に示す。なお、オブジェクト関連情報出力手段13094は、図23ではなく、図22のように出力しても良い。つまり、オブジェクト関連情報の出力態様は問わない。   Next, the object related information output unit 13094 displays the received object related information (here, a symbol image) on the second display unit 13142. An example of such output is shown in FIG. The object-related information output unit 13094 may output as shown in FIG. 22 instead of FIG. That is, the output mode of the object related information is not limited.

また、オブジェクトの領域は二次元の領域であるので、図20、図21、図22、図23において、枠は上下一杯の大きさの枠であった。しかし、例えば、距離をパラメータとする減少関数により、オブジェクトの領域の大きさ(枠の大きさ)を算出し、枠を出力しても良い。つまり、距離が大きいほど、当該距離に対応するオブジェクトの領域を小さくして出力しても良い。かかる場合、例えば、図24のような枠の出力となる。図24において、枠の高さが距離に反比例している。   Further, since the object area is a two-dimensional area, in FIGS. 20, 21, 22, and 23, the frame is a full-sized frame. However, for example, the size of the object region (frame size) may be calculated by a decreasing function using the distance as a parameter, and the frame may be output. That is, the larger the distance, the smaller the area of the object corresponding to the distance may be output. In such a case, for example, the output is a frame as shown in FIG. In FIG. 24, the height of the frame is inversely proportional to the distance.

(具体例2)   (Specific example 2)

今、サーバ装置11のオブジェクト情報格納部111は、図25に示すオブジェクト情報管理表を保持している。オブジェクト情報管理表は、地図上のオブジェクト情報を管理している表である。オブジェクト情報管理表は、「オブジェクト識別子」「オブジェクト名」「URL」「位置情報」「領域情報」などの属性値を有するレコードを1以上、管理している。図25において、図14のオブジェクト情報管理表との差異は、領域情報を構成する各点が高さ情報(z)を有している点である。   Now, the object information storage unit 111 of the server apparatus 11 holds the object information management table shown in FIG. The object information management table is a table that manages object information on the map. The object information management table manages one or more records having attribute values such as “object identifier”, “object name”, “URL”, “location information”, and “region information”. In FIG. 25, the difference from the object information management table of FIG. 14 is that each point constituting the area information has height information (z).

また、ウェブサーバ装置12のオブジェクト関連情報格納部121は、例えば、図15に示すオブジェクト関連情報を有する。   Moreover, the object relevant information storage part 121 of the web server apparatus 12 has the object relevant information shown in FIG. 15, for example.

また、端末装置13は、2つのディスプレイを有する端末である、とする。なお、端末装置13は、一つのディスプレイを有する端末であっても良いし、3つ以上のディスプレイを有する端末であっても良い。   Further, it is assumed that the terminal device 13 is a terminal having two displays. The terminal device 13 may be a terminal having one display or a terminal having three or more displays.

さらに、端末装置13のカレントレイヤ格納部1301は、「カレントレイヤ=カメラレイヤ」を格納している、とする。   Furthermore, it is assumed that the current layer storage unit 1301 of the terminal device 13 stores “current layer = camera layer”.

かかる場合、ユーザは、端末装置13を起動した、とする。すると、受付部1302は、起動の指示を受け付ける。そして、カメラ部1304は、カレントレイヤ格納部1301から「カレントレイヤ=カメラレイヤ」を読み出す。そして、カメラ部1304は、カメラを起動する。すると、図16に示すように、端末装置13には、外界の映像が出力される。   In this case, it is assumed that the user has activated the terminal device 13. Then, the accepting unit 1302 accepts an activation instruction. Then, the camera unit 1304 reads “current layer = camera layer” from the current layer storage unit 1301. Then, the camera unit 1304 activates the camera. Then, as shown in FIG. 16, an image of the outside world is output to the terminal device 13.

次に、ユーザは、カレントレイヤをオブジェクト識別レイヤにする指示を入力した、とする。すると、第三受付手段13023は、受け付けた入力がカレントレイヤを設定する入力であると判断する。次に、カレントレイヤ変更部1310は、受け付けた入力に従って、カレントレイヤ格納部1301のカレントレイヤをオブジェクト識別レイヤに変更する。   Next, it is assumed that the user has input an instruction to make the current layer an object identification layer. Then, the third receiving unit 13023 determines that the received input is an input for setting the current layer. Next, the current layer changing unit 1310 changes the current layer of the current layer storage unit 1301 to the object identification layer according to the received input.

次に、ユーザは、図16の端末装置13の状態から、映像中のオブジェクトの情報を得ようとして、オブジェクト取得指示を入力する。オブジェクト取得指示は、タッチすることにより入力されることが好適であるが、メニューからの選択、キーボード等の入力手段による入力等により、入力されても良い。次に、第一受付手段13021は、オブジェクト取得指示を受け付ける。   Next, the user inputs an object acquisition instruction to obtain information on the object in the video from the state of the terminal device 13 in FIG. The object acquisition instruction is preferably input by touching, but may be input by selection from a menu, input by an input means such as a keyboard, or the like. Next, the first receiving unit 13021 receives an object acquisition instruction.

次に、端末情報取得部1303の位置情報取得手段13031(ここでは、例えば、GPS受信機)は、端末装置13の位置情報(X,Y,Z)を取得する。なお、Zは、高さである。   Next, the position information acquisition unit 13031 (here, for example, a GPS receiver) of the terminal information acquisition unit 1303 acquires the position information (X, Y, Z) of the terminal device 13. Z is the height.

次に、方向情報取得手段13032は、端末装置13が向いている方向を示す方向情報(θA,θB)を取得する。θAは平面上の角度、θBは高さ方向の角度である。   Next, the direction information acquisition unit 13032 acquires direction information (θA, θB) indicating the direction in which the terminal device 13 is facing. θA is an angle on a plane, and θB is an angle in the height direction.

また、端末情報取得部1303は、カメラ部1304が有する視野角の情報(単に「視野角」という)を読み出す。ここでは、視野角は(θa,θb)である、とする。また、カメラ部1304は、予め視野角(θa,θb)を格納している、とする。なお、θaは平面上の角度、θbは高さ方向の角度である。視野角(θa,θb)を図26に示す。   In addition, the terminal information acquisition unit 1303 reads information on the viewing angle of the camera unit 1304 (simply referred to as “viewing angle”). Here, it is assumed that the viewing angles are (θa, θb). The camera unit 1304 stores the viewing angles (θa, θb) in advance. Here, θa is an angle on the plane, and θb is an angle in the height direction. The viewing angles (θa, θb) are shown in FIG.

次に、端末情報取得部1303は、取得した位置情報(X,Y,Z)と、取得した方向情報(θA,θB)と、視野角(θa,θb)とを有する端末情報(X,Y,Z,θA,θB,θa,θb)を構成する。   Next, the terminal information acquisition unit 1303 acquires terminal information (X, Y) having the acquired position information (X, Y, Z), the acquired direction information (θA, θB), and the viewing angle (θa, θb). , Z, θA, θB, θa, θb).

次に、送信部1305は、構成した端末情報(X,Y,Z,θA,θB,θa,θb)をサーバ装置11に送信する。   Next, the transmission unit 1305 transmits the configured terminal information (X, Y, Z, θA, θB, θa, θb) to the server device 11.

そして、サーバ受信部112は、端末装置13から、端末情報(X,Y,Z,θA,θB,θa,θb)を受信する。   Then, the server reception unit 112 receives terminal information (X, Y, Z, θA, θB, θa, θb) from the terminal device 13.

次に、撮影オブジェクト決定部113は、以下のように、撮影オブジェクトを決定する。つまり、撮影オブジェクト決定部113は、受信された端末情報が有する位置情報(X,Y,Z)を取得する。   Next, the shooting object determination unit 113 determines a shooting object as follows. That is, the shooting object determination unit 113 acquires position information (X, Y, Z) included in the received terminal information.

次に、撮影オブジェクト決定部113は、端末情報が有する方向情報(θA,θB)と視野角(θa,θb)とを用いて、不可視領域となる三次元の角度を算出する。撮影オブジェクト決定部113は、可視領域となる二次元の角度「(θA−(θa/2))<=可視領域<=(θA+(θa/2))」を取得する。そして、可視領域となる高さ方向の角度「(θB−(θb/2))<=可視領域<=(θB+(θb/2))」を取得する。そして、上記の可視領域ではない領域を、不可視領域として蓄積する。   Next, the shooting object determination unit 113 calculates a three-dimensional angle that becomes an invisible region by using the direction information (θA, θB) and the viewing angle (θa, θb) included in the terminal information. The shooting object determination unit 113 acquires a two-dimensional angle “(θA− (θa / 2)) <= visible region <= (θA + (θa / 2))” that becomes a visible region. Then, the angle “(θB− (θb / 2)) <= visible region <= (θB + (θb / 2)))” which becomes the visible region is acquired. Then, the area that is not the visible area is accumulated as an invisible area.

そして、撮影オブジェクト決定部113は、取得した位置情報(X,Y,Z)を用いて、端末装置13から近いオブジェクトの順に、オブジェクト情報格納部111のオブジェクト情報をソートする。ソート処理については、図6で説明した処理により行う。なお、ここでは、位置情報(X,Y,Z)のうちの(X,Y)と、各オブジェクトの位置情報(例えば、(x,y))とを用いて、端末装置13と各オブジェクトとの距離を算出し、距離をキーとしてソートする。そして、ソート処理の結果、撮影オブジェクト決定部113は、図18に示すようなオブジェクト一時管理表を取得する。オブジェクト一時管理表の各レコードは、オブジェクト識別子と距離とを有する。距離は、位置情報(X,Y,Z)(ただし、Zは利用されない)が示す点とオブジェクトの位置情報が示す点との距離である。Then, the shooting object determination unit 113 sorts the object information in the object information storage unit 111 in the order of objects closer to the terminal device 13 using the acquired position information (X, Y, Z). The sort process is performed by the process described with reference to FIG. Here, using (X, Y) of the position information (X, Y, Z) and the position information (for example, (x a , y a )) of each object, the terminal device 13 and each Calculate the distance to the object and sort using the distance as a key. As a result of the sorting process, the shooting object determination unit 113 acquires an object temporary management table as shown in FIG. Each record of the object temporary management table has an object identifier and a distance. The distance is a distance between a point indicated by the position information (X, Y, Z) (however, Z is not used) and a point indicated by the position information of the object.

次に、撮影オブジェクト決定部113は、オブジェクト一時管理表の上位のレコードから、撮影オブジェクトであるか否かを判断する。   Next, the shooting object determination unit 113 determines whether or not the object is a shooting object from a higher-order record in the object temporary management table.

つまり、撮影オブジェクト決定部113は、オブジェクト一時管理表の1番目のレコードのオブジェクト識別子「1」を読み出す。そして、当該オブジェクト識別子「1」をキーとして、オブジェクト情報管理表を検索し、オブジェクト識別子「1」と対になる領域情報「(x,y,z)(x,y,z)(x,y,z)(x,y,z)」を取得する。That is, the shooting object determination unit 113 reads the object identifier “1” of the first record in the temporary object management table. Then, the object information management table is searched using the object identifier “1” as a key, and region information “(x 1 , y 1 , z 1 ) (x 2 , y 2 , z) paired with the object identifier“ 1 ”is searched. 2 ) (x 3 , y 3 , z 3 ) (x 4 , y 4 , z 4 ) ”.

次に、撮影オブジェクト決定部113は、受信された端末情報(X,Y,Z,θA,θB,θa,θb)と、取得した領域情報「(x,y,z)(x,y,z)(x,y,z)(x,y,z)」とを用いて、1番目のオブジェクトが、撮影オブジェクトか否かを判断する。Next, the shooting object determination unit 113 receives the received terminal information (X, Y, Z, θA, θB, θa, θb) and the acquired area information “(x 1 , y 1 , z 1 ) (x 2 ). , Y 2 , z 2 ) (x 3 , y 3 , z 3 ) (x 4 , y 4 , z 4 ) ”is used to determine whether or not the first object is a shooting object.

まず、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「1」のオブジェクト)の領域情報の中の1番目の点(x,y,z)を取得する。First, the shooting object determination unit 113 acquires the first point (x 1 , y 1 , z 1 ) in the area information of the object to be determined (object with the object identifier “1”).

次に、撮影オブジェクト決定部113は、1番目の点(x,y,z)と位置情報(X,Y,Z)との平面上の角度(θ11)を算出し、当該角度(θ11)をバッファに一時記憶する。また、撮影オブジェクト決定部113は、1番目の点(x,y,z)と位置情報(X,Y,Z)との高さ方向の角度(θ12)を算出し、当該角度(θ12)をバッファに一時記憶する。同様に、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「1」のオブジェクト)の領域情報の中の2番目の点から4番目の各点と位置情報(X,Y,Z)との平面上の角度(θ12,θ13,θ14)を算出し、当該角度(θ12,θ13,θ14)もバッファに一時記憶する。バッファには、(θ11,θ12,θ13,θ14)が格納されたことになる。さらに、同様に、撮影オブジェクト決定部113は、判断対象となるオブジェクト(オブジェクト識別子「1」のオブジェクト)の領域情報の中の2番目の点から4番目の各点と位置情報(X,Y,Z)との高さ方向の角度(θ22,θ23,θ24)を算出し、当該角度(θ22,θ23,θ24)もバッファに一時記憶する。バッファには、(θ21,θ22,θ23,θ24)が格納されたことになる。Next, the shooting object determination unit 113 calculates an angle (θ11) on the plane between the first point (x 1 , y 1 , z 1 ) and the position information (X, Y, Z), and the angle ( θ11) is temporarily stored in the buffer. In addition, the shooting object determination unit 113 calculates an angle (θ12) in the height direction between the first point (x 1 , y 1 , z 1 ) and the position information (X, Y, Z), and calculates the angle ( θ12) is temporarily stored in the buffer. Similarly, the shooting object determination unit 113 and the fourth point from the second point in the area information of the object to be determined (object with the object identifier “1”) and position information (X, Y, Z) Are calculated on the plane (θ12, θ13, θ14), and the angles (θ12, θ13, θ14) are also temporarily stored in the buffer. (Θ11, θ12, θ13, θ14) is stored in the buffer. Further, similarly, the shooting object determination unit 113 sets each of the fourth point from the second point in the area information of the object to be determined (object having the object identifier “1”) and the position information (X, Y, The angle (θ22, θ23, θ24) in the height direction with respect to Z) is calculated, and the angles (θ22, θ23, θ24) are also temporarily stored in the buffer. (Θ21, θ22, θ23, θ24) is stored in the buffer.

次に、撮影オブジェクト決定部113は、バッファに一時格納された角度(θ11,θ12,θ13,θ14)から、平面上の最小角度(例えば、(θ11))と最大角度(例えば、(θ14))とを取得する。   Next, the shooting object determining unit 113 determines the minimum angle (for example, (θ11)) and the maximum angle (for example, (θ14)) on the plane from the angles (θ11, θ12, θ13, θ14) temporarily stored in the buffer. And get.

また、撮影オブジェクト決定部113は、バッファに一時格納された角度(θ21,θ22,θ23,θ24)から、高さ方向の最大角度(θ24)を取得する。   Further, the shooting object determination unit 113 acquires the maximum angle (θ24) in the height direction from the angles (θ21, θ22, θ23, θ24) temporarily stored in the buffer.

次に、撮影オブジェクト決定部113は、取得した平面上の最小角度(θ11)と最大角度(θ14)の領域すべてが、既に登録されている領域であるか否かを判断する。ここで、撮影オブジェクト決定部113は、取得した最小角度(θ11)と最大角度(θ14)の領域は、可視領域であると判断した、とする。そして、撮影オブジェクト決定部113は、オブジェクト識別子「1」のオブジェクトは、撮影オブジェクトであると判断する。   Next, the shooting object determination unit 113 determines whether or not all of the acquired areas of the minimum angle (θ11) and the maximum angle (θ14) on the plane are already registered areas. Here, it is assumed that the shooting object determination unit 113 determines that the acquired area of the minimum angle (θ11) and the maximum angle (θ14) is a visible area. Then, the shooting object determination unit 113 determines that the object with the object identifier “1” is a shooting object.

なお、ここで、例えば、撮影オブジェクト決定部113は、取得した平面上の最小角度(θ11)と最大角度(θ14)の領域の一部が、既に登録されている領域ではないと判断した場合も、可視領域であると判断する。つまり、撮影オブジェクト決定部113は、オブジェクト識別子「1」のオブジェクトが、撮影オブジェクトであると判断する。また、例えば、撮影オブジェクト決定部113は、取得した平面上の最小角度(θ11)と最大角度(θ14)の領域のすべてが、既に登録されている角度の領域であると判断した場合でも、高さ方向の最大角度(θ24)が、登録されている高さ方向の最大角度より大きい場合、平面上の最小角度(θ11)と最大角度(θ14)の領域において、可視領域であると判断する。つまり、撮影オブジェクト決定部113は、オブジェクト識別子「1」のオブジェクトが、撮影オブジェクトであると判断するのである。   Here, for example, the shooting object determining unit 113 may determine that a part of the acquired area of the minimum angle (θ11) and the maximum angle (θ14) on the plane is not an already registered area. It is determined that it is in the visible region. That is, the shooting object determination unit 113 determines that the object with the object identifier “1” is a shooting object. Further, for example, even when the shooting object determination unit 113 determines that all of the acquired areas of the minimum angle (θ11) and the maximum angle (θ14) on the plane are already registered angle areas, When the maximum angle (θ24) in the vertical direction is larger than the registered maximum angle in the height direction, it is determined that the region is the visible region in the region of the minimum angle (θ11) and the maximum angle (θ14) on the plane. That is, the shooting object determination unit 113 determines that the object with the object identifier “1” is a shooting object.

次に、撮影オブジェクト決定部113は、「θ11<=不可視領域<=θ14」を新たな不可視領域とする。つまり、撮影オブジェクト決定部113は、例えば、「0<=不可視領域角度<(θA−(θa/2))」および「(θA+(θa/2))<不可視領域角度<=360」と「θ11<=不可視領域<=θ14」とをマージした平面上の不可視領域角度を記録媒体に登録する。そして、登録されている高さ方向の最大角度が(θ24)より小さい場合、この平面上の領域に対応付けて、撮影オブジェクト決定部113は、高さ方向の最大角度(θ24)を登録する。   Next, the shooting object determination unit 113 sets “θ11 <= invisible region <= θ14” as a new invisible region. That is, the imaging object determination unit 113, for example, “0 <= invisible area angle <(θA− (θa / 2))” and “(θA + (θa / 2)) <invisible area angle <= 360” and “θ11”. The invisible area angle on the plane obtained by merging <= invisible area <= θ14 ”is registered in the recording medium. If the registered maximum angle in the height direction is smaller than (θ24), the shooting object determination unit 113 registers the maximum angle (θ24) in the height direction in association with the area on the plane.

次に、撮影オブジェクト決定部113は、1番目のオブジェクトのオブジェクト識別子「1」を図示しない記憶媒体に格納する。
次に、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在する、と判断した、とする。
Next, the shooting object determination unit 113 stores the object identifier “1” of the first object in a storage medium (not shown).
Next, it is assumed that the shooting object information determination unit 113 determines that there is a visible area from the registered invisible area or visible area.

以上の処理を、図18の2番目以降のオブジェクトに対しても行い、撮影オブジェクトを決定する。
そして、撮影オブジェクト情報決定部113は、登録されている不可視領域、または可視領域から、可視領域が存在しない、と判断するまで、上記の検査(撮影オブジェクトの決定のための検査)を繰り返す。そして、撮影オブジェクト情報取得部115は、撮影オブジェクトのオブジェクト識別子「1」、「3」、「25」を取得した、とする。そして、撮影オブジェクト情報取得部115は、図19に示す撮影オブジェクト情報管理表を得た、とする。
The above processing is also performed on the second and subsequent objects in FIG. 18 to determine the shooting object.
Then, the shooting object information determination unit 113 repeats the above inspection (inspection for determining a shooting object) until it is determined from the registered invisible area or visible area that there is no visible area. Then, it is assumed that the shooting object information acquisition unit 115 has acquired object identifiers “1”, “3”, and “25” of the shooting object. Then, it is assumed that the shooting object information acquisition unit 115 has obtained the shooting object information management table shown in FIG.

次に、サーバ送信部116は、バッファに一時格納された1以上の撮影オブジェクト情報(図19に示す撮影オブジェクト情報管理表)を、端末装置13に送信する。   Next, the server transmission unit 116 transmits one or more pieces of shooting object information (shooting object information management table shown in FIG. 19) temporarily stored in the buffer to the terminal device 13.

次に、受信部1306は、端末情報の送信に対応して、撮影オブジェクト情報を受信する。   Next, the receiving unit 1306 receives shooting object information in response to transmission of terminal information.

次に、出力部1309は、カレントレイヤ格納部1301から、「カレントレイヤ=オブジェクト識別レイヤ」を読み出す。   Next, the output unit 1309 reads “current layer = object identification layer” from the current layer storage unit 1301.

次に、出力情報取得部1308は、受信した撮影オブジェクト情報の中の最も距離が近いオブジェクトの撮影オブジェクト情報(オブジェクト識別子「1」、オブジェクト名「コーヒーショップA」、URL「http://www.coffee-A.co.jp」、位置情報(xa,ya)、領域情報「(x,y,z)(x,y,z)(x,y,z)(x,y,z)」、距離「100m」)を取得する。Next, the output information acquisition unit 1308 includes shooting object information (object identifier “1”, object name “coffee shop A”, URL “http: // www. coffee-A.co.jp ", the position information (xa, ya), the area information" (x 1, y 1, z 1) (x 2, y 2, z 2) (x 3, y 3, z 3) (X 4 , y 4 , z 4 ) ”, distance“ 100 m ”).

そして、出力部1309の領域出力手段13092は、この撮影オブジェクトの領域情報「(x,y,z)(x,y,z)(x,y,z)(x,y,z)」から、高さも含めた枠サイズを決定する。Then, the area output unit 13092 of the output unit 1309 displays the area information “(x 1 , y 1 , z 1 ) (x 2 , y 2 , z 2 ) (x 3 , y 3 , z 3 ) ( x 4 , y 4 , z 4 ) ”determines the frame size including the height.

次に、領域出力手段13092は、決定された枠サイズに合致する枠を構成する。そして、領域出力手段13092は、領域情報が示す領域に、構成した枠を出力する。   Next, the area output unit 13092 configures a frame that matches the determined frame size. Then, the region output unit 13092 outputs the configured frame to the region indicated by the region information.

また、距離出力手段13093は、撮影オブジェクト情報に含まれる距離「100m」を、枠に対応付けて出力する。かかる出力例を図27に示す。ここでは、枠は、四角形である。   The distance output unit 13093 outputs the distance “100 m” included in the shooting object information in association with the frame. An example of such output is shown in FIG. Here, the frame is a rectangle.

なお、上記において、端末装置13からの距離が最も近い撮影オブジェクトの情報のみを出力した。しかし、端末装置13の最も中央部に存在する撮影オブジェクトの情報のみを出力しても良い。かかる場合、撮影オブジェクト情報は、撮影オブジェクトの方向情報(最大の角度と最小の角度の真ん中の角度(平均))を有することとなる。そして、撮影オブジェクトの方向情報と、端末情報が有する方向情報との差異が最も小さい撮影オブジェクトが選択され、かかる撮影オブジェクトの情報が出力される。さらに、領域出力手段13092は、すべての撮影オブジェクトの情報を出力しても良いことは言うまでもない。かかる場合の出力例を図28に示す。図28において、距離が最も近い(または最も中央寄りの)撮影オブジェクトの距離のみが出力されているが、すべての撮影オブジェクトの距離を出力しても良いことは言うまでもない。   In the above description, only the information of the shooting object that is the closest to the terminal device 13 is output. However, only the information of the shooting object existing at the center of the terminal device 13 may be output. In this case, the shooting object information includes shooting object direction information (the middle angle (average) between the maximum angle and the minimum angle). Then, the shooting object having the smallest difference between the direction information of the shooting object and the direction information included in the terminal information is selected, and the information of the shooting object is output. Furthermore, it goes without saying that the area output unit 13092 may output information on all the shooting objects. An example of output in such a case is shown in FIG. In FIG. 28, only the distance of the shooting object having the shortest distance (or closest to the center) is output, but it is needless to say that the distances of all the shooting objects may be output.

以降の処理は、具体例1で説明した処理と同様で良い。   The subsequent processing may be the same as the processing described in the first specific example.

以上、本実施の形態によれば、カメラで撮影しているオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる。したがって、ユーザは、自分の目で見ている建物やランドマークや公園などの情報を非常に簡単に得ることができる。
また、本実施の形態によれば、撮影オブジェクトを検知する処理を適切に打ち切ることにより、高速な処理が可能となる。そのために、端末装置はナビゲーションシステムにも利用できる。
As described above, according to the present embodiment, it is possible to recognize an object photographed by a camera and output information related to the object. Therefore, the user can very easily obtain information such as buildings, landmarks, and parks viewed with his / her own eyes.
Further, according to the present embodiment, high-speed processing can be performed by appropriately terminating the processing for detecting a shooting object. Therefore, the terminal device can be used for a navigation system.

また、本実施の形態によれば、オブジェクトの高さをも考慮するので、例えば、ある建物の後ろに見えている建物の情報も得ることができる。   Further, according to the present embodiment, since the height of the object is also taken into account, for example, information on a building that is visible behind a certain building can be obtained.

また、本実施の形態によれば、出力されるオブジェクトの情報は、カメラ上の表示領域(枠)の大きさに合わせて縮小、拡大されるので、オブジェクトのサイズが一目瞭然に分かる。   Further, according to the present embodiment, the output object information is reduced or enlarged in accordance with the size of the display area (frame) on the camera, so that the size of the object can be seen at a glance.

また、本実施の形態によれば、カメラからオブジェクトまでの距離を算出し、出力するので、カメラで撮影しているオブジェクトまでの距離が容易に把握でき、そこまで行くべきか否かなど、次の行動の支援になる。   In addition, according to the present embodiment, the distance from the camera to the object is calculated and output, so that the distance to the object being photographed by the camera can be easily grasped and whether or not to go there It becomes support of the action.

また、本実施の形態によれば、オブジェクトの高さ情報を管理していない場合でも、カメラで撮影しているオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる。   Further, according to the present embodiment, even when object height information is not managed, it is possible to recognize an object being photographed by a camera and output information related to the object.

また、本実施の形態によれば、オブジェクト関連情報を、ウェブサーバ装置から取得し、出力することにより、オブジェクトの適切な情報を得ることができる。   Further, according to the present embodiment, appropriate information on an object can be obtained by acquiring and outputting object-related information from a web server device.

また、本実施の形態によれば、2画面のうちの1画面にオブジェクト関連情報が出力されることにより、カメラの映像を邪魔せずに、ユーザは、オブジェクト関連情報を見ることができる。   Further, according to the present embodiment, the object related information is output on one of the two screens, so that the user can view the object related information without disturbing the video of the camera.

また、本実施の形態によれば、複数のオブジェクトのうち、一のオブジェクトを選択して、当該選択されたオブジェクトの情報を画面上に出力することにより、多数のオブジェクトが画面上に存在する場合でも、ユーザが欲するオブジェクトの情報を得ることができる。   In addition, according to the present embodiment, when one object is selected from a plurality of objects and information on the selected object is output on the screen, a large number of objects exist on the screen. However, it is possible to obtain information about the object that the user wants.

さらに、本実施の形態によれば、画面上の映像を固定することにより、オブジェクト関連情報を得たい場合に、ユーザは楽な姿勢で、端末装置13を操作できる。   Furthermore, according to the present embodiment, by fixing the video on the screen, the user can operate the terminal device 13 with an easy posture when it is desired to obtain object-related information.

なお、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD−ROMなどの記録媒体に記録して流布しても良い。また、このソフトウェアまたは、このソフトウェアを記録した記録媒体は、コンピュータプログラム製品として流通しても良いことは言うまでもない。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態におけるサーバ装置11を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、記憶媒体に、オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納しており、コンピュータを、前記端末装置から、当該端末装置の位置を示す位置情報と当該端末装置が向いている方向を示す方向情報とを有する端末情報を受信するサーバ受信部と、前記端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されているまたは前記端末情報が有する視野角とを、前記記憶媒体の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記記憶媒体から取得する撮影オブジェクト情報取得部と、前記撮影オブジェクト情報を、前記端末装置に送信するサーバ送信部として機能させるためのプログラム、である。   Note that the processing in the present embodiment may be realized by software. Then, this software may be distributed by software download or the like. Further, this software may be recorded and distributed on a recording medium such as a CD-ROM. Needless to say, this software or a recording medium storing this software may be distributed as a computer program product. This also applies to other embodiments in this specification. In addition, the software which implement | achieves the server apparatus 11 in this Embodiment is the following programs. That is, this program stores at least one piece of object information having an object identifier for identifying an object and area information indicating an area in which the object exists in a storage medium. A server reception unit that receives terminal information including position information indicating the position of the terminal device and direction information indicating a direction in which the terminal device is facing, position information included in the terminal information, and a direction included in the terminal information A shooting object that applies information and a viewing angle stored in advance or possessed by the terminal information to region information of each object information of the storage medium to determine one or more objects being shot by the terminal device A determination unit and one or more objects corresponding to the one or more objects determined by the shooting object determination unit; To obtain one or more shooting object information including area information from the storage medium, and to function as a server transmission unit that transmits the shooting object information to the terminal device. Program.

また、上記プログラムにおいて、前記領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、前記撮影オブジェクト決定部は、前記端末情報が有する位置情報および方向情報と、予め格納されているまたは前記端末情報が有する視野角とを用いて、三次元空間上での撮影領域を取得し、当該撮影領域を、前記記憶媒体の各オブジェクト情報が有する領域情報に対して適用し、前記端末装置が撮影している1以上のオブジェクトを決定することは好適である。   In the above program, the area information includes two-dimensional area information indicating a two-dimensional area on a map and height information indicating the height of an object. Using the position information and the direction information having and the viewing angle stored in advance or possessed by the terminal information, a shooting area in a three-dimensional space is acquired, and the shooting area is set as each object information of the storage medium. It is preferable to apply to the area information that the terminal device has and determine one or more objects that the terminal device is photographing.

また、上記プログラムにおいて、前記撮影オブジェクト決定部が決定した各オブジェクトと前記端末装置との距離を、前記各オブジェクトのオブジェクト情報と前記端末情報が有する位置情報とから、前記撮影オブジェクト決定部が決定したオブジェクトごとに算出する距離算出部をさらに具備し、前記撮影オブジェクト情報取得部は、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む情報を前記記憶媒体から取得し、当該領域情報を含む情報と前記距離算出部が算出した距離とを含む1以上の撮影オブジェクト情報を構成することは好適である。   In the above program, the shooting object determination unit determines the distance between each object determined by the shooting object determination unit and the terminal device from the object information of each object and the position information of the terminal information. A distance calculation unit that calculates for each object is further included, and the shooting object information acquisition unit includes area information among one or more object information corresponding to each of the one or more objects determined by the shooting object determination unit. Is acquired from the storage medium, and it is preferable to configure one or more shooting object information including information including the region information and the distance calculated by the distance calculation unit.

また、上記プログラムにおいて、前記撮影オブジェクト決定部は、前記カメラ部が撮影している映像の中で最も近い位置に存在するオブジェクトの撮影オブジェクト、または前記カメラ部が撮影している映像の中で最も中央寄りに位置するオブジェクトの撮影オブジェクト、または前記カメラ部が撮影している映像の中で最も大きい領域を有するオブジェクトの撮影オブジェクトを決定することは好適である。   Further, in the above program, the shooting object determination unit is the shooting object of the object that is present at the closest position in the video shot by the camera unit, or the most of the video shot by the camera unit. It is preferable to determine the shooting object of the object located closer to the center or the shooting object of the object having the largest area in the video shot by the camera unit.

また、上記プログラムにおいて、前記サーバ送信部は、前記撮影オブジェクト情報を、前記端末装置または前記1以上のいずれかのウェブサーバ装置に送信ことは好適である。なお、サーバ送信部が撮影オブジェクト情報を、1以上のいずれかのウェブサーバ装置に送信する場合、オブジェクト関連情報は、ウェブサーバ装置から(直接または間接的に)端末装置に送信される。   In the program, it is preferable that the server transmission unit transmits the shooting object information to the terminal device or one or more of the web server devices. When the server transmission unit transmits the shooting object information to one or more web server devices, the object related information is transmitted from the web server device (directly or indirectly) to the terminal device.

本実施の形態における端末装置13を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力するカメラ映像出力手段を具備する出力部と、前記端末情報取得部が取得した端末情報を前記サーバ装置に送信する送信部と、前記端末情報の送信に対応して、前記1以上の撮影オブジェクト情報を受信する受信部と、前記受信部が受信した1以上の撮影オブジェクト情報が有する1以上の領域情報を含む出力情報を取得する出力情報取得部とを具備し、前記出力部は、前記出力部が出力している映像に重ねて、前記出力情報取得部が取得した1以上の出力情報に含まれる領域情報を出力する領域出力手段を具備するものとして機能させるためのプログラム、である。   The software that implements the terminal device 13 in the present embodiment is the following program. In other words, this program uses a computer to acquire terminal information including position information indicating the position of the terminal device and direction information indicating the direction in which the terminal device is facing, and a camera that acquires video. An output unit including a camera video output unit that outputs video acquired by the camera unit, a transmission unit that transmits the terminal information acquired by the terminal information acquisition unit to the server device, and transmission of the terminal information Corresponding to the receiving unit that receives the one or more shooting object information, and an output information acquisition unit that acquires output information including one or more region information included in the one or more shooting object information received by the receiving unit; And the output unit outputs region information included in the one or more pieces of output information acquired by the output information acquisition unit, superimposed on the video output by the output unit. Program for functioning as comprising a force means, a.

また、上記プログラムにおいて、前記領域出力手段は、前記出力情報取得部が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力することは好適である。   In the above program, the area output means can visually distinguish an area having a size corresponding to the area information included in the one or more pieces of output information acquired by the output information acquisition unit from other areas. In addition, it is preferable to output the video output from the output unit so as to overlap it.

また、上記プログラムにおいて、前記出力情報取得部は、前記受信部が受信した撮影オブジェクト情報が有する1以上の領域情報と1以上の距離とを含む出力情報を取得し、前記出力部は、前記出力情報取得部が取得した1以上の出力情報に含まれる距離を出力する距離出力手段をさらに具備することは好適である。   In the program, the output information acquisition unit acquires output information including one or more area information and one or more distances included in the shooting object information received by the reception unit, and the output unit includes the output It is preferable to further include distance output means for outputting a distance included in the one or more pieces of output information acquired by the information acquisition unit.

また、上記プログラムにおいて、前記領域出力手段は、前記出力情報取得部が取得した1以上の出力情報に含まれる距離が大きいほど、当該距離に対応するオブジェクトの領域を小さくして出力することは好適である。   In the above program, it is preferable that the area output unit outputs the object area corresponding to the distance smaller as the distance included in the one or more pieces of output information acquired by the output information acquisition unit is larger. It is.

また、上記プログラムにおいて、オブジェクト関連情報を受信するオブジェクト関連情報受信部をさらに具備し、前記出力部は、前記オブジェクト関連情報受信部が受信したオブジェクト関連情報を出力するオブジェクト関連情報出力手段をさらに具備することは好適である。   The program further includes an object related information receiving unit that receives object related information, and the output unit further includes an object related information output unit that outputs the object related information received by the object related information receiving unit. It is preferable to do.

また、上記プログラムにおいて、2つの分離された表示部である第一表示手段および第二表示手段を具備し、前記カメラ映像出力手段は、前記カメラ部が取得した映像を、前記第一表示手段に表示し、前記オブジェクト関連情報出力手段は、前記オブジェクト関連情報受信部が受信したオブジェクト関連情報を、前記第二表示手段に表示することは好適である。   Further, the program includes a first display unit and a second display unit which are two separate display units, and the camera video output unit sends the video acquired by the camera unit to the first display unit. It is preferable that the object related information output means displays the object related information received by the object related information receiving unit on the second display means.

また、上記プログラムにおいて、前記領域出力手段は、他のオブジェクトの領域情報は出力せず、一のオブジェクトの領域情報のみを他の領域情報と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力することは好適である。   In the above program, the output unit outputs the area information so that only the area information of one object can be visually distinguished from the other area information without outputting the area information of the other object. It is preferable to output the image superimposed on the current image.

また、上記プログラムにおいて、前記オブジェクト関連情報出力手段は、他のオブジェクトのオブジェクト関連情報は出力せず、一のオブジェクトのオブジェクト関連情報のみを出力することは好適である。   In the above program, it is preferable that the object related information output means outputs only the object related information of one object without outputting the object related information of another object.

また、上記プログラムにおいて、ユーザの指示を受け付ける第一受付手段と、前記受付部が指示を受け付けた場合、前記出力部が出力中の映像と領域を固定する出力固定部とをさらに具備することは好適である。   In the above program, further comprising: a first receiving unit that receives a user instruction; and an output fixing unit that fixes an image and a region being output by the output unit when the receiving unit receives the instruction. Is preferred.

また、上記プログラムにおいて、前記撮影オブジェクト情報は、オブジェクト識別子を含み、前記固定された領域に対する入力を受け付ける第二受付手段と、前記第二受付手段で受け付けた入力に対応する領域に対するオブジェクト識別子を取得するオブジェクト識別子取得部と、前記オブジェクト識別子取得部が取得したオブジェクト識別子を前記1以上のウェブサーバ装置のいずれかに送信するオブジェクト識別子送信部とをさらに具備し、前記オブジェクト関連情報受信部は、前記オブジェクト識別子の送信に対応して、オブジェクト関連情報を受信し、前記オブジェクト識別子の送信は、前記外部からの指示により行われることは好適である。   In the above program, the shooting object information includes an object identifier, and obtains an object identifier for an area corresponding to the input received by the second receiving means and a second receiving means for receiving an input to the fixed area. An object identifier acquisition unit that transmits the object identifier acquired by the object identifier acquisition unit to any one of the one or more web server devices, the object related information reception unit, Corresponding to the transmission of the object identifier, it is preferable that the object-related information is received, and the transmission of the object identifier is performed by an instruction from the outside.

また、記憶媒体に、前記カメラ部が取得した映像を出力するレイヤであるカメラレイヤ、オブジェクトに対応する領域を出力するレイヤであるオブジェクト識別レイヤ、オブジェクト関連情報を出力するレイヤであるウェブサーチレイヤを含む複数のレイヤのうちの、現在のレイヤであるカレントレイヤを格納しており、上記プログラムにおいて、カレントレイヤを設定する入力を受け付ける第三受付手段と、前記第三受付手段で受け付けた入力に従って、前記記憶媒体のカレントレイヤを変更するカレントレイヤ変更部とをさらに具備し、前記カレントレイヤがカメラレイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、前記カレントレイヤがオブジェクト識別レイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、かつ、前記領域出力手段は前記領域を他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力し、前記カレントレイヤがウェブサーチレイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、かつ、前記領域出力手段は前記領域を他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力し、かつ、前記オブジェクト関連情報出力手段は前記オブジェクト関連情報を出力することは好適である。   In addition, a camera layer that is a layer that outputs the video acquired by the camera unit, an object identification layer that is a layer that outputs an area corresponding to an object, and a web search layer that is a layer that outputs object-related information are stored in a storage medium. Among the plurality of layers including, the current layer that is the current layer is stored, and in the above program, according to the input received by the third receiving unit, the third receiving unit that receives the input to set the current layer, A current layer changing unit for changing a current layer of the storage medium, and when the current layer is a camera layer, the camera video output means outputs the video acquired by the camera unit, and the current layer In the case of an object identification layer, the camera video output means The video output by the camera unit is output, and the region output means outputs the image superimposed on the video output by the output unit so that the region can be visually distinguished from other regions, When the current layer is a web search layer, the camera video output means outputs the video acquired by the camera unit, and the area output means can visually distinguish the area from other areas. It is preferable that the video output by the output unit is superimposed and output, and the object related information output means outputs the object related information.

また、端末装置13を実現するソフトウェアは、以下のようなプログラムでも良い。つまり、このプログラムは、コンピュータを、当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力するカメラ映像出力手段を具備する出力部と、前記端末情報取得部が取得した端末情報を前記サーバ装置に送信する送信部と、前記端末情報の送信に対応して、前記撮影オブジェクト情報を受信する受信部と、前記受信部が受信した撮影オブジェクト情報を出力する出力部とを具備するものとして機能させるためのプログラム、である。   The software that implements the terminal device 13 may be the following program. That is, this program acquires a video from a terminal information acquisition unit that acquires terminal information including position information indicating the position of the terminal device and direction information indicating a direction in which the terminal device is facing. A camera unit; an output unit including a camera video output unit that outputs a video acquired by the camera unit; a transmission unit that transmits terminal information acquired by the terminal information acquisition unit to the server device; and In response to transmission, a program for causing a reception unit to receive the shooting object information and an output unit to output the shooting object information received by the reception unit to function.

(実施の形態2)
本実施の形態において、端末装置がスタンドアロンで動作する場合について説明する。なお、端末装置は、必要に応じて、ウェブサーバ装置にアクセスする、とする。
(Embodiment 2)
In the present embodiment, a case where the terminal device operates stand-alone will be described. It is assumed that the terminal device accesses the web server device as necessary.

図29は、情報システム2の概念図である。情報システム2は、ウェブサーバ装置12、端末装置23を具備する。端末装置23は、1画面のディスプレイを有する端末でも、多画面のディスプレイを有する端末でも良い。端末装置23は、カメラ機能を有し、外部の風景、建物などを撮影している際に、撮影した映像内のオブジェクト(建物など)の領域や、オブジェクトに関連する情報などを出力できる。また、ウェブサーバ装置12、および端末装置23は、通常、通信可能である。   FIG. 29 is a conceptual diagram of the information system 2. The information system 2 includes a web server device 12 and a terminal device 23. The terminal device 23 may be a terminal having a single-screen display or a terminal having a multi-screen display. The terminal device 23 has a camera function and can output an area of an object (such as a building) in the captured video, information related to the object, or the like when shooting an external landscape or a building. Moreover, the web server apparatus 12 and the terminal device 23 are normally communicable.

図30は、本実施の形態における情報システム2のブロック図である。 端末装置23は、オブジェクト情報格納部111、撮影オブジェクト決定部113、距離算出部114、撮影オブジェクト情報取得部115、カレントレイヤ格納部1301、受付部1302、端末情報取得部1303、カメラ部1304、オブジェクト関連情報受信部1307、出力情報取得部1308、出力部1309、カレントレイヤ変更部1310、出力固定部1311、オブジェクト識別子取得部1312、オブジェクト識別子送信部1313、表示部1314を具備する。   FIG. 30 is a block diagram of the information system 2 in the present embodiment. The terminal device 23 includes an object information storage unit 111, a shooting object determination unit 113, a distance calculation unit 114, a shooting object information acquisition unit 115, a current layer storage unit 1301, a reception unit 1302, a terminal information acquisition unit 1303, a camera unit 1304, an object A related information receiving unit 1307, an output information acquiring unit 1308, an output unit 1309, a current layer changing unit 1310, an output fixing unit 1311, an object identifier acquiring unit 1312, an object identifier transmitting unit 1313, and a display unit 1314 are provided.

次に、情報システム2を構成する端末装置23の動作について、図31のフローチャートを用いて説明する。図31のフローチャートにおいて、既に説明したフローチャートに出現していないステップについてのみ説明する。   Next, operation | movement of the terminal device 23 which comprises the information system 2 is demonstrated using the flowchart of FIG. In the flowchart of FIG. 31, only steps that do not appear in the flowchart described above will be described.

(ステップS3101)撮影オブジェクト情報取得部115は、i番目の撮影オブジェクトの領域情報を含む情報をオブジェクト情報格納部111から取得する。そして、撮影オブジェクト情報取得部115は、既に算出されているi番目の撮影オブジェクトの距離を取得する。次に、撮影オブジェクト情報取得部115は、オブジェクト情報格納部111から取得したi番目の撮影オブジェクトの情報と、距離を有する撮影オブジェクト情報を構成する。   (Step S3101) The shooting object information acquisition unit 115 acquires information including area information of the i-th shooting object from the object information storage unit 111. Then, the shooting object information acquisition unit 115 acquires the calculated distance of the i-th shooting object. Next, the shooting object information acquisition unit 115 configures the i-th shooting object information acquired from the object information storage unit 111 and shooting object information having a distance.

なお、図31のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。   Note that in the flowchart of FIG. 31, the processing ends due to power-off or a processing end interrupt.

以下、本実施の形態における情報システム2の具体的な動作は、情報システム1の動作と同様である。なお、情報システム2において、言うまでもなく、端末装置とサーバ装置は通信せず、端末装置23がスタンドアロンで、カメラで撮影しているオブジェクトを認識する。そして、端末装置23は、カメラで撮影しているオブジェクトに関連する情報を、ウェブサーバ装置12から取得して出力できる。   Hereinafter, the specific operation of the information system 2 in the present embodiment is the same as the operation of the information system 1. Needless to say, in the information system 2, the terminal device and the server device do not communicate with each other, and the terminal device 23 is stand-alone and recognizes the object being photographed by the camera. And the terminal device 23 can acquire the information relevant to the object currently image | photographed with the camera from the web server apparatus 12, and can output it.

つまり、端末装置23は、オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されている視野角とを、前記オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力するカメラ映像出力手段と、前記映像に重ねて、前記1以上の撮影オブジェクト情報に含まれる領域情報を出力する領域出力手段とを具備する出力部とを具備する端末装置である。また、かかる撮影オブジェクト情報決定部は、端末装置23からの距離が近い順にオブジェクトを検査し、端末装置23が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了することは好適である。   That is, the terminal device 23 indicates an object information storage unit that can store one or more object information having an object identifier for identifying an object and region information indicating a region where the object exists, and indicates the position of the terminal device. A terminal information acquisition unit that acquires terminal information including position information and direction information indicating a direction in which the terminal device is facing; a position information included in terminal information acquired by the terminal information acquisition unit; and the terminal information A shooting object determination unit that applies the direction information and the viewing angle stored in advance to the area information of each object information in the object information storage unit and determines one or more objects being shot by the terminal device And one or more pieces of object information corresponding to one or more objects decided by the shooting object decision unit Among them, one or more shooting object information including area information is acquired from the object information storage unit, a shooting object information acquisition unit, a camera unit that acquires a video, and a camera video output that outputs a video acquired by the camera unit And an output unit including an area output means for outputting area information included in the one or more shooting object information so as to be superimposed on the video. In addition, the shooting object information determination unit inspects the objects in order from the shortest distance from the terminal device 23, and sets information on an area that becomes invisible by shooting the object previously determined that the terminal apparatus 23 is shooting. It is preferable to end the inspection as to whether or not the object has been photographed by the terminal device when the visible region runs out.

また、端末装置23は、オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されている視野角とを、前記オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、オブジェクト識別子を含む1以上の撮影オブジェクト情報を、前記オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力し、前記1以上の撮影オブジェクト情報を出力する出力部とを具備する端末装置でも良い。また、かかる撮影オブジェクト情報決定部は、端末装置23からの距離が近い順にオブジェクトを検査し、端末装置23が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了することは好適である。   In addition, the terminal device 23 indicates an object information storage unit that can store one or more object information including an object identifier for identifying an object and region information indicating a region in which the object exists, and indicates the position of the terminal device. A terminal information acquisition unit that acquires terminal information including position information and direction information indicating a direction in which the terminal device is facing; a position information included in terminal information acquired by the terminal information acquisition unit; and the terminal information A shooting object determination unit that applies the direction information and the viewing angle stored in advance to the area information of each object information in the object information storage unit and determines one or more objects being shot by the terminal device And one or more object information corresponding to each one or more objects determined by the shooting object determination unit In other words, one or more shooting object information including an object identifier is acquired from the object information storage unit, a shooting object information acquisition unit, a camera unit that acquires video, and a video acquired by the camera unit is output. A terminal device including an output unit that outputs the above-described shooting object information may be used. In addition, the shooting object information determination unit inspects the objects in order from the shortest distance from the terminal device 23, and sets information on an area that becomes invisible by shooting the object previously determined that the terminal apparatus 23 is shooting. It is preferable to end the inspection as to whether or not the object has been photographed by the terminal device when the visible region runs out.

以上、本実施の形態によれば、カメラで撮影しているオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる。
また、本実施の形態によれば、撮影オブジェクトを検知する処理を適切に打ち切ることにより、高速な処理が可能となる。そのために、端末装置はナビゲーションシステムにも利用できる。
As described above, according to the present embodiment, it is possible to recognize an object photographed by a camera and output information related to the object.
Further, according to the present embodiment, high-speed processing can be performed by appropriately terminating the processing for detecting a shooting object. Therefore, the terminal device can be used for a navigation system.

また、本実施の形態によれば、サーバ装置との通信は不要であるので、高速にカメラで撮影している映像内のオブジェクトに対して、適切な情報を表示できる。   Further, according to the present embodiment, since communication with the server device is not necessary, it is possible to display appropriate information for the object in the video imaged by the camera at high speed.

さらに、本実施の形態における端末装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、記憶媒体に、オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納しており、コンピュータを、当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されている視野角とを、前記記憶媒体の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記記憶媒体から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力するカメラ映像出力手段と、前記映像に重ねて、前記1以上の撮影オブジェクト情報に含まれる領域情報を出力する領域出力手段とを具備する出力部とを具備するものとして機能させるためのプログラム、である。   Furthermore, the software that implements the terminal device according to the present embodiment is the following program. That is, this program stores one or more object information having an object identifier for identifying an object and area information indicating an area in which the object exists in the storage medium, and the computer stores the position of the terminal device. Terminal information acquisition unit that acquires terminal information including position information indicating the direction of the terminal device, direction information indicating the direction in which the terminal device is facing, position information included in the terminal information acquired by the terminal information acquisition unit, and the terminal A shooting object determination unit that applies direction information included in information and a pre-stored viewing angle to region information of each object information of the storage medium, and determines one or more objects being shot by the terminal device And one or more pieces of object information corresponding to each of the one or more objects determined by the shooting object determination unit A shooting object information acquisition unit that acquires one or more shooting object information including area information from the storage medium; a camera unit that acquires a video; a camera video output unit that outputs a video acquired by the camera unit; A program for causing a computer to function as an output unit including an area output unit that outputs area information included in the one or more shooting object information, overlaid on a video.

また、上記プログラムにおいて、前記領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、前記撮影オブジェクト決定部は、前記端末情報が有する位置情報および方向情報と、予め格納されている視野角とを用いて、三次元空間上での撮影領域を取得し、当該撮影領域を、前記記憶媒体の各オブジェクト情報が有する領域情報に対して適用し、前記端末装置が撮影している1以上のオブジェクトを決定することは好適である。   In the above program, the area information includes two-dimensional area information indicating a two-dimensional area on a map and height information indicating the height of an object. Using the position information and the direction information having and the viewing angle stored in advance, a shooting area in a three-dimensional space is acquired, and the shooting area is compared with the area information included in each object information of the storage medium It is preferable to determine one or more objects being photographed by the terminal device.

また、上記プログラムにおいて、前記領域出力手段は、前記出力情報取得部が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力することは好適である。   In the above program, the area output means can visually distinguish an area having a size corresponding to the area information included in the one or more pieces of output information acquired by the output information acquisition unit from other areas. In addition, it is preferable to output the video output from the output unit so as to overlap it.

また、上記プログラムにおいて、前記撮影オブジェクト決定部が決定した各オブジェクトと前記端末装置との距離を、前記各オブジェクトのオブジェクト情報と前記端末情報が有する位置情報とから、前記撮影オブジェクト決定部が決定したオブジェクトごとに算出する距離算出部をさらに具備し、前記撮影オブジェクト情報取得部は、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む情報を前記記憶媒体から取得し、当該領域情報を含む情報と前記距離算出部が算出した距離とを含む1以上の撮影オブジェクト情報を構成することは好適である。   In the above program, the shooting object determination unit determines the distance between each object determined by the shooting object determination unit and the terminal device from the object information of each object and the position information of the terminal information. A distance calculation unit that calculates for each object is further included, and the shooting object information acquisition unit includes area information among one or more object information corresponding to each of the one or more objects determined by the shooting object determination unit. Is acquired from the storage medium, and it is preferable to configure one or more shooting object information including information including the region information and the distance calculated by the distance calculation unit.

また、上記プログラムにおいて、前記出力部は、前記1以上の撮影オブジェクト情報に含まれる距離を出力する距離出力手段をさらに具備することは好適である。   In the above program, it is preferable that the output unit further includes distance output means for outputting a distance included in the one or more pieces of shooting object information.

また、上記プログラムにおいて、前記領域出力手段は、前記1以上の撮影オブジェクト情報に含まれる距離が大きいほど、当該距離に対応するオブジェクトの領域を小さくして出力することは好適である。   In the above program, it is preferable that the region output means outputs the object region corresponding to the distance with a smaller distance as the distance included in the one or more pieces of shooting object information is larger.

また、上記プログラムにおいて、外部の装置からオブジェクト関連情報を受信するオブジェクト関連情報受信部をさらに具備し、前記出力部は、前記オブジェクト関連情報受信部が受信したオブジェクト関連情報を出力するオブジェクト関連情報出力手段をさらに具備することは好適である。   The program further includes an object related information receiving unit that receives object related information from an external device, and the output unit outputs object related information that is output by the object related information receiving unit. It is preferable to further comprise means.

また、上記プログラムにおいて、前記端末装置は、2つの分離された表示部である第一表示手段および第二表示手段を具備し、前記カメラ映像出力手段は、前記カメラ部が取得した映像を、前記第一表示手段に表示し、前記オブジェクト関連情報出力手段は、前記オブジェクト関連情報受信部が受信したオブジェクト関連情報を、前記第二表示手段に表示することは好適である。   In the above program, the terminal device includes a first display unit and a second display unit which are two separated display units, and the camera video output unit displays the video acquired by the camera unit, It is preferable that the object related information output means displays the object related information received by the object related information receiving unit on the second display means.

また、上記プログラムにおいて、前記領域出力手段は、他のオブジェクトの領域情報は出力せず、一のオブジェクトの領域情報のみを他の領域情報と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力することは好適である。   In the above program, the output unit outputs the area information so that only the area information of one object can be visually distinguished from the other area information without outputting the area information of the other object. It is preferable to output the image superimposed on the current image.

また、上記プログラムにおいて、前記オブジェクト関連情報出力手段は、他のオブジェクトのオブジェクト関連情報は出力せず、一のオブジェクトのオブジェクト関連情報のみを出力することは好適である。   In the above program, it is preferable that the object related information output means outputs only the object related information of one object without outputting the object related information of another object.

また、上記プログラムにおいて、前記撮影オブジェクト決定部は、前記カメラ部が撮影している映像の中で最も近い位置に存在するオブジェクトの撮影オブジェクト、または前記カメラ部が撮影している映像の中で最も中央寄りに位置するオブジェクトの撮影オブジェクト、または前記カメラ部が撮影している映像の中で最も大きい領域を有するオブジェクトの撮影オブジェクトを決定することは好適である。   Further, in the above program, the shooting object determination unit is the shooting object of the object that is present at the closest position in the video shot by the camera unit, or the most of the video shot by the camera unit. It is preferable to determine the shooting object of the object located closer to the center or the shooting object of the object having the largest area in the video shot by the camera unit.

また、上記プログラムにおいて、ユーザの指示を受け付ける第一受付手段と、前記受付部が指示を受け付けた場合、前記出力部が出力中の映像と領域を固定する出力固定部とをさらに具備することは好適である。   In the above program, further comprising: a first receiving unit that receives a user instruction; and an output fixing unit that fixes an image and a region being output by the output unit when the receiving unit receives the instruction. Is preferred.

また、上記プログラムにおいて、前記撮影オブジェクト情報は、オブジェクト識別子を含み、前記固定された領域に対する入力を受け付ける第二受付手段と、前記第二受付手段で受け付けた入力に対応する領域に対するオブジェクト識別子を取得するオブジェクト識別子取得部と、前記オブジェクト識別子取得部が取得したオブジェクト識別子を前記1以上のウェブサーバ装置のいずれかに送信するオブジェクト識別子送信部とをさらに具備し、前記オブジェクト関連情報受信部は、前記オブジェクト識別子の送信に対応して、オブジェクト関連情報を受信し、前記オブジェクト識別子の送信は、前記外部からの指示により行われることは好適である。   In the above program, the shooting object information includes an object identifier, and obtains an object identifier for an area corresponding to the input received by the second receiving means and a second receiving means for receiving an input to the fixed area. An object identifier acquisition unit that transmits the object identifier acquired by the object identifier acquisition unit to any one of the one or more web server devices, the object related information reception unit, Corresponding to the transmission of the object identifier, it is preferable that the object-related information is received, and the transmission of the object identifier is performed by an instruction from the outside.

また、上記プログラムにおいて、記憶媒体に、前記カメラ部が取得した映像を出力するレイヤであるカメラレイヤ、オブジェクトに対応する領域を出力するレイヤであるオブジェクト識別レイヤ、オブジェクト関連情報を出力するレイヤであるウェブサーチレイヤを含む複数のレイヤのうちの、現在のレイヤであるカレントレイヤを格納しており、カレントレイヤを設定する入力を受け付ける第三受付手段と、前記第三受付手段で受け付けた入力に従って、前記記憶媒体のカレントレイヤを変更するカレントレイヤ変更部とをさらに具備し、前記カレントレイヤがカメラレイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、前記カレントレイヤがオブジェクト識別レイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、かつ、前記領域出力手段は前記領域を他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力し、前記カレントレイヤがウェブサーチレイヤである場合、前記カメラ映像出力手段は前記カメラ部が取得した映像を出力し、かつ、前記領域出力手段は前記領域を他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力し、かつ、前記オブジェクト関連情報出力手段は前記オブジェクト関連情報を出力することは好適である。   In the above program, the storage layer is a camera layer that outputs a video acquired by the camera unit, an object identification layer that outputs a region corresponding to an object, and a layer that outputs object-related information. Among the plurality of layers including the web search layer, the current layer that is the current layer is stored, and the third receiving unit that receives an input for setting the current layer, and the input received by the third receiving unit, A current layer changing unit for changing a current layer of the storage medium, and when the current layer is a camera layer, the camera video output means outputs the video acquired by the camera unit, and the current layer In the case of an object identification layer, the camera video output means The video output by the camera unit is output, and the region output means outputs the image superimposed on the video output by the output unit so that the region can be visually distinguished from other regions, When the current layer is a web search layer, the camera video output means outputs the video acquired by the camera unit, and the area output means can visually distinguish the area from other areas. It is preferable that the video output by the output unit is superimposed and output, and the object related information output means outputs the object related information.

また、本実施の形態における端末装置23を実現するソフトウェアは、以下のようなプログラムでも良い。つまり、このプログラムは、記憶媒体に、オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納しており、コンピュータを、端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されている視野角とを、前記記憶媒体の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、オブジェクト識別子を含む1以上の撮影オブジェクト情報を、前記記憶媒体から取得する撮影オブジェクト情報取得部と、映像を取得するカメラ部と、前記カメラ部が取得した映像を出力し、前記1以上の撮影オブジェクト情報を出力する出力部とを具備するものとして機能させるためのプログラム、である。   Moreover, the following programs may be sufficient as the software which implement | achieves the terminal device 23 in this Embodiment. That is, this program stores one or more object information having an object identifier for identifying an object and area information indicating an area in which the object exists in the storage medium, and the computer stores the position of the terminal device. Terminal information acquisition unit that acquires terminal information including position information that indicates and direction information that indicates a direction in which the terminal device is facing, position information that the terminal information acquired by the terminal information acquisition unit includes, and the terminal information A shooting object determining unit that applies the direction information included in the image and the viewing angle stored in advance to the area information of each object information of the storage medium, and determines one or more objects being shot by the terminal device; Of the one or more pieces of object information corresponding to the one or more objects determined by the shooting object determination unit, A shooting object information acquisition unit that acquires one or more shooting object information including a project identifier from the storage medium; a camera unit that acquires a video; and a video acquired by the camera unit; and the one or more shooting objects A program for causing a computer to function as an output unit that outputs information.

なお、本明細書において、端末装置は、2画面を有する装置であった。しかし、端末装置は、例えば、図32に示すように、1画面の装置でも良いことはいうまでもない。また、図32において、端末装置は、カメラ付きのUMPC(Ultra−Moble PC)である。また、端末装置は、擬似シースルースクリーン(Pseudo See−though Screen(touchable))を有する。また、端末装置は、加速度計(Accelerometer)を具備する。さらに、端末装置は、GPS受信機を具備する。   In this specification, the terminal device is a device having two screens. However, it goes without saying that the terminal device may be a one-screen device as shown in FIG. In FIG. 32, the terminal device is a UMPC (Ultra-Mobile PC) with a camera. In addition, the terminal device has a pseudo see-through screen (Pseudo See-through Screen (touchable)). Further, the terminal device includes an accelerometer. Further, the terminal device includes a GPS receiver.

また、本明細書において、図33に示すような方法で、カメラが撮影している映像に含まれる地理オブジェクトが認識された。つまり、カメラの位置(view−point)から、カメラの視野角(view−angle)と、カメラの方向情報(view−direction)とを用いて、全領域を可視領域(target−field)と不可視領域(no−distance spesified)とに分割される。そして、view−pointから近いオブジェクトについて検査され、撮影オブジェクトが決定された。その際、既に撮影オブジェクトと決定された領域を不可視領域に追加していきながら検査が行なわれた。図33において、まず、オブジェクト3303が撮影オブジェクトに決定される。そして、オブジェクト3303により不可視領域に入るオブジェクト3304、3305は撮影オブジェクトとはならない。次に、オブジェクト3306が撮影オブジェクトに決定される。つまり、図33において、オブジェクト3303と3306が撮影オブジェクトに決定される。また、上述したように、登録されている不可視領域、または可視領域から、可視領域が存在するか否かを判断し、可視領域が存在しないと判断した場合に、映像に含まれる地理オブジェクトの認識処理を中止した。   Further, in this specification, the geographic object included in the video captured by the camera is recognized by the method shown in FIG. That is, from the position of the camera (view-point), using the viewing angle (view-angle) of the camera and the direction information (view-direction) of the camera, the entire area is made a visible area (target-field) and an invisible area. (No-distance specified). Then, an object close to view-point was inspected and a shooting object was determined. At that time, the inspection was performed while adding the area already determined to be a shooting object to the invisible area. In FIG. 33, first, an object 3303 is determined as a shooting object. Then, the objects 3304 and 3305 that enter the invisible region by the object 3303 are not shooting objects. Next, the object 3306 is determined as a shooting object. That is, in FIG. 33, objects 3303 and 3306 are determined as shooting objects. In addition, as described above, it is determined whether or not a visible area exists from a registered invisible area or a visible area. When it is determined that a visible area does not exist, a geographic object included in a video is recognized. Processing was canceled.

また、本明細書において、端末装置は、車載用であっても良い、つまり、例えば、端末装置は、いわゆるナビゲーション端末であっても良い。   Further, in the present specification, the terminal device may be for vehicle use, that is, for example, the terminal device may be a so-called navigation terminal.

また、図34は、本明細書で述べたプログラムを実行して、上述した実施の形態の情報システム等を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図34は、このコンピュータシステム340の概観図であり、図35は、コンピュータシステム340の内部構成を示す図である。   FIG. 34 shows the external appearance of a computer that executes the program described in this specification to realize the information system or the like of the above-described embodiment. The above-described embodiments can be realized by computer hardware and a computer program executed thereon. FIG. 34 is an overview of the computer system 340, and FIG. 35 is a diagram showing the internal configuration of the computer system 340. As shown in FIG.

図34において、コンピュータシステム340は、FDドライブ3411、CD−ROMドライブ3412を含むコンピュータ341と、キーボード342と、マウス343と、モニタ344とを含む。   34, the computer system 340 includes a computer 341 including an FD drive 3411 and a CD-ROM drive 3412, a keyboard 342, a mouse 343, and a monitor 344.

図35において、コンピュータ341は、FDドライブ3411、CD−ROMドライブ3412に加えて、MPU3413と、CD−ROMドライブ3412及びFDドライブ3411に接続されたバス3414と、ブートアッププログラム等のプログラムを記憶するためのROM3415と、CPU3413に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3416と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3417とを含む。ここでは、図示しないが、コンピュータ341は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。   35, in addition to the FD drive 3411 and the CD-ROM drive 3412, the computer 341 stores an MPU 3413, a bus 3414 connected to the CD-ROM drive 3412 and the FD drive 3411, and a program such as a bootup program. ROM 3415 for connecting to CPU 3413, RAM 3416 for temporarily storing application program instructions and providing a temporary storage space, and hard disk 3417 for storing application programs, system programs, and data . Although not shown here, the computer 341 may further include a network card that provides connection to the LAN.

コンピュータシステム340に、上述した実施の形態の情報システム等の機能を実行させるプログラムは、CD−ROM3501、またはFD3502に記憶されて、CD−ROMドライブ3412またはFDドライブ3411に挿入され、さらにハードディスク3417に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ341に送信され、ハードディスク3417に記憶されても良い。プログラムは実行の際にRAM3416にロードされる。プログラムは、CD−ROM3501、FD3502またはネットワークから直接、ロードされても良い。   A program that causes the computer system 340 to execute functions such as the information system of the above-described embodiment is stored in the CD-ROM 3501 or the FD 3502, inserted into the CD-ROM drive 3412 or the FD drive 3411, and further stored in the hard disk 3417. May be forwarded. Alternatively, the program may be transmitted to the computer 341 via a network (not shown) and stored in the hard disk 3417. The program is loaded into the RAM 3416 at the time of execution. The program may be loaded directly from the CD-ROM 3501, the FD 3502, or the network.

プログラムは、コンピュータ341に、上述した実施の形態の情報システム等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム340がどのように動作するかは周知であり、詳細な説明は省略する。   The program does not necessarily include an operating system (OS) or a third-party program that causes the computer 341 to execute functions such as the information system of the above-described embodiment. The program only needs to include an instruction portion that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 340 operates is well known and will not be described in detail.

なお、上記プログラムにおいて、情報を送信する送信ステップや、情報を受信する受信ステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。   In the above program, in a transmission step for transmitting information, a reception step for receiving information, etc., processing performed by hardware, for example, processing performed by a modem or an interface card in the transmission step (only performed by hardware). Not included) is not included.

また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。   Further, the computer that executes the program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

また、上記各実施の形態において、一の装置に存在する2以上の通信手段(サーバ受信部、サーバ送信部など)は、物理的に一の媒体で実現されても良いことは言うまでもない。   Further, in each of the above embodiments, it goes without saying that two or more communication means (a server reception unit, a server transmission unit, etc.) existing in one device may be physically realized by one medium.

また、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。   In each of the above embodiments, each process (each function) may be realized by centralized processing by a single device (system), or by distributed processing by a plurality of devices. May be.

本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   The present invention is not limited to the above-described embodiments, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.

以上のように、本発明にかかる情報システムは、カメラで撮影したオブジェクトを認識し、かかるオブジェクトに関連する情報を出力することができる、という効果を有し、情報システム等として有用である。   As described above, the information system according to the present invention has an effect of recognizing an object photographed by a camera and outputting information related to the object, and is useful as an information system or the like.

実施の形態1における情報システム1の概念図Conceptual diagram of information system 1 according to Embodiment 1 同情報システムのブロック図Block diagram of the information system 同端末装置のブロック図Block diagram of the terminal device 同サーバ装置の動作について説明するフローチャートFlow chart for explaining the operation of the server device 同端末装置の動作について説明するフローチャートFlow chart for explaining the operation of the terminal device 同オブジェクトソート処理の動作について説明するフローチャートA flowchart for explaining the operation of the object sort process 同可視判断処理の動作について説明するフローチャートA flowchart for explaining the operation of the visibility determination process 同可視判断処理の動作について説明するフローチャートA flowchart for explaining the operation of the visibility determination process 同端末装置の動作について説明するフローチャートFlow chart for explaining the operation of the terminal device 同撮影オブジェクト情報出力処理の動作について説明するフローチャートA flowchart for explaining the operation of the shooting object information output process 同オブジェクト関連情報出力処理の動作について説明するフローチャートA flowchart for explaining the operation of the object related information output process 同情報システム1の処理の概念を示す図The figure which shows the concept of the process of the information system 1 同レイヤについて説明する図Diagram explaining the same layer 同オブジェクト情報管理表を示す図Figure showing the same object information management table 同オブジェクト関連情報の例を示す図The figure which shows the example of the same object related information 同カメラレイヤの場合の端末装置の出力例を示す図The figure which shows the output example of the terminal device in the case of the camera layer 同可視領域の判断の概念図Conceptual diagram of judgment of the visible region 同オブジェクト一時管理表を示す図Figure showing the same object temporary management table 同撮影オブジェクト情報管理表を示す図The figure which shows the photography object information management table 同端末装置の出力例を示す図The figure which shows the output example of the terminal device 同端末装置の出力例を示す図The figure which shows the output example of the terminal device 同端末装置の出力例を示す図The figure which shows the output example of the terminal device 同端末装置の出力例を示す図The figure which shows the output example of the terminal device 同端末装置の出力例を示す図The figure which shows the output example of the terminal device 同オブジェクト情報管理表を示す図Figure showing the same object information management table 同三次元の視野角について説明する図Diagram explaining the 3D viewing angle 同端末装置の出力例を示す図The figure which shows the output example of the terminal device 同端末装置の出力例を示す図The figure which shows the output example of the terminal device 実施の形態2における情報システム2の概念図Conceptual diagram of information system 2 in the second embodiment 同端末装置のブロック図Block diagram of the terminal device 同端末装置の動作について説明するフローチャートFlow chart for explaining the operation of the terminal device 同端末装置の構成、外観を示す図Diagram showing the configuration and appearance of the terminal device 同撮影オブジェクトの決定方法を説明する図The figure explaining the determination method of the photography object 同コンピュータシステムの概観図Overview of the computer system 同コンピュータシステムの内部構成を示す図The figure which shows the internal configuration of the computer system

Claims (12)

サーバ装置と端末装置とを具備する情報システムであって、
前記サーバ装置は、
オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、
前記端末装置から、当該端末装置の位置を示す位置情報と当該端末装置が向いている方向を示す方向情報とを有する端末情報を受信するサーバ受信部と、
前記端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されているまたは前記端末情報が有する視野角とを、前記オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、
前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、
前記撮影オブジェクト情報を、前記端末装置に送信するサーバ送信部とを具備し、
前記端末装置は、
当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、
映像を取得するカメラ部と、
前記カメラ部が取得した映像を出力するカメラ映像出力手段を具備する出力部と、
前記端末情報取得部が取得した端末情報を前記サーバ装置に送信する送信部と、
前記端末情報の送信に対応して、前記1以上の撮影オブジェクト情報を受信する受信部と、
前記受信部が受信した1以上の撮影オブジェクト情報が有する1以上の領域情報を含む出力情報を取得する出力情報取得部とを具備し、
前記出力部は、
前記出力部が出力している映像に重ねて、前記出力情報取得部が取得した1以上の出力情報に含まれる領域情報を出力する領域出力手段を具備し、
前記撮影オブジェクト情報決定部は、
前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する情報システム。
An information system comprising a server device and a terminal device,
The server device
An object information storage unit capable of storing one or more object information having an object identifier for identifying an object and area information indicating an area in which the object exists;
A server reception unit that receives terminal information including position information indicating the position of the terminal device and direction information indicating a direction in which the terminal device is facing from the terminal device;
Apply the position information that the terminal information has, the direction information that the terminal information has, and the viewing angle that is stored in advance or that the terminal information has to the area information of each object information in the object information storage unit, A shooting object determination unit that determines one or more objects that the terminal device is shooting;
A shooting object information acquisition unit that acquires, from the object information storage unit, one or more shooting object information including region information among one or more object information corresponding to each of the one or more objects determined by the shooting object determination unit; ,
A server transmission unit that transmits the shooting object information to the terminal device;
The terminal device
A terminal information acquisition unit that acquires terminal information having position information indicating the position of the terminal device and direction information indicating a direction in which the terminal device is facing;
A camera unit for acquiring images;
An output unit comprising camera video output means for outputting video acquired by the camera unit;
A transmission unit for transmitting the terminal information acquired by the terminal information acquisition unit to the server device;
In response to the transmission of the terminal information, a receiving unit that receives the one or more shooting object information;
An output information acquisition unit that acquires output information including one or more area information included in the one or more shooting object information received by the reception unit;
The output unit is
A region output unit that outputs region information included in the one or more pieces of output information acquired by the output information acquisition unit, overlaid on the video output by the output unit;
The shooting object information determination unit
The objects are inspected in order from the shortest distance from the terminal device, and information on an area that becomes invisible by photographing the object that has been determined as being photographed by the terminal device is registered as an invisible area, and the visible area disappears. An information system that terminates the inspection of whether or not the object is photographed by the terminal device.
前記領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、
前記撮影オブジェクト決定部は、
前記端末情報が有する位置情報および方向情報と、予め格納されているまたは前記端末情報が有する視野角とを用いて、三次元空間上での撮影領域を取得し、当該撮影領域を、前記オブジェクト情報格納部の各オブジェクト情報が有する領域情報に対して適用し、前記端末装置が撮影している1以上のオブジェクトを決定し、かつ、
前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する請求項1記載の情報システム。
The region information includes two-dimensional region information indicating a two-dimensional region on the map and height information indicating the height of the object,
The shooting object determination unit
Using the position information and direction information included in the terminal information and the viewing angle stored in advance or included in the terminal information, a shooting area in a three-dimensional space is acquired, and the shooting area is set as the object information. Applying to the region information of each object information of the storage unit, determining one or more objects photographed by the terminal device; and
The objects are inspected in order from the shortest distance from the terminal device, and information on an area that becomes invisible by photographing the object that has been determined as being photographed by the terminal device is registered as an invisible area, and the visible area disappears. 2. The information system according to claim 1, wherein the inspection of whether or not the object is photographed by the terminal device is terminated.
前記領域出力手段は、
前記出力情報取得部が取得した1以上の出力情報に含まれる領域情報に対応する大きさの領域を、他の領域と視覚的に区別可能なように、前記出力部が出力している映像に重ねて出力する請求項1または請求項2記載の情報システム。
The region output means includes
In the video output by the output unit, the region having a size corresponding to the region information included in the one or more pieces of output information acquired by the output information acquisition unit can be visually distinguished from other regions. The information system according to claim 1, wherein the information system is output in a superimposed manner.
前記サーバ装置は、
前記撮影オブジェクト決定部が決定した各オブジェクトと前記端末装置との距離を、前記各オブジェクトのオブジェクト情報と前記端末情報が有する位置情報とから、前記撮影オブジェクト決定部が決定したオブジェクトごとに算出する距離算出部をさらに具備し、
前記撮影オブジェクト情報取得部は、
前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む情報を前記オブジェクト情報格納部から取得し、当該領域情報を含む情報と前記距離算出部が算出した距離とを含む1以上の撮影オブジェクト情報を構成する請求項1または請求項2記載の情報システム。
The server device
A distance for calculating the distance between each object determined by the shooting object determination unit and the terminal device for each object determined by the shooting object determination unit from the object information of each object and the position information of the terminal information Further comprising a calculation unit;
The shooting object information acquisition unit
Of the one or more pieces of object information corresponding to the one or more objects determined by the shooting object determination unit, information including region information is acquired from the object information storage unit, and the information including the region information and the distance calculation unit The information system according to claim 1, wherein the information system includes one or more pieces of shooting object information including the distance calculated by.
前記出力情報取得部は、
前記受信部が受信した撮影オブジェクト情報が有する1以上の領域情報と1以上の距離とを含む出力情報を取得し、
前記出力部は、
前記出力情報取得部が取得した1以上の出力情報に含まれる距離を出力する距離出力手段をさらに具備する請求項4記載の情報システム。
The output information acquisition unit
Obtaining output information including one or more area information and one or more distances included in the shooting object information received by the receiving unit;
The output unit is
The information system according to claim 4, further comprising a distance output unit that outputs a distance included in the one or more pieces of output information acquired by the output information acquisition unit.
1以上のウェブサーバ装置をさらに具備し、
前記ウェブサーバ装置は、
オブジェクトに関する情報であるオブジェクト関連情報を格納し得るオブジェクト関連情報格納部と、
外部からの指示に応じて、オブジェクト関連情報を取得するオブジェクト関連情報取得部と、
前記オブジェクト関連情報を送信するオブジェクト関連情報送信部とを具備し、
前記端末装置は、
オブジェクト関連情報を受信するオブジェクト関連情報受信部をさらに具備し、
前記出力部は、
前記オブジェクト関連情報受信部が受信したオブジェクト関連情報を出力するオブジェクト関連情報出力手段をさらに具備する請求項1または請求項2記載の情報システム。
Further comprising one or more web server devices;
The web server device
An object-related information storage unit capable of storing object-related information that is information about the object;
An object-related information acquisition unit that acquires object-related information in response to an instruction from the outside;
An object related information transmitting unit for transmitting the object related information,
The terminal device
An object-related information receiving unit for receiving object-related information;
The output unit is
The information system according to claim 1, further comprising an object related information output unit that outputs the object related information received by the object related information receiving unit.
オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納し得るオブジェクト情報格納部と、
端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、
前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されている視野角とを、前記オブジェクト情報格納部の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、
前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記オブジェクト情報格納部から取得する撮影オブジェクト情報取得部と、
映像を取得するカメラ部と、
前記カメラ部が取得した映像を出力するカメラ映像出力手段と、前記映像に重ねて、前記1以上の撮影オブジェクト情報に含まれる領域情報を出力する領域出力手段とを具備する出力部とを具備し、
前記撮影オブジェクト情報決定部は、
前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する端末装置。
An object information storage unit capable of storing one or more object information having an object identifier for identifying an object and area information indicating an area in which the object exists;
A terminal information acquisition unit that acquires terminal information including position information indicating a position of the terminal device and direction information indicating a direction in which the terminal device is facing;
The position information included in the terminal information acquired by the terminal information acquisition unit, the direction information included in the terminal information, and the viewing angle stored in advance are applied to the area information of each object information in the object information storage unit. A shooting object determining unit that determines one or more objects that the terminal device is shooting;
A shooting object information acquisition unit that acquires, from the object information storage unit, one or more shooting object information including region information among one or more object information corresponding to each of the one or more objects determined by the shooting object determination unit; ,
A camera unit for acquiring images;
A camera video output unit that outputs video acquired by the camera unit; and an output unit that includes a region output unit that outputs the region information included in the one or more shooting object information so as to overlap the video. ,
The shooting object information determination unit
The objects are inspected in order from the shortest distance from the terminal device, and information on an area that becomes invisible by photographing the object that has been determined as being photographed by the terminal device is registered as an invisible area, and the visible area disappears. A terminal device that terminates the inspection of whether or not the object is photographed by the terminal device.
前記領域情報は、地図上での二次元の領域を示す二次元領域情報とオブジェクトの高さを示す高さ情報を有し、
前記撮影オブジェクト決定部は、
前記端末情報が有する位置情報および方向情報と、予め格納されている視野角とを用いて、三次元空間上での撮影領域を取得し、当該撮影領域を、前記オブジェクト情報格納部の各オブジェクト情報が有する領域情報に対して適用し、前記端末装置が撮影している1以上のオブジェクトを決定し、かつ、
前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する請求項7記載の端末装置。
The region information includes two-dimensional region information indicating a two-dimensional region on the map and height information indicating the height of the object,
The shooting object determination unit
Using the position information and direction information included in the terminal information and the viewing angle stored in advance, a shooting area in a three-dimensional space is acquired, and the shooting area is set as each object information in the object information storage unit. Applied to the area information that the terminal device has, determining one or more objects that the terminal device is photographing, and
The objects are inspected in order from the shortest distance from the terminal device, and information on an area that becomes invisible by photographing the object that has been determined as being photographed by the terminal device is registered as an invisible area, and the visible area disappears. The terminal device according to claim 7, wherein the inspection of whether or not the object is photographed by the terminal device is terminated.
請求項1から請求項6いずれか記載の情報システムを構成する端末装置。 The terminal device which comprises the information system in any one of Claims 1-6. 請求項1から請求項6いずれか記載の情報システムを構成するサーバ装置。 The server apparatus which comprises the information system in any one of Claims 1-6. 記録媒体に、
オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納しており、
端末情報取得部、撮影オブジェクト決定部、撮影オブジェクト情報取得部、カメラ部、および出力部により実現される情報処理方法であって、
前記端末情報取得部により、当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得ステップと、
前記撮影オブジェクト決定部により、前記端末情報取得ステップで取得された端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されているまたは前記端末情報が有する視野角とを、前記記録媒体の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定ステップと、
前記撮影オブジェクト情報取得部により、前記撮影オブジェクト決定ステップで決定された1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記記録媒体から取得する撮影オブジェクト情報取得部と、
前記カメラ部により、映像を取得するカメラステップと、
前記出力部により、前記カメラステップで取得された映像を出力し、前記映像に重ねて、前記1以上の撮影オブジェクト情報に含まれる領域情報を出力する出力テップとを具備し、
前記撮影オブジェクト情報決定ステップにおいて、
前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了する情報処理方法。
On the recording medium,
Storing one or more object information having an object identifier for identifying an object and area information indicating an area in which the object exists;
An information processing method realized by a terminal information acquisition unit, a shooting object determination unit, a shooting object information acquisition unit, a camera unit, and an output unit,
A terminal information acquisition step of acquiring terminal information having position information indicating a position of the terminal device and direction information indicating a direction in which the terminal device is facing;
The position information included in the terminal information acquired in the terminal information acquisition step, the direction information included in the terminal information, and the viewing angle stored in advance or included in the terminal information by the shooting object determination unit, A shooting object determining step that applies to area information of each object information of the recording medium and determines one or more objects being shot by the terminal device;
The shooting object information acquisition unit acquires, from the recording medium, one or more shooting object information including area information among one or more object information corresponding to one or more objects determined in the shooting object determination step. A shooting object information acquisition unit,
A camera step of acquiring video by the camera unit;
An output step for outputting the video acquired in the camera step by the output unit, and outputting region information included in the one or more shooting object information on the video;
In the shooting object information determination step,
The objects are inspected in order from the shortest distance from the terminal device, and information on an area that becomes invisible by photographing the object that has been determined as being photographed by the terminal device is registered as an invisible area, and the visible area disappears. An information processing method for ending inspection of whether or not an object is photographed by the terminal device.
記録媒体に、
オブジェクトを識別するオブジェクト識別子と、当該オブジェクトが存在する領域を示す領域情報とを有するオブジェクト情報を、1以上格納しており、
コンピュータを、
当該端末装置の位置を示す位置情報と、当該端末装置が向いている方向を示す方向情報とを有する端末情報を取得する端末情報取得部と、
前記端末情報取得部が取得した端末情報が有する位置情報と、前記端末情報が有する方向情報と、予め格納されているまたは前記端末情報が有する視野角とを、前記記録媒体の各オブジェクト情報の領域情報に適用し、前記端末装置が撮影している1以上のオブジェクトを決定する撮影オブジェクト決定部と、
前記撮影オブジェクト決定部が決定した1以上の各オブジェクトに対応する1以上のオブジェクト情報のうち、領域情報を含む1以上の撮影オブジェクト情報を、前記記録媒体から取得する撮影オブジェクト情報取得部と、
映像を取得するカメラ部と、
前記カメラ部が取得した映像を出力し、前記映像に重ねて、前記1以上の撮影オブジェクト情報に含まれる領域情報を出力する出力部として機能させるためのプログラムであり、
前記撮影オブジェクト情報決定部を、
前記端末装置からの距離が近い順にオブジェクトを検査し、前記端末装置が撮影しているとして先に決定したオブジェクトの撮影により不可視となる領域の情報を不可視領域として登録していき、可視領域がなくなった場合に、オブジェクトが前記端末装置に撮影されているか否かの検査を終了するものとして機能させるためのプログラム。
On the recording medium,
Storing one or more object information having an object identifier for identifying an object and area information indicating an area in which the object exists;
Computer
A terminal information acquisition unit that acquires terminal information having position information indicating the position of the terminal device and direction information indicating a direction in which the terminal device is facing;
The location information of the terminal information acquired by the terminal information acquisition unit, the direction information of the terminal information, and the viewing angle stored in advance or included in the terminal information are stored in each object information area of the recording medium. A shooting object determination unit that applies to information and determines one or more objects that the terminal device is shooting;
A shooting object information acquisition unit that acquires, from the recording medium, one or more shooting object information including region information among one or more object information corresponding to each of the one or more objects determined by the shooting object determination unit;
A camera unit for acquiring images;
A program for outputting a video acquired by the camera unit and superimposing on the video to function as an output unit that outputs area information included in the one or more shooting object information,
The shooting object information determination unit;
The objects are inspected in order from the shortest distance from the terminal device, and information on an area that becomes invisible by photographing the object that has been determined as being photographed by the terminal device is registered as an invisible area, and the visible area disappears. A program for causing the terminal device to function as a test to end whether or not the object is photographed by the terminal device.
JP2011519730A 2009-06-22 2010-06-07 Information system, server device, terminal device, information processing method, and program Active JP5357966B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011519730A JP5357966B2 (en) 2009-06-22 2010-06-07 Information system, server device, terminal device, information processing method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009147307 2009-06-22
JP2009147307 2009-06-22
PCT/JP2010/059600 WO2010150643A1 (en) 2009-06-22 2010-06-07 Information system, server device, terminal device, information-processing method, and program
JP2011519730A JP5357966B2 (en) 2009-06-22 2010-06-07 Information system, server device, terminal device, information processing method, and program

Publications (2)

Publication Number Publication Date
JPWO2010150643A1 JPWO2010150643A1 (en) 2012-12-10
JP5357966B2 true JP5357966B2 (en) 2013-12-04

Family

ID=43386415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011519730A Active JP5357966B2 (en) 2009-06-22 2010-06-07 Information system, server device, terminal device, information processing method, and program

Country Status (2)

Country Link
JP (1) JP5357966B2 (en)
WO (1) WO2010150643A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5629178B2 (en) * 2010-10-19 2014-11-19 株式会社 ミックウェア GAME TERMINAL DEVICE, SERVER DEVICE, AND PROGRAM
US9491368B2 (en) 2012-07-24 2016-11-08 Nec Corporation Information obtaining and viewing device, data processing method thereof, and non-transitory computer readable medium storing a program
JP6145563B2 (en) * 2014-02-18 2017-06-14 日立マクセル株式会社 Information display device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169164A (en) * 1999-12-08 2001-06-22 Casio Comput Co Ltd Camera device, image reproducing device, and method for acquiring subject name in camera device
JP2002175315A (en) * 2000-09-28 2002-06-21 Nikon Corp Image annotation server, method for image annotation service, image collation device, electronic camera, telephoto optical equipment, and recording medium
JP2003296329A (en) * 2002-03-29 2003-10-17 Seiko Epson Corp Information providing device, information providing method and information processing program
JP2006020166A (en) * 2004-07-02 2006-01-19 Fuji Photo Film Co Ltd Map display system and digital camera
JP2008160631A (en) * 2006-12-26 2008-07-10 Funai Electric Co Ltd Portable device
JP2009122188A (en) * 2007-11-12 2009-06-04 Sharp Corp Imaging apparatus, map information displaying method, map displaying program, and computer-readable medium with map display program recorded thereon
JP2009135597A (en) * 2007-11-28 2009-06-18 Nikon Corp Electronic camera, information processing apparatus, and information processing method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169164A (en) * 1999-12-08 2001-06-22 Casio Comput Co Ltd Camera device, image reproducing device, and method for acquiring subject name in camera device
JP2002175315A (en) * 2000-09-28 2002-06-21 Nikon Corp Image annotation server, method for image annotation service, image collation device, electronic camera, telephoto optical equipment, and recording medium
JP2003296329A (en) * 2002-03-29 2003-10-17 Seiko Epson Corp Information providing device, information providing method and information processing program
JP2006020166A (en) * 2004-07-02 2006-01-19 Fuji Photo Film Co Ltd Map display system and digital camera
JP2008160631A (en) * 2006-12-26 2008-07-10 Funai Electric Co Ltd Portable device
JP2009122188A (en) * 2007-11-12 2009-06-04 Sharp Corp Imaging apparatus, map information displaying method, map displaying program, and computer-readable medium with map display program recorded thereon
JP2009135597A (en) * 2007-11-28 2009-06-18 Nikon Corp Electronic camera, information processing apparatus, and information processing method and program

Also Published As

Publication number Publication date
WO2010150643A1 (en) 2010-12-29
JPWO2010150643A1 (en) 2012-12-10

Similar Documents

Publication Publication Date Title
US9661468B2 (en) System and method for converting gestures into digital graffiti
US8769442B2 (en) System and method for allocating digital graffiti objects and canvasses
JP6635037B2 (en) Information processing apparatus, information processing method, and program
CN102388406B (en) Portable electronic device recording is used to produce three-dimensional model
KR100985737B1 (en) Method, terminal device and computer-readable recording medium for providing information on an object included in visual field of the terminal device
KR102021050B1 (en) Method for providing navigation information, machine-readable storage medium, mobile terminal and server
US8700301B2 (en) Mobile computing devices, architecture and user interfaces based on dynamic direction information
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
WO2016017254A1 (en) Information processing device, information processing method, and program
US9583074B2 (en) Optimization of label placements in street level images
JP2017536527A (en) Providing in-navigation search results that reduce route disruption
JP2011527004A (en) Mobile imaging device as navigator
EP2253130A1 (en) Device, method, and system for displaying data recorded with associated position and direction information
JP5780417B2 (en) In-vehicle system
JP5357966B2 (en) Information system, server device, terminal device, information processing method, and program
Simon et al. Towards orientation-aware location based mobile services
JP5705793B2 (en) Augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program
JP5578719B2 (en) Information system, terminal device, advertisement output method, and program
JP2009036726A (en) Method and system for displaying search path
JP5674418B2 (en) Terminal device, server device, and program
JP5584581B2 (en) Information system, terminal device, server device, and Web page search method
KR101802086B1 (en) Augmented/Virtual Reality Service Providing Method Using Multiple Devices and System Therefor
JP5612456B2 (en) Server device, first terminal device, second terminal device, information processing method, and program
JP5629178B2 (en) GAME TERMINAL DEVICE, SERVER DEVICE, AND PROGRAM

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130830

R150 Certificate of patent or registration of utility model

Ref document number: 5357966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250