[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017188715A - Video display system and video display method - Google Patents

Video display system and video display method Download PDF

Info

Publication number
JP2017188715A
JP2017188715A JP2016074101A JP2016074101A JP2017188715A JP 2017188715 A JP2017188715 A JP 2017188715A JP 2016074101 A JP2016074101 A JP 2016074101A JP 2016074101 A JP2016074101 A JP 2016074101A JP 2017188715 A JP2017188715 A JP 2017188715A
Authority
JP
Japan
Prior art keywords
audience
spectator
seat
detection unit
game field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016074101A
Other languages
Japanese (ja)
Inventor
翔太 板垣
Shota Itagaki
翔太 板垣
中村 一夫
Kazuo Nakamura
一夫 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Frontech Ltd filed Critical Fujitsu Frontech Ltd
Priority to JP2016074101A priority Critical patent/JP2017188715A/en
Publication of JP2017188715A publication Critical patent/JP2017188715A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect a visual observation object of a spectator.SOLUTION: A visual observation object detection unit 11 analyzes face picture information on a spectator 3 imaged by a second imaging device 40 to detect visual observation direction 3e of the spectator 3. A position detection device 50, on the basis of position information on a seat inside a spectator seat area 2, detects viewpoint position information on the spectator 3. The visual observation object detection unit 11, on the basis of viewpoint position information on the spectator 3, visual observation direction 3e of the spectator 3, and position information on a playing field 1a and playing field 1b, detects a visual observation object area to be visually observed by the spectator 3. A display control unit 12, when the visual observation object area is overlapped with the playing field 1a, outputs a video signal of a first imaging device 31 for imaging the playing field 1a to a display unit 13. When the visual observation object area is overlapped with the playing field 1b, the display control unit outputs a video signal of a first imaging device 32 for imaging the playing field 1b to the display unit 13.SELECTED DRAWING: Figure 1

Description

本発明は、映像表示システム及び映像表示方法に関する。   The present invention relates to a video display system and a video display method.

近年、スポーツの競技会場など観客が集まる場所に、競技の様子を大画面映像に表示する映像表示装置が設置されていることがある。このような大画面映像に表示する表示対象は、例えば、撮影を行うカメラマンや、予め映像表示装置に登録された指示によって適宜選択されていた。このような映像表示装置には、表示画面を分割し、複数の撮像装置が撮影した画像を表示するものもある。   2. Description of the Related Art In recent years, video display devices that display a state of competition on a large screen image are sometimes installed in places where spectators gather such as sports competition venues. The display target to be displayed on such a large screen image is appropriately selected according to, for example, a cameraman who performs shooting or an instruction registered in advance in the image display device. Some of such video display devices divide a display screen and display images taken by a plurality of imaging devices.

しかしながら、従来の映像表示装置では、カメラマンなどが大画面映像の表示対象を選択していたため、観客の多くが見たい対象が大画面に表示されない場合があった。
そこで、観客が注目している対象を検出し、検出した対象を大画面映像に表示する技術が提案されている。例えば、複数の表示対象を分割表示画面に表示し、分割表示画面を見ている観客を撮影する撮像装置を設けておく映像表示システムがある。撮像装置が観客を撮影した撮像画像に基づいて観客の目視方向を検出し、分割表示画面のうち観客の興味が集まっている画面を主画面で表示する。また、スポーツの試合を観戦する複数の観客に視線入力装置を装着してもらい、検出された観客の視線を統計処理した結果に基づいて、多くの観客の興味が集まっている画像の切り出しを行う映像切り出し制御装置がある。視線入力装置は、観客が見ている視線位置を検出する。また、視線の検出の際に、対象者の瞳孔の大きさを検出し、対象者の心理状態を検出する技術がある。
However, in the conventional video display device, since a cameraman or the like has selected a display target of a large screen video, there is a case where a target that many spectators want to see is not displayed on the large screen.
In view of this, a technique has been proposed in which an object focused by the audience is detected and the detected object is displayed on a large screen image. For example, there is a video display system in which a plurality of display objects are displayed on a split display screen, and an imaging device for capturing a spectator who is watching the split display screen is provided. The imaging device detects the viewing direction of the audience based on the captured image obtained by capturing the audience, and displays the screen on which the audience's interest is gathered among the divided display screens on the main screen. In addition, a plurality of spectators who watch sports matches are equipped with gaze input devices, and based on the result of statistical processing of the detected gaze of the spectators, an image in which many spectators are interested is cut out There is a video cutout control device. The line-of-sight input device detects a line-of-sight position viewed by the audience. Further, there is a technique for detecting the size of the pupil of the subject and detecting the psychological state of the subject when detecting the line of sight.

特開2011−146048号公報JP 2011-146048 A 特開2003−125286号公報JP 2003-125286 A 特開2008−3816号公報Japanese Patent Laid-Open No. 2008-3816

対象者が映像表示装置など、目視対象の近傍で画面を目視している場合と異なり、スポーツの競技会場となる体育館や競技場などでは、観客は、目視する対象領域から離れた広い範囲にいる。このため、同じ目視対象であっても、観客の位置によって検出される目視方向が異なってしまう。したがって、単に目視方向を検出するだけでは、観客が見ている対象物を特定することはできない。観客が視線入力装置を装着すれば、観客の視線位置の検出が可能であるが、視線入力装置を装着して試合を観戦するのは煩わしく、多大な費用もかかることから現実的ではない。   Unlike when the subject is viewing the screen in the vicinity of the visual target, such as a video display device, in a gymnasium or stadium, which is a sports competition venue, the audience is in a wide range away from the target area to be viewed. . For this reason, even if it is the same visual object, the visual direction detected by the position of an audience will differ. Therefore, it is not possible to specify the object that the audience is looking at simply by detecting the viewing direction. If the spectator wears a gaze input device, the gaze position of the spectator can be detected, but it is not realistic to wear the gaze input device and watch the game because it is expensive.

このように、スポーツの競技会場のように、対象領域を多方向から目視する観客がいる場所において、観客の目視対象を検出することは容易ではない。
1つの側面では、本発明は、観客の目視対象を検出し、映像を表示することが可能な映像表示システム及び映像表示方法を提供することにある。
As described above, it is not easy to detect the visual target of the spectator in a place where there is a spectator who views the target region from multiple directions as in a sports venue.
In one aspect, the present invention provides a video display system and a video display method capable of detecting a visual target of a spectator and displaying a video.

1つの態様では、複数の第1撮像装置と、第2撮像装置と、位置検出装置と、映像表示装置と、を有する映像表示システムが提供される。第1撮像装置は、複数の対象領域それぞれに配置され、配置された対象領域を撮影する。第2撮像装置は、複数の対象領域を観覧する観客の顔画像を撮影する。位置検出装置は、観客の視点位置を検出する。映像表示装置は、目視対象検出部と表示制御部を有する。目視対象検出部は、観客の顔画像に基づいて当該観客の目視方向を検出し、観客の目視方向と、位置検出装置が検出した当該観客の視点位置情報と、複数の対象領域の位置情報に基づき、複数の対象領域のうち当該観客が目視している目視対象領域を検出する。表示制御部は、複数の第1撮像装置のうち、目視対象領域に対応する第1撮像装置の撮影した映像を表示部に表示する。   In one aspect, a video display system including a plurality of first imaging devices, a second imaging device, a position detection device, and a video display device is provided. A 1st imaging device is arrange | positioned at each of several target area | region, and image | photographs the arrange | positioned target area | region. The second imaging device captures a face image of a spectator who views a plurality of target areas. The position detection device detects the viewpoint position of the audience. The video display device includes a visual object detection unit and a display control unit. The visual target detection unit detects the viewing direction of the spectator based on the spectator's face image, and the sighting direction of the spectator, the viewpoint position information of the spectator detected by the position detection device, and the positional information of the plurality of target regions. Based on the plurality of target areas, a visual target area that the audience is viewing is detected. The display control unit displays, on the display unit, an image captured by the first imaging device corresponding to the viewing target region among the plurality of first imaging devices.

また、1つの態様では、コンピュータが実行する映像表示方法が提供される。   In one aspect, a video display method executed by a computer is provided.

1つの態様によれば、観客が対象領域を多方向から目視する場所において、観客が目視する目視対象領域を検出し、目視対象領域を撮影した映像を表示することができる。   According to one aspect, in the place where the audience views the target area from multiple directions, the visual target area viewed by the audience can be detected and an image obtained by photographing the visible area can be displayed.

第1の実施の形態の映像表示システムの構成を示す図である。It is a figure which shows the structure of the video display system of 1st Embodiment. 第2の実施の形態の映像表示システムの構成を示す図である。It is a figure which shows the structure of the video display system of 2nd Embodiment. 画像解析装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of an image analysis apparatus. 第2の実施の形態の映像表示システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the video display system of 2nd Embodiment. 試合会場情報の一例を示す図である。It is a figure which shows an example of game hall information. 観客情報の一例を示す図である。It is a figure which shows an example of audience information. 観客目視対象検出処理の概略を示す図である。It is a figure which shows the outline of an audience visual object detection process. 観客目視対象検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an audience visual object detection process. 目視対象領域検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a visual object area | region detection process. 前兆動作検出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a precursor operation | movement detection process. 注目度算出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an attention degree calculation process. 第3の実施の形態の映像表示システムの構成を示す図である。It is a figure which shows the structure of the video display system of 3rd Embodiment. 第3の実施の形態の映像表示システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the video display system of 3rd Embodiment. 第4の実施の形態の映像表示システムの分割表示画面の一例を示す図である。It is a figure which shows an example of the division | segmentation display screen of the video display system of 4th Embodiment.

以下、本発明の実施の形態について図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の映像表示システムの構成を示す図である。第1の実施の形態の映像表示システムは、観客が観覧する対象領域が複数ある会場に設置される。例えば、複数の試合場が設置されるスポーツの競技会場などである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration of a video display system according to the first embodiment. The video display system according to the first embodiment is installed in a venue where there are a plurality of target areas to be viewed by a spectator. For example, a sports venue where a plurality of game venues are installed.

図1の例では、映像表示システムは、試合場1の周囲に観客席領域2が設けられた会場に設置される。試合場1は、試合場1a及び試合場1bの2つの対象領域を備える。試合場1の周囲の観客席領域2には、観客3が着席している。観客3は、試合場1aまたは試合場1bで行われている試合を観覧する。観客3が目視する対象領域は、観客3の興味に応じて変化する。以下、観客3が目視している対象領域を目視対象領域とする。   In the example of FIG. 1, the video display system is installed in a venue where a spectator seat area 2 is provided around the game field 1. The game field 1 includes two target areas, a game field 1a and a game field 1b. A spectator 3 is seated in a spectator seat area 2 around the game field 1. The spectator 3 views the game being played on the game field 1a or the game field 1b. The target area viewed by the spectator 3 changes according to the interest of the spectator 3. Hereinafter, the target area that the spectator 3 is viewing is referred to as a visual target area.

映像表示システムは、映像表示装置10と、第1撮像装置31,32と、第2撮像装置40と、位置検出装置50と、を有する。
第1撮像装置31,32は、それぞれ対象領域に配置され、配置された対象領域を撮影し、撮影した映像信号を映像表示装置10に出力する。
The video display system includes a video display device 10, first imaging devices 31 and 32, a second imaging device 40, and a position detection device 50.
The first imaging devices 31 and 32 are respectively arranged in the target area, take pictures of the arranged target areas, and output the taken video signals to the video display apparatus 10.

第2撮像装置40は、観客席領域2内に着席する観客3を撮影する。第2撮像装置40は、観客3を撮影し、撮影した観客3の顔画像情報を映像表示装置10に出力する。
位置検出装置50は、観客3の視点位置を検出し、検出した視点位置情報を映像表示装置10に出力する。位置検出装置50は、例えば、上方から観客席領域2を撮像し、画像を解析して人が着席しているか否かを検出する。また、観客席ごとに設けられ、人が着席したか否かを検出するセンサであってもよい。位置検出装置50は、観客席ごとに予め定義された位置座標に基づき、着席した観客の視点位置情報を生成する。
The second imaging device 40 images the spectator 3 seated in the spectator seat area 2. The second imaging device 40 captures the audience 3 and outputs face image information of the captured audience 3 to the video display device 10.
The position detection device 50 detects the viewpoint position of the spectator 3 and outputs the detected viewpoint position information to the video display device 10. For example, the position detection device 50 images the spectator seat area 2 from above and analyzes the image to detect whether a person is seated. Alternatively, it may be a sensor that is provided for each spectator seat and detects whether a person is seated. The position detection device 50 generates the viewpoint position information of the seated audience based on the position coordinates defined in advance for each audience seat.

映像表示装置10は、目視対象検出部11、表示制御部12及び表示部13を有し、第1撮像装置31,32から映像信号を取得し、表示部13のモニタ画面13aに試合場1aまたは試合場1bの映像を表示する。目視対象検出部11及び表示制御部12は、例えば、CPU(Central Processing Unit)などのプロセッサである。ただし、目視対象検出部11及び表示制御部12は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの特定用途の電子回路を含んでもよい。なお、映像表示装置10は、複数の装置から構成されていてもよい。   The video display device 10 includes a visual target detection unit 11, a display control unit 12, and a display unit 13, acquires video signals from the first imaging devices 31 and 32, and displays the game field 1 a or the game field 1 a on the monitor screen 13 a of the display unit 13. The video of the game field 1b is displayed. The visual target detection unit 11 and the display control unit 12 are, for example, a processor such as a CPU (Central Processing Unit). However, the visual target detection unit 11 and the display control unit 12 may include an electronic circuit for a specific application such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). Note that the video display device 10 may be composed of a plurality of devices.

目視対象検出部11は、第2撮像装置40から取得した観客3の顔画像情報を解析し、観客3の目視方向を検出する。なお、目視方向は、基準方向、例えば、観客3の正面方向に対し、観客3がどちらの方向を向いているかを示すものである。目視対象検出部11は、検出した観客3の目視方向と、位置検出装置50から取得した観客3の視点位置情報と、試合場1a及び試合場1bの位置情報と、に基づき、観客3が目視している目視対象領域を検出する。複数の観客3それぞれについて同様の処理を行い、目視対象領域を検出する。   The visual object detection unit 11 analyzes the face image information of the audience 3 acquired from the second imaging device 40 and detects the viewing direction of the audience 3. The viewing direction indicates which direction the audience 3 is facing with respect to a reference direction, for example, the front direction of the audience 3. The visual object detection unit 11 allows the spectator 3 to visually check based on the detected viewing direction of the spectator 3, the viewpoint position information of the spectator 3 acquired from the position detection device 50, and the positional information of the game field 1a and the game field 1b. Detecting the visual target area. The same processing is performed for each of the plurality of spectators 3 to detect the visual target area.

表示制御部12は、目視対象検出部11が検出した観客3の目視対象領域に基づき、表示部13に映像を表示する対象領域を決定する。表示制御部12は、観客3が複数であるときは、統計処理を行って表示を行う対象領域を決定する。例えば、対象領域ごとに目視している観客数を集計し、最も観客数の多い対象領域を選択する。表示制御部12は、選択した対象領域に対応する第1撮像装置31,32の撮影した映像信号を表示部13に出力する。   The display control unit 12 determines a target region for displaying an image on the display unit 13 based on the visual target region of the spectator 3 detected by the visual target detection unit 11. When there are a plurality of spectators 3, the display control unit 12 performs a statistical process to determine a target area to be displayed. For example, the number of spectators visually observed for each target area is totaled, and the target area with the largest number of spectators is selected. The display control unit 12 outputs video signals captured by the first imaging devices 31 and 32 corresponding to the selected target area to the display unit 13.

表示部13は、モニタ画面13aを有し、表示制御部12から取得した映像信号に基づいて、試合場1aまたは試合場1bの映像を表示する。
このような構成の映像表示システムの動作について、図1に示す例を用いて説明する。
The display unit 13 has a monitor screen 13a and displays an image of the game field 1a or the game field 1b based on the video signal acquired from the display control unit 12.
The operation of the video display system having such a configuration will be described using the example shown in FIG.

試合場1は、試合場1aと試合場1bを有し、試合場1aには第1撮像装置31、試合場1bには第1撮像装置32が配置されている。観客3は、観客席領域2内に着席し、試合場1aまたは試合場1bで行われる競技を見ている。観客席領域2内または観客席領域2の近傍には、観客3を撮影する第2撮像装置40と、観客3の位置を検出する位置検出装置50が配置されている。   The game field 1 has a game field 1a and a game field 1b. A first image pickup device 31 is arranged in the game field 1a, and a first image pickup device 32 is arranged in the game field 1b. The spectator 3 is seated in the spectator seat area 2 and is watching a competition that takes place in the game field 1a or the game field 1b. In the audience seat area 2 or in the vicinity of the audience seat area 2, a second imaging device 40 that photographs the audience 3 and a position detection device 50 that detects the position of the audience 3 are arranged.

第1撮像装置31は、試合場1aを撮影した映像信号を映像表示装置10に出力する。第1撮像装置32は、試合場1bを撮影した映像信号を映像表示装置10に出力する。第2撮像装置40は、観客3を撮影した顔画像を映像表示装置10に出力する。位置検出装置50は、観客3が着席している席の位置を検出し、検出した観客の視点位置情報を映像表示装置10に出力する。   The first imaging device 31 outputs a video signal obtained by shooting the game field 1 a to the video display device 10. The 1st imaging device 32 outputs the video signal which image | photographed the game field 1b to the video display apparatus 10. FIG. The second imaging device 40 outputs a face image obtained by photographing the audience 3 to the video display device 10. The position detection device 50 detects the position of the seat where the spectator 3 is seated, and outputs the detected viewpoint position information of the spectator to the video display device 10.

映像表示装置10では、目視対象検出部11が、観客3の目視対象領域を検出し、表示制御部12がモニタ画面13aに表示する対象領域を決定する処理を所定の周期で実行する。   In the video display device 10, the visual target detection unit 11 detects the visual target region of the spectator 3, and the display control unit 12 executes a process of determining the target region to be displayed on the monitor screen 13a at a predetermined cycle.

目視対象検出部11は、観客3の顔画像情報に基づいて、観客3の顔の方向と眼球の方向を検出し、観客3の目視方向3eを検出する。目視方向は、例えば、観客3が着席して正面を見たときの状態を基準とし、基準からの角度で表す。なお、観客3と第2撮像装置40との位置関係によっては、観客3の顔画像を正面からとらえることができない。目視対象検出部11は、両者の位置関係に基づいて顔の方向や眼球の方向を補正し、目視方向3eを求める。目視対象検出部11は、検出した観客3の目視方向3eと、観客3の視点位置情報と、試合場1a及び試合場1bの位置情報とに基づき、観客3の目視対象領域を検出する。図1の例では、観客3の目視方向3eの先にある試合場を検出する。ここでは、目視対象検出部11は、観客3の目視対象領域は試合場1aであると判定する。目視対象検出部11は、検出した観客3の目視対象領域を表示制御部12に出力する。   The visual object detection unit 11 detects the visual direction 3e of the audience 3 by detecting the direction of the face of the audience 3 and the direction of the eyeball based on the face image information of the audience 3. The viewing direction is represented by an angle from the reference, for example, based on the state when the spectator 3 is seated and looks at the front. Note that depending on the positional relationship between the audience 3 and the second imaging device 40, the face image of the audience 3 cannot be captured from the front. The visual object detection unit 11 corrects the direction of the face and the direction of the eyeball based on the positional relationship between them to obtain the visual direction 3e. The visual target detection unit 11 detects the visual target area of the spectator 3 based on the detected visual direction 3e of the spectator 3, the viewpoint position information of the spectator 3, and the positional information of the game field 1a and the game field 1b. In the example of FIG. 1, the game field ahead of the viewing direction 3e of the spectator 3 is detected. Here, the visual target detection unit 11 determines that the visual target area of the spectator 3 is the game field 1a. The visual target detection unit 11 outputs the detected visual target region of the spectator 3 to the display control unit 12.

表示制御部12は、観客3の目視対象領域に基づいて、目視対象領域を撮影する第1撮像装置31の映像信号を選択し、表示部13に出力する。複数の観客の目視対象領域を検出したときは、統計処理を行って表示部13に出力する目視対象領域を決定する。例えば、最も多くの観客が目視している目視対象領域を選択する。表示部13は、入力した映像信号に基づく映像をモニタ画面13aに表示する。図1の例では、表示部13は、モニタ画面13aに試合場A(1a)の映像を表示する。   The display control unit 12 selects a video signal of the first imaging device 31 that captures the visual target area based on the visual target area of the spectator 3 and outputs the video signal to the display unit 13. When the viewing target areas of a plurality of spectators are detected, statistical processing is performed to determine the viewing target area to be output to the display unit 13. For example, a viewing target region that is viewed by the largest number of spectators is selected. The display unit 13 displays a video based on the input video signal on the monitor screen 13a. In the example of FIG. 1, the display unit 13 displays an image of the game field A (1a) on the monitor screen 13a.

これにより、観客3が試合場1aを目視しているときは、モニタ画面13aに試合場1aの映像が表示される。また、観客3が試合場1bを目視しているときは、モニタ画面13aの表示が試合場1bの映像に切り換わる。観客3が複数人のときは、観客ごとに検出した目視対象領域について統計処理が行われ、例えば、最も多くの観客3が目視している対象領域を撮影する第1撮像装置31,32の映像信号が選択されてモニタ画面13aに表示される。   Thereby, when the spectator 3 is viewing the game field 1a, the video of the game field 1a is displayed on the monitor screen 13a. Further, when the spectator 3 is viewing the game field 1b, the display on the monitor screen 13a is switched to the video image of the game field 1b. When there are a plurality of spectators 3, statistical processing is performed on the viewing target areas detected for each spectator. For example, the images of the first imaging devices 31 and 32 that capture the target areas viewed by the largest number of spectators 3. The signal is selected and displayed on the monitor screen 13a.

第1の実施の形態の映像表示システムでは、観客の位置と目視方向を検出し、観客が見ている目視対象領域を検出する。観客ごとに目視対象領域を検出し、検出した目視対象領域に基づいてモニタ画面13aに表示する対象領域を決定しているので、多くの観客が興味を持つ対象領域の映像をモニタ画面13aに表示することができる。   In the video display system according to the first embodiment, the position and viewing direction of the spectator are detected, and the visual target area that the spectator is looking at is detected. Since the visual target area is detected for each spectator and the target area to be displayed on the monitor screen 13a is determined based on the detected visual target area, a video of the target area in which many spectators are interested is displayed on the monitor screen 13a. can do.

[第2の実施の形態]
次に、第2の実施の形態を説明する。
図2は、第2の実施の形態の映像表示システムの構成を示す図である。第2の実施の形態の映像表示システムは、競技を同時に行うことが可能な第1試合場101、第2試合場102、第3試合場103及び第4試合場104を有し、その周囲に観客席120が形成される競技会場に適用される。例えば、柔道や剣道、体操などの競技会場である。観客席120は、予め決められた位置に配置されている。観客130は、観客席120に着席し、第1試合場101、第2試合場102、第3試合場103及び第4試合場104で行われている試合のうち、興味のある試合を観戦する。
[Second Embodiment]
Next, a second embodiment will be described.
FIG. 2 is a diagram illustrating a configuration of a video display system according to the second embodiment. The video display system according to the second embodiment includes a first game field 101, a second game field 102, a third game field 103, and a fourth game field 104 that can be played simultaneously. It is applied to the competition venue where the spectator seat 120 is formed. For example, there are competition venues such as judo, kendo, and gymnastics. The spectator seat 120 is arranged at a predetermined position. The spectator 130 sits on the spectator seat 120 and watches a game of interest among the games played in the first game field 101, the second game field 102, the third game field 103, and the fourth game field 104. .

映像表示システムは、試合用カメラ211,212,213,214と、客席カメラ221,222と、天井カメラ231,232と、画像解析装置300と、出力映像作成装置400と、モニタ装置500とを有し、それぞれの装置はネットワークを介して接続されている。画像解析装置300と出力映像作成装置400は、例えば、コンピュータである。   The video display system includes game cameras 211, 212, 213, 214, passenger seat cameras 221, 222, ceiling cameras 231, 232, an image analysis device 300, an output video creation device 400, and a monitor device 500. Each device is connected via a network. The image analysis device 300 and the output video creation device 400 are, for example, computers.

試合用カメラ211は第1試合場101、試合用カメラ212は第2試合場102、試合用カメラ213は第3試合場103、試合用カメラ214は第4試合場104にそれぞれ配置される。試合用カメラ211,212,213,214は、配置された試合場を撮影し、その映像信号を出力映像作成装置400に送信する。試合用カメラ211,212,213,214は、第1の実施の形態の第1撮像装置31,32の一例である。   The game camera 211 is arranged in the first game field 101, the game camera 212 is arranged in the second game field 102, the game camera 213 is arranged in the third game field 103, and the game camera 214 is arranged in the fourth game field 104, respectively. The game cameras 211, 212, 213, and 214 capture the arranged game field and transmit the video signal to the output video creation device 400. The game cameras 211, 212, 213, and 214 are examples of the first imaging devices 31 and 32 of the first embodiment.

客席カメラ221,222は、観客席120に着席する観客130の顔画像を撮影し、その顔画像データを画像解析装置300に送信する。客席カメラ221,222は、例えば、全ての観客130を撮影可能に配置されてもよいし、サンプルとして一部の観客130を撮影可能に配置されるとしてもよい。客席カメラ221,222は、所定の周期で予め決められた範囲の観客130を撮影する。客席カメラ221,222は、第1の実施の形態の第2撮像装置40の一例である。なお、2台の客席カメラ221,222の配置は一例であり、何台配置するかは適宜決定される。   The passenger seat cameras 221 and 222 capture the face image of the spectator 130 seated on the spectator seat 120 and transmit the face image data to the image analysis apparatus 300. For example, the audience cameras 221 and 222 may be arranged so that all the spectators 130 can be photographed, or some spectators 130 may be arranged as a sample so as to be photographed. The audience cameras 221 and 222 photograph the audience 130 in a predetermined range at a predetermined cycle. The passenger seat cameras 221 and 222 are an example of the second imaging device 40 of the first embodiment. The arrangement of the two passenger seat cameras 221 and 222 is an example, and the number of the cameras to be arranged is determined as appropriate.

天井カメラ231,232は、観客席120を上方から撮影し、その客席画像データを画像解析装置300に送信する。全範囲の観客席120が撮影可能となるように、所定の台数の天井カメラが所定の場所に配置される。なお、一部の観客席120をサンプルとして撮影する場合、客席カメラ221,222が撮影する領域と同じ領域を撮影範囲とするように天井カメラ231,232が配置される。天井カメラ231,232は、所定の周期で予め決められた範囲の観客席120を撮影する。天井カメラ231,232は、第1の実施の形態の位置検出装置50の一例である。なお、2台の天井カメラ231,232の配置は一例であり、何台配置するかは適宜決定される。   The ceiling cameras 231 and 232 photograph the spectator seat 120 from above, and transmit the occupant seat image data to the image analysis device 300. A predetermined number of ceiling cameras are arranged at predetermined locations so that the entire range of audience seats 120 can be photographed. When some of the spectator seats 120 are photographed as samples, the ceiling cameras 231 and 232 are arranged so that the photographing area is the same area as the area photographed by the occupant seat cameras 221 and 222. The ceiling cameras 231 and 232 photograph the audience seat 120 in a predetermined range at a predetermined cycle. The ceiling cameras 231 and 232 are an example of the position detection device 50 according to the first embodiment. The arrangement of the two ceiling cameras 231 and 232 is an example, and the number of the ceiling cameras 231 and 232 is appropriately determined.

画像解析装置300は、客席カメラ221,222から取得した観客130の顔画像データと、天井カメラ231,232から取得した客席画像データを解析し、観客130の目視方向と視点位置を検出する。画像解析装置300は、目視方向及び視点位置と、各試合場の位置座標とを比較し、観客130が目視している試合場を検出する。なお、第2の実施の形態では、観客130の目視対象領域を、天井カメラ231,232の客席画像データが示す2次元平面における位置関係として算出する。以下では、位置関係はこの2次元平面上で論じ、図2の奥行き方向については触れない。また、以下において、各試合場101,102,103,104、観客席120、客席カメラ221,222、天井カメラ231,232の位置座標は、この2次元平面上の任意の位置を基準点として、それぞれの位置を示すものである。画像解析装置300は、観客席120の複数の観客130の顔画像データを解析し、統計処理して最も多くの観客が興味を持つ試合を検出する。また、画像解析装置300は、観客が興味を持っている試合の順番を検出するとしてもよい。画像解析装置300は、最も多くの観客130が興味を持つ試合場を出力映像作成装置400に送信する。   The image analysis device 300 analyzes the face image data of the audience 130 acquired from the audience cameras 221 and 222 and the audience image data acquired from the ceiling cameras 231 and 232, and detects the viewing direction and viewpoint position of the audience 130. The image analysis apparatus 300 compares the viewing direction and viewpoint position with the position coordinates of each game field, and detects the game field that the spectator 130 is viewing. In the second embodiment, the viewing target area of the spectator 130 is calculated as a positional relationship on the two-dimensional plane indicated by the seat image data of the ceiling cameras 231 and 232. In the following, the positional relationship will be discussed on this two-dimensional plane, and the depth direction in FIG. 2 will not be mentioned. Further, in the following, the position coordinates of each of the game fields 101, 102, 103, 104, the spectator seat 120, the spectator cameras 221, 222, and the ceiling cameras 231, 232 are based on an arbitrary position on the two-dimensional plane as a reference point. Each position is indicated. The image analysis apparatus 300 analyzes the face image data of the plurality of spectators 130 in the spectator seat 120 and performs statistical processing to detect a game in which the most spectators are interested. Further, the image analysis apparatus 300 may detect the order of the game in which the audience is interested. The image analysis apparatus 300 transmits the game field that the most spectators 130 are interested in to the output video creation apparatus 400.

出力映像作成装置400は、試合用カメラ211,212,213,214が撮影する各試合場の映像信号を入力する。出力映像作成装置400は、画像解析装置300から観客130が興味を持つ試合場に関する情報を取得し、対応する試合場の映像信号をモニタ装置500へ出力する。   The output video creation device 400 inputs video signals of each game field taken by the game cameras 211, 212, 213, 214. The output video creation device 400 acquires information about the game field that the spectator 130 is interested in from the image analysis device 300, and outputs a video signal of the corresponding game field to the monitor device 500.

モニタ装置500は、出力映像作成装置400から入力する出力映像信号に基づく映像をモニタ画面に表示する。
図3は、画像解析装置のハードウェア構成例を示す図である。画像解析装置300は、CPU301によって装置全体が制御されている。CPU301には、バス308を介してRAM(Random Access Memory)302と複数の周辺機器が接続されている。
The monitor device 500 displays a video based on the output video signal input from the output video creation device 400 on the monitor screen.
FIG. 3 is a diagram illustrating a hardware configuration example of the image analysis apparatus. The entire image analysis apparatus 300 is controlled by the CPU 301. A RAM (Random Access Memory) 302 and a plurality of peripheral devices are connected to the CPU 301 via a bus 308.

RAM302は、画像解析装置300の主記憶装置として使用される。RAM302には、CPU301に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM302には、CPU301による処理に必要な各種データが格納される。   The RAM 302 is used as a main storage device of the image analysis device 300. The RAM 302 temporarily stores at least part of an OS (Operating System) program and application programs to be executed by the CPU 301. The RAM 302 stores various data necessary for processing by the CPU 301.

バス308に接続されている周辺機器としては、HDD(Hard Disk Drive)303、グラフィック処理装置304、入力インタフェース305、光学ドライブ装置306及び通信インタフェース307がある。   Peripheral devices connected to the bus 308 include an HDD (Hard Disk Drive) 303, a graphic processing device 304, an input interface 305, an optical drive device 306, and a communication interface 307.

HDD303は、内蔵したディスクに対して、磁気的にデータの書き込み及び読み出しを行う。HDD303は、画像解析装置300の二次記憶装置として使用される。HDD303には、OSのプログラム、アプリケーションプログラム、及び各種データが格納される。なお、二次記憶装置としては、フラッシュメモリなどの半導体記憶装置を使用することもできる。   The HDD 303 magnetically writes data to and reads data from a built-in disk. The HDD 303 is used as a secondary storage device of the image analysis device 300. The HDD 303 stores an OS program, application programs, and various data. Note that a semiconductor storage device such as a flash memory can also be used as the secondary storage device.

グラフィック処理装置304には、モニタ311が接続されている。グラフィック処理装置304は、CPU301からの命令にしたがって、画像をモニタ311の画面に表示させる。モニタ311としては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置などがある。   A monitor 311 is connected to the graphic processing device 304. The graphic processing device 304 displays an image on the screen of the monitor 311 in accordance with a command from the CPU 301. Examples of the monitor 311 include a display device using a CRT (Cathode Ray Tube) and a liquid crystal display device.

入力インタフェース305には、キーボード312とマウス313とが接続されている。入力インタフェース305は、キーボード312やマウス313から送られてくる信号をCPU301に送信する。なお、マウス313は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。   A keyboard 312 and a mouse 313 are connected to the input interface 305. The input interface 305 transmits a signal transmitted from the keyboard 312 or the mouse 313 to the CPU 301. Note that the mouse 313 is an example of a pointing device, and other pointing devices can also be used. Examples of other pointing devices include a touch panel, a tablet, a touch pad, and a trackball.

光学ドライブ装置306は、レーザ光などを利用して、光ディスク314に記録されたデータの読み取りを行う。光ディスク314は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク314には、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。   The optical drive device 306 reads data recorded on the optical disk 314 using laser light or the like. The optical disk 314 is a portable recording medium on which data is recorded so that it can be read by reflection of light. The optical disk 314 includes a DVD (Digital Versatile Disc), a DVD-RAM, a CD-ROM (Compact Disc Read Only Memory), a CD-R (Recordable) / RW (ReWritable), and the like.

通信インタフェース307は、ネットワーク600に接続されている。通信インタフェース307は、ネットワーク600を介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。   The communication interface 307 is connected to the network 600. The communication interface 307 transmits / receives data to / from other computers or communication devices via the network 600.

以上のようなハードウェア構成によって、本実施の形態の処理機能を実現することができる。なお、図3には画像解析装置300のハードウェア構成を示したが、出力映像作成装置400も同様のハードウェア構成を有する。   With the hardware configuration as described above, the processing functions of the present embodiment can be realized. 3 shows the hardware configuration of the image analysis apparatus 300, the output video creation apparatus 400 also has the same hardware configuration.

図4は、第2の実施の形態の映像表示システムの機能構成を示すブロック図である。
試合用カメラ211,・・・,214は、配置された試合場で行われる試合を撮影し、撮影した映像信号を出力映像作成装置400へ出力する。映像信号は、モニタ装置500の表示に用いられる。
FIG. 4 is a block diagram illustrating a functional configuration of the video display system according to the second embodiment.
The game cameras 211,..., 214 shoot a game played on the arranged game field and output the photographed video signal to the output video creation device 400. The video signal is used for display on the monitor device 500.

客席カメラ221,222は、所定の周期で観客130の顔を撮影し、顔画像データを前兆動作検出部310及び観客目視方向検出部320へ出力する。なお、顔画像データは、客席カメラ221,222内の記憶部または記憶部350に格納しておき、前兆動作検出部310及び観客目視方向検出部320が必要時に読み出すとしてもよい。   The passenger seat cameras 221 and 222 capture the face of the spectator 130 at a predetermined cycle, and output the face image data to the precursor motion detection unit 310 and the spectator visual direction detection unit 320. The face image data may be stored in the storage unit or storage unit 350 in the passenger seat cameras 221 and 222 and read by the precursor motion detection unit 310 and the spectator visual direction detection unit 320 when necessary.

天井カメラ231,232は、所定の周期で観客席120を撮影し、撮影した客席画像データを観客着席位置検出部330へ出力する。天井カメラ231,232は、全ての観客席120を含む客席画像データを生成する。なお、客席画像データは、天井カメラ231,232内の記憶部または記憶部350に格納しておき、観客着席位置検出部330が必要時に読み出すとしてもよい。   The ceiling cameras 231 and 232 photograph the spectator seat 120 at a predetermined cycle, and output the photographed spectator seat image data to the spectator seating position detection unit 330. The ceiling cameras 231 and 232 generate audience image data including all the audience seats 120. The audience image data may be stored in the storage unit or storage unit 350 in the ceiling cameras 231 and 232, and the audience seating position detection unit 330 may read it out when necessary.

画像解析装置300は、前兆動作検出部310と、観客目視方向検出部320と、観客着席位置検出部330と、観客目視対象検出部340と、記憶部350と、注目度算出部360と、を有する。前兆動作検出部310、観客目視方向検出部320、観客着席位置検出部330、観客目視対象検出部340及び注目度算出部360は、CPU301が実行するプログラムのモジュールとして実現できる。記憶部350は、RAM302またはHDD303に確保した記憶領域として実現できる。   The image analysis apparatus 300 includes a precursor motion detection unit 310, a spectator visual direction detection unit 320, a spectator seating position detection unit 330, a spectator visual object detection unit 340, a storage unit 350, and an attention level calculation unit 360. Have. The precursor motion detection unit 310, the audience viewing direction detection unit 320, the audience seating position detection unit 330, the audience viewing object detection unit 340, and the attention level calculation unit 360 can be realized as modules of a program executed by the CPU 301. The storage unit 350 can be realized as a storage area secured in the RAM 302 or the HDD 303.

前兆動作検出部310、観客目視方向検出部320及び観客着席位置検出部330は、所定の周期で起動し、客席カメラ221,222及び天井カメラ231,232が撮影した顔画像データ及び客席画像データを解析する。   The precursor motion detection unit 310, the spectator visual direction detection unit 320, and the spectator seating position detection unit 330 are activated at predetermined intervals, and the face image data and the spectator image data captured by the spectator cameras 221 and 222 and the ceiling cameras 231 and 232 are used. To analyze.

前兆動作検出部310は、観客130の顔画像データを解析し、多くの観客130の目視対象が集まる目視対象領域が出現する前兆となり得る動作を検出する。以下、このようなときに検出される動作を前兆動作と呼ぶ。例えば、スポーツの試合観戦などにおいて、多くの観客130の興味を集める事象の発生時に、観客130がその事象を一斉に目視していることは少ない。一部の観客130が事象を目視し、それが周囲に広がっていくケースが多々ある。そこで、一部の観客がある試合場に注目したことを前兆動作として検出し、モニタ装置500へ表示する映像信号の選択の際に参照する。例えば、一部の観客がある試合場に興味を引かれているのを見つけた時点で、モニタ装置500の表示画面をこの試合場に切り換えることにより、観客が興味を持つ目視対象を迅速に検出し、表示に反映させることができる。   The sign motion detection unit 310 analyzes the face image data of the spectator 130 and detects a motion that can be a sign of appearance of a visual target region where the visual targets of many spectators 130 gather. Hereinafter, the operation detected at this time is referred to as a precursor operation. For example, when an event that attracts the interest of many spectators 130 occurs, such as during a sporting game match, the spectators 130 rarely watch the event all at once. There are many cases where some spectators 130 see the event and it spreads around. In view of this, the fact that a part of the spectator has focused on a certain game field is detected as a precursor action and is referred to when selecting a video signal to be displayed on the monitor device 500. For example, when it is found that some spectators are interested in a game field, the display screen of the monitor device 500 is switched to this game field, thereby quickly detecting a visual object that the spectator is interested in. And can be reflected in the display.

ここで、観客130が興味を引く事象を検出したときの動作として、例えば、目視方向をそちらに向けるとともに、目を見開く、瞳孔が変化する、歓声を上げるなどの動作を伴うことがある。第2の実施の形態では、瞳孔の変化に基づいて前兆動作を検出する。興味を引く事象を検出した場合、対象者の顔の表情、特に目の状態によって対象者の心理状態を推定できることが知られている。例えば、人の瞳孔は、その人がリラックスしているときは大きく、緊張したときや驚いたときには小さくなることが知られている。また、関心があるものを見るときにも瞳孔が大きくなるといわれている。そこで、観客130の瞳孔の大きさの変化を検出することにより、観客の興味を引く事象が発生したことを検出することができる。前兆動作検出部310は、顔画像データ解析時に観客130の瞳孔の大きさを検出し、記憶部350に格納しておく。前兆動作検出部310は、次の顔画像データ解析時に検出した観客130の瞳孔の大きさと、記憶部350に格納しておいた瞳孔の大きさと比較し、変化を検出する。前兆動作検出部310は、瞳孔の大きさの変化を検出したときは、前兆動作を検出したことを観客目視対象検出部340に通知する。前兆動作検出部310は、例えば、前兆動作の検出情報を、観客目視対象検出部340から読み出し可能な記憶部350に格納しておく。   Here, as an operation when an event that attracts interest from the spectator 130 is detected, for example, the viewing direction may be turned there, and an operation such as opening the eyes, changing the pupil, or raising a cheer may be involved. In the second embodiment, a precursor motion is detected based on changes in the pupil. It is known that when an event that attracts interest is detected, the psychological state of the subject can be estimated from the facial expression of the subject, particularly the eye state. For example, it is known that a person's pupil is large when the person is relaxed and small when he is nervous or surprised. It is also said that the pupil becomes larger when looking at something of interest. Therefore, by detecting a change in the size of the pupil of the audience 130, it is possible to detect that an event that attracts the audience's interest has occurred. The sign motion detection unit 310 detects the size of the pupil of the spectator 130 when analyzing the face image data, and stores it in the storage unit 350. The sign motion detection unit 310 compares the pupil size of the spectator 130 detected at the time of the next facial image data analysis with the pupil size stored in the storage unit 350 to detect a change. When the sign motion detection unit 310 detects a change in the size of the pupil, the sign motion detection unit 310 notifies the audience visual target detection unit 340 that the sign motion has been detected. For example, the warning motion detection unit 310 stores the detection information of the warning motion in the storage unit 350 that can be read from the audience visual object detection unit 340.

観客目視方向検出部320は、客席カメラ221,222が撮影した観客130の顔画像データを順に解析する。観客目視方向検出部320は、観客130の顔画像データから顔の方向と眼球の方向を検出し、目視方向を検出する。目視方向は、例えば、観客席120の観客130が正面をみている状態を基準(0°)とし、目視方向と正面とがなす角度で表す。観客目視方向検出部320は、検出対象の観客130ごとに顔画像データを解析し、目視方向を検出する。   The audience viewing direction detection unit 320 sequentially analyzes the face image data of the audience 130 taken by the audience seat cameras 221 and 222. The audience viewing direction detection unit 320 detects the direction of the face and the direction of the eyeball from the face image data of the audience 130, and detects the viewing direction. For example, the viewing direction is expressed as an angle formed by the viewing direction and the front, with the state where the audience 130 of the spectator seat 120 is looking at the front as a reference (0 °). The audience viewing direction detection unit 320 analyzes the face image data for each audience 130 to be detected, and detects the viewing direction.

観客着席位置検出部330は、天井カメラ231,232が撮影した観客席120の客席画像データに基づき、観客130が着席しているか否かを判定する。観客着席位置検出部330は、例えば、予め定義された観客席120の観客席位置(位置座標)に対応する地点に座面の色と異なる色、あるいは、髪の毛の色が検出された場合、着席していると判定する。観客着席位置検出部330は、観客130が着席している位置座標を当該観客130の観客着席位置とする。また、観客着席位置は、2次元平面上の観客130の視点位置座標と見なすことができる。   The audience seating position detection unit 330 determines whether or not the audience 130 is seated based on the audience image data of the audience seat 120 taken by the ceiling cameras 231 and 232. The spectator seating position detection unit 330 is seated when, for example, a color different from the color of the seat surface or the color of the hair is detected at a point corresponding to the spectator seat position (position coordinates) of the spectator seat 120 defined in advance. It is determined that The audience seating position detection unit 330 sets the position coordinates where the audience 130 is seated as the audience seating position of the audience 130. The audience seating position can be regarded as the viewpoint position coordinates of the audience 130 on a two-dimensional plane.

観客目視対象検出部340は、観客目視方向検出部320及び観客着席位置検出部330が検出した観客130の視点位置座標及び目視方向に基づき、観客の目視対象領域を検出する。観客目視対象検出部340は、観客130の視点位置座標及び目視方向と、各試合場の位置座標とを照合し、観客130の目視方向と領域が重なる試合場を検出し、検出した試合場を観客130の目視対象領域とする。   The spectator visual target detection unit 340 detects the visual target region of the spectator based on the viewpoint position coordinates and the visual direction of the spectator 130 detected by the spectator visual direction detection unit 320 and the spectator seating position detection unit 330. The spectator visual object detection unit 340 collates the viewpoint position coordinates and viewing direction of the spectator 130 with the position coordinates of each game field, detects a game field where the visual direction of the spectator 130 overlaps with the area, and detects the detected game field. It is set as a viewing target area of the audience 130.

記憶部350は、試合会場情報351と、観客情報352と、を記憶する。
試合会場情報351は、試合会場に関する情報であり、観客目視対象検出部340が目視対象領域を検出する際に参照する。詳細は、図5を用いて後で説明する。観客情報352は、観客席120及び観客130に関する情報であり、前兆動作検出部310、観客目視方向検出部320及び観客着席位置検出部330が参照する。詳細は、図6を用いて後で説明する。
The storage unit 350 stores game venue information 351 and spectator information 352.
The game hall information 351 is information regarding the game hall, and is referred to when the spectator visual target detection unit 340 detects the visual target area. Details will be described later with reference to FIG. The audience information 352 is information related to the audience seat 120 and the audience 130 and is referred to by the precursor motion detection unit 310, the audience visual direction detection unit 320, and the audience seating position detection unit 330. Details will be described later with reference to FIG.

注目度算出部360は、観客目視対象検出部340が検出した観客130の目視対象領域を統計処理し、注目度を算出する。注目度算出部360は、例えば、試合場ごとに、この試合場を目視している観客130の数を算出し、注目度とする。また、算出した観客数の全観客数に占める割合を注目度としてもよい。注目度算出部360は、観客数を算出する際、前兆動作が検出された観客130が目視する目視対象領域の注目度を上げるための重み付けを行う。これにより、前兆動作が検出された観客130が注目している試合場の注目度を上げることができる。注目度算出部360は、注目度の最も高い試合場の情報を出力映像作成装置400に通知する。   The attention level calculation unit 360 statistically processes the visual target area of the spectator 130 detected by the spectator visual target detection unit 340, and calculates the attention level. The attention level calculation unit 360 calculates, for example, the number of spectators 130 viewing the game field for each game field, and sets it as the attention level. Further, the ratio of the calculated audience number to the total audience number may be used as the degree of attention. When calculating the number of spectators, the degree-of-attention calculation unit 360 performs weighting to increase the degree of attention of the visual target area viewed by the spectator 130 in which the precursor motion is detected. Thereby, the attention degree of the game field which the spectator 130 in which the warning motion is detected can be raised. The attention level calculation unit 360 notifies the output video creation device 400 of information on the game field with the highest level of attention.

出力映像作成装置400は、表示映像作成部410を有する。表示映像作成部410は、試合用カメラ211,・・・,214が撮影した第1試合場101、第2試合場102、第3試合場103及び第4試合場104の映像信号を入力する。また、表示映像作成部410は、注目度算出部360から最も高い注目度の試合場の情報を取得する。表示映像作成部410は、取得した最も高い注目度の試合場に対応する映像信号を選択して映像出力部510に出力する。   The output video creation device 400 includes a display video creation unit 410. The display video creation unit 410 inputs video signals of the first game field 101, the second game field 102, the third game field 103, and the fourth game field 104 taken by the game cameras 211,. Further, the display video creation unit 410 acquires information on the game field with the highest degree of attention from the degree-of-attention calculation unit 360. The display video creation unit 410 selects a video signal corresponding to the acquired game field with the highest degree of attention and outputs it to the video output unit 510.

モニタ装置500は、映像出力部510と、表示部520と、を有する。映像出力部510は、表示映像作成部410から取得した映像信号を表示用の表示信号に変換し、表示部520に出力する。表示部520は、表示用信号に基づき、選択された試合場の映像信号を表示する。   The monitor device 500 includes a video output unit 510 and a display unit 520. The video output unit 510 converts the video signal acquired from the display video creation unit 410 into a display signal for display, and outputs the display signal to the display unit 520. Display unit 520 displays the video signal of the selected game field based on the display signal.

図5は、試合会場情報の一例を示す図である。
試合会場情報351には、試合場に関する情報として、「試合場」、「カメラ」、「位置」の情報項目が含まれる。
FIG. 5 is a diagram illustrating an example of game venue information.
The game hall information 351 includes information items of “game field”, “camera”, and “position” as information on the game field.

「試合場」には、第1試合場101、第2試合場102、第3試合場103、第4試合場104を識別する試合場識別番号が登録される。「カメラ」には、試合場に配置される試合用カメラ211,212,213,214を識別するカメラ識別番号が、試合場識別番号に対応付けて登録される。「位置」には、試合場の位置座標が試合場識別番号に対応付けて登録される。それぞれの試合場の位置座標は、試合場の4角の位置を示す。   In the “game field”, a game field identification number for identifying the first game field 101, the second game field 102, the third game field 103, and the fourth game field 104 is registered. In the “camera”, a camera identification number for identifying the game cameras 211, 212, 213, 214 arranged on the game field is registered in association with the game field identification number. In “position”, the position coordinates of the game field are registered in association with the game field identification number. The position coordinates of each game field indicate the four corner positions of the game field.

図6は、観客情報の一例を示す図である。
観客情報352には、観客に関する情報として、「観客席」、「客席カメラ」、「天井カメラ」、「観客席位置」、「着席状態」、「目視対象」、「瞳孔情報」、「前兆検出」が含まれる。
FIG. 6 is a diagram illustrating an example of audience information.
In the audience information 352, as information on the audience, “audience seat”, “audience camera”, “ceiling camera”, “audience seat position”, “sitting state”, “viewing object”, “pupil information”, “precursor detection” Is included.

「観客席」には、観客130の識別情報として、観客130が着席する観客席120を識別する客席識別番号が登録される。「客席カメラ」には、観客席の観客を撮影する客席カメラ221,222を識別する客席カメラ識別番号が、客席識別番号に対応付けて登録される。「天井カメラ」には、観客席を撮影する天井カメラ231,232を識別する天井カメラ識別番号が、客席識別番号に対応付けて登録される。「観客席位置」には、観客席の位置を2次元座標が、客席識別番号に対応付けて登録される。「着席状態」には、対応する観客席に観客がいるか否かを示す情報が登録される。「着席」は観客がいることを示し、「空席」は観客がいないことを示す。「目視対象」には、観客が目視している試合場が、客席識別番号に対応付けて登録される。目視対象には、観客目視対象検出部340が検出した目視対象領域が登録される。例えば、「1」は対応する観客席の観客が、第1試合場101を目視していることを示す。「瞳孔情報」には、観客130の瞳孔の大きさを示す情報が、客席識別番号に対応付けて登録される。瞳孔の大きさは、前兆動作検出部310が観客130の顔画像データを解析して検出する。「前兆検出」には、前兆動作が検出されたか否かが、客席識別番号に対応付けて登録される。前兆動作には、前兆動作検出部310が前兆動作の有無を判定した結果が登録される。   In the “audience seat”, a seat identification number for identifying the seat 120 where the audience 130 sits is registered as the identification information of the audience 130. In the “passenger camera”, a passenger seat camera identification number for identifying the passenger seat cameras 221 and 222 for photographing the audience in the audience seat is registered in association with the passenger seat identification number. In the “ceiling camera”, a ceiling camera identification number for identifying the ceiling cameras 231 and 232 for photographing the spectator seat is registered in association with the seat identification number. In the “audience seat position”, the position of the audience seat is registered in association with a seat identification number in two-dimensional coordinates. In the “sitting state”, information indicating whether or not there is a spectator in the corresponding spectator seat is registered. “Seated” indicates that there is a spectator, and “vacant seat” indicates that there is no spectator. In the “visual target”, the game field that the spectator is viewing is registered in association with the audience identification number. The visual target area detected by the spectator visual target detection unit 340 is registered in the visual target. For example, “1” indicates that the audience at the corresponding spectator seat is viewing the first game field 101. In the “pupil information”, information indicating the size of the pupil of the audience 130 is registered in association with the seat identification number. The size of the pupil is detected by the precursor motion detection unit 310 by analyzing the face image data of the audience 130. In “precursor detection”, whether or not a precursor motion has been detected is registered in association with a passenger seat identification number. In the precursor action, a result of the presence / absence of the precursor action detected by the precursor action detection unit 310 is registered.

図7は、観客目視対象検出処理の概略を示す図である。
図7に示す一例では、観客席122に着席する観客132と、観客席123に着席する観客133と、が第4試合場104を目視している。第4試合場104は、位置座標(X41,Y41)、(X42,Y42)、(X43,Y43)、(X44,Y44)で表される点で囲まれる領域である。また、観客席122の位置座標は(sx4,sy4)であり、観客席123の位置座標は(sx5,sy5)である。
FIG. 7 is a diagram showing an outline of the audience visual object detection process.
In the example shown in FIG. 7, a spectator 132 seated in the spectator seat 122 and a spectator 133 seated in the spectator seat 123 are viewing the fourth game field 104. The fourth game field 104 is an area surrounded by points represented by position coordinates (X41, Y41), (X42, Y42), (X43, Y43), (X44, Y44). The position coordinates of the spectator seat 122 are (sx4, sy4), and the position coordinates of the spectator seat 123 are (sx5, sy5).

観客目視対象検出部340は、観客着席位置検出部330から、観客席122の観客132の視点位置座標(sx4,sy4)と、観客席123の観客133の視点位置座標(sx5、sy5)を取得する。また、観客目視方向検出部320から、観客132の目視方向142としてθ2と、観客133の目視方向143として―θ3を取得する。   The spectator visual target detection unit 340 acquires the viewpoint position coordinates (sx4, sy4) of the spectator 132 of the spectator seat 122 and the viewpoint position coordinates (sx5, sy5) of the spectator 133 of the spectator seat 123 from the audience seating position detection unit 330. To do. Also, from the audience viewing direction detection unit 320, θ2 is obtained as the viewing direction 142 of the audience 132, and −θ3 is obtained as the viewing direction 143 of the audience 133.

これらの情報に基づいて、図7に示すように、観客132が視点位置座標(sx4,sy4)から目視方向142を見たときの視線が第4試合場104の領域内を通過するか否かを評価することができる。同様に、観客133が視点位置座標(sx5,sy5)から目視方向143を見たときの視線が第4試合場104の領域内を通過するか否かを評価することができる。観客目視対象検出部340は、評価結果に基づいて、観客132,133が目視する試合場を検出する。   Based on this information, as shown in FIG. 7, whether or not the line of sight when the spectator 132 sees the viewing direction 142 from the viewpoint position coordinates (sx4, sy4) passes through the area of the fourth game field 104. Can be evaluated. Similarly, it can be evaluated whether or not the line of sight when the spectator 133 views the viewing direction 143 from the viewpoint position coordinates (sx5, sy5) passes through the area of the fourth game field 104. The spectator visual object detection unit 340 detects a game field visually observed by the spectators 132 and 133 based on the evaluation result.

以下、画像解析装置300の処理について順に説明する。
図8は、観客目視対象検出処理の手順を示すフローチャートである。
画像解析装置300は、所定の周期で観客130が目視している対象領域を検出する観客目視対象検出処理を実行する。なお、画像解析装置300が観客目視対象検出処理を開始する時点では、客席カメラ221,222が撮影する観客130の顔画像データと、天井カメラ231,232が撮影する客席画像データとが更新されているとする。
Hereinafter, processing of the image analysis apparatus 300 will be described in order.
FIG. 8 is a flowchart showing the procedure of the audience visual object detection process.
The image analysis apparatus 300 performs a spectator visual target detection process for detecting a target region that is viewed by the spectator 130 at a predetermined cycle. At the time when the image analysis apparatus 300 starts the audience visual object detection process, the face image data of the audience 130 photographed by the audience cameras 221 and 222 and the audience image data photographed by the ceiling cameras 231 and 232 are updated. Suppose that

[ステップS01]画像解析装置300は、天井カメラ231,232が撮影した客席画像データを取得する。
[ステップS02]観客着席位置検出部330は、取得した客席画像データと、観客情報352に登録される観客席位置(位置座標)とに基づいて、観客着席位置を検出する。観客着席位置検出部330は、観客席ごとに、当該観客席を撮影した天井カメラの客席画像データを解析し、観客席に観客が着席しているか否かを判定する。観客着席位置検出部330は、観客が着席していると判定したときは、観客情報352の「着席状態」に「着席」を登録する。観客着席位置検出部330は、観客が着席していないと判定したときは、観客情報352の「着席状態」に「空席」を登録する。
[Step S01] The image analysis apparatus 300 acquires the passenger seat image data captured by the ceiling cameras 231 and 232.
[Step S02] The audience seating position detector 330 detects the audience seating position based on the acquired audience image data and the audience seat position (position coordinates) registered in the audience information 352. The spectator seating position detection unit 330 analyzes, for each spectator seat, the occupant seat image data of the ceiling camera that captured the spectator seat, and determines whether the spectator is seated in the spectator seat. When it is determined that the audience is seated, the audience seating position detection unit 330 registers “sitting” in the “sitting state” of the audience information 352. When it is determined that the audience is not seated, the audience seating position detection unit 330 registers “vacant seat” in the “seat state” of the audience information 352.

[ステップS03]観客目視方向検出部320は、客席カメラ221,222が撮影した観客130の顔画像データを取得する。
[ステップS04]観客目視方向検出部320は、観客目視方向の検出処理が未処理の観客130の顔画像データを1つ抽出する。
[Step S03] The audience viewing direction detection unit 320 acquires the face image data of the audience 130 photographed by the audience cameras 221 and 222.
[Step S04] The audience viewing direction detection unit 320 extracts one face image data of the audience 130 that has not been subjected to the process of detecting the audience viewing direction.

[ステップS05]観客目視方向検出部320は、抽出した観客130の顔画像データを解析し、観客130の目視対象領域検出処理を行う。目視対象領域検出処理の詳細は、図9を用いて説明する。   [Step S05] The audience viewing direction detection unit 320 analyzes the extracted face image data of the audience 130, and performs a viewing target area detection process for the audience 130. Details of the visual target area detection processing will be described with reference to FIG.

[ステップS06]前兆動作検出部310は、抽出した観客130の顔画像データを解析し、当該観客130に、注目される事象を目視したときに現れる前兆動作が見られるか否かを検出する前兆動作検出処理を行う。前兆動作検出処理の詳細は、図10を用いて説明する。   [Step S06] The precursor motion detection unit 310 analyzes the extracted facial image data of the spectator 130, and detects whether or not the precursor motion that appears when the spectator 130 visually observes the event of interest is seen. Perform motion detection processing. Details of the precursor motion detection process will be described with reference to FIG.

[ステップS07]画像解析装置300は、全観客について顔画像データの解析が終了したか否かを判定する。画像解析装置300は、全観客の解析が終了しているときは、処理をステップS08に進める。解析が終了していない観客がいるときは、処理をステップS04に進める。   [Step S07] The image analysis apparatus 300 determines whether or not the analysis of the face image data has been completed for all the audiences. When the analysis of all the spectators has been completed, the image analysis device 300 advances the process to step S08. If there is a spectator who has not finished the analysis, the process proceeds to step S04.

[ステップS08]注目度算出部360は、全観客について検出された目視対象領域を統計処理し、各試合場の注目度を算出する。注目度算出処理の詳細は、図11を用いて説明する。注目度算出処理の終了後、最も注目度の高い試合場を出力映像作成装置400に通知し、処理を終了する。   [Step S08] The attention level calculation unit 360 statistically processes the visual target areas detected for all the spectators, and calculates the attention level of each game field. Details of the attention level calculation processing will be described with reference to FIG. After the attention level calculation process ends, the game field with the highest level of attention is notified to the output video creation device 400, and the process ends.

図9は、目視対象領域検出処理の手順を示すフローチャートである。
[ステップS51]観客目視方向検出部320は、抽出した観客130の顔画像データを解析し、観客130の顔の方向及び目の方向を検出して観客130が目視する目視方向を検出する。観客目視方向検出部320は、撮影を行った客席カメラ221,222の位置と、観客130の位置関係を考慮し、観客130の目視方向を検出する。
FIG. 9 is a flowchart illustrating the procedure of the visual target area detection process.
[Step S51] The audience viewing direction detection unit 320 analyzes the extracted face image data of the audience 130, detects the face direction and eye direction of the audience 130, and detects the viewing direction viewed by the audience 130. The audience viewing direction detection unit 320 detects the viewing direction of the audience 130 in consideration of the positions of the audience cameras 221 and 222 that have taken images and the positional relationship of the audience 130.

[ステップS52]観客目視対象検出部340は、観客情報352から観客130が着席する観客席120の観客席位置(位置座標)に基づいて、観客130の視点位置座標を取得する。ここでは、観客席120の観客席位置を観客130の視点位置座標と見なす。   [Step S52] The audience visual object detection unit 340 acquires the viewpoint position coordinates of the audience 130 based on the audience seat position (position coordinates) of the audience seat 120 where the audience 130 sits from the audience information 352. Here, the audience seat position of the audience seat 120 is regarded as the viewpoint position coordinates of the audience 130.

[ステップS53]観客目視対象検出部340は、判定対象の試合場kを1とする。これによって第1試合場101から順に、観客130の目視対象領域に対応する試合場であるか否かを判定する。   [Step S53] The spectator visual target detection unit 340 sets the game field k to be determined as 1. Accordingly, it is determined in order from the first game field 101 whether or not the game field corresponds to the viewing target area of the spectator 130.

[ステップS54]観客目視対象検出部340は、試合会場情報351から試合場kの位置(位置座標)を読み出す。観客目視対象検出部340は、観客130の視点位置座標と目視方向とに基づく観客130が目視する方向が、試合場kの位置座標が示す領域と重なるか否かを照合する。   [Step S54] The spectator visual object detection unit 340 reads the position (position coordinates) of the game field k from the game hall information 351. The spectator visual target detection unit 340 collates whether or not the direction viewed by the spectator 130 based on the viewpoint position coordinates and the viewing direction of the spectator 130 overlaps the area indicated by the position coordinates of the game field k.

[ステップS55]観客目視対象検出部340は、照合の結果に基づいて、観客130の目視対象領域が試合場kであるか否かを判定する。観客目視対象検出部340は、観客130の目視する方向と試合場kの領域とが重なるとき、観客130の目視対象領域は試合場kであると判定する。観客130の目視する方向と試合場kの領域とが重ならないとき、観客130の目視対象領域は試合場kではないと判定する。観客目視対象検出部340は、試合場kが観客130の目視対象領域であるときは、処理をステップS56に進め、目視対象領域ではないときは、処理をステップS57に進める。   [Step S55] The spectator visual target detection unit 340 determines whether or not the visual target area of the spectator 130 is the game field k based on the result of the collation. When the viewing direction of the spectator 130 and the area of the game field k overlap, the spectator visual object detection unit 340 determines that the visual object area of the spectator 130 is the game field k. When the viewing direction of the spectator 130 and the area of the game field k do not overlap, it is determined that the visual target area of the spectator 130 is not the game field k. The spectator visual target detection unit 340 advances the process to step S56 when the game field k is the visual target area of the spectator 130, and advances the process to step S57 when it is not the visual target area.

[ステップS56]観客目視対象検出部340は、試合場kを当該観客130の目視対象領域として観客情報352に登録する。観客目視対象検出部340は、観客130が着席する観客席120の客席識別番号に対応する目視対象の欄に、試合場kを登録する。観客目視対象検出部340は、目視対象領域の登録後、処理を終了する。   [Step S56] The spectator visual target detection unit 340 registers the game field k in the spectator information 352 as the visual target area of the spectator 130. The spectator visual target detection unit 340 registers the game field k in the visual target column corresponding to the audience identification number of the spectator seat 120 where the spectator 130 is seated. The audience visual object detection unit 340 ends the processing after registering the visual object area.

[ステップS57]観客目視対象検出部340は、全試合場について照合が終了したか否かを判定する。観客目視対象検出部340は、全試合場について照合が終了したときは、処理をステップS59に進める。全試合場について照合が終了していないときは、処理をステップS58に進める。   [Step S57] The spectator visual target detection unit 340 determines whether or not collation has been completed for all the game fields. The spectator visual object detection unit 340 advances the process to step S59 when collation is completed for all the game fields. If verification has not been completed for all the game fields, the process proceeds to step S58.

[ステップS58]観客目視対象検出部340は、判定対象の試合場kの識別番号を1つ進め、処理をステップS54に進める。
[ステップS59]観客目視対象検出部340は、観客130の目視対象領域無とし、観客130が着席する観客席120の客席識別番号に対応する目視対象の欄に無を登録する。その後、処理を終了する。
[Step S58] The spectator visual object detection unit 340 advances the identification number of the game field k to be determined by one, and advances the process to step S54.
[Step S <b> 59] The audience visual object detection unit 340 registers the absence in the visual object column corresponding to the audience identification number of the audience seat 120 on which the audience 130 is seated, assuming that the audience 130 does not have an area to be viewed. Thereafter, the process ends.

図10は、前兆動作検出処理の手順を示すフローチャートである。
[ステップS61]前兆動作検出部310は、抽出した観客130の顔画像データを解析し、観客130の瞳孔の大きさを検出する。
FIG. 10 is a flowchart showing the procedure of the precursor motion detection process.
[Step S61] The precursor motion detection unit 310 analyzes the extracted face image data of the spectator 130, and detects the size of the pupil of the spectator 130.

[ステップS62]前兆動作検出部310は、観客130が着席する観客席120の客席識別番号に基づいて、観客情報352から前回計測した観客130の瞳孔の大きさを読み出す。前兆動作検出部310は、前回と今回の瞳孔の大きさの差を算出し、観客130の瞳孔の大きさに変化が有ったかどうかを判定する。例えば、予め定めた大きさ以上の差があったときに変化有と判定する。また、例えば、瞳孔が大きくなるように変化した場合など、変化有と見なす条件を設定しておいてもよい。なお、観客情報352の瞳孔の大きさは、今回の計測値に更新する。前兆動作検出部310は、観客130の瞳孔の大きさに変化があったときは処理をステップS63に進め、変化がなかったときは処理をステップS64に進める。   [Step S62] The precursor motion detection unit 310 reads the size of the pupil of the audience 130 measured last time from the audience information 352 based on the audience identification number of the audience seat 120 where the audience 130 is seated. The precursor motion detection unit 310 calculates the difference between the previous and current pupil sizes, and determines whether there is a change in the pupil size of the audience 130. For example, it is determined that there is a change when there is a difference larger than a predetermined size. In addition, for example, a condition that is considered to be changed may be set when the pupil is changed so as to become larger. Note that the size of the pupil of the audience information 352 is updated to the current measurement value. The sign motion detection unit 310 advances the process to step S63 when there is a change in the size of the pupil of the spectator 130, and advances the process to step S64 when there is no change.

[ステップS63]前兆動作検出部310は、瞳孔の大きさに変化を検出した観客130の観客席120の客席識別番号に対応する観客情報352の「前兆検出」に「有」を設定し、処理を終了する。   [Step S63] The precursor motion detection unit 310 sets “presence” to “detection of precursor” of the audience information 352 corresponding to the audience identification number of the audience seat 120 of the audience 130 that has detected a change in the size of the pupil, and performs processing. Exit.

[ステップS64]前兆動作検出部310は、瞳孔の大きさに変化を検出しなかった観客130の観客席120の客席識別番号に対応する観客情報352の「前兆検出」に「無」を設定し、処理を終了する。   [Step S64] The precursor motion detection unit 310 sets “none” in “detection of precursor” of the audience information 352 corresponding to the audience identification number of the audience seat 120 of the audience 130 that has not detected a change in the size of the pupil. The process is terminated.

図11は、注目度算出処理の手順を示すフローチャートである。図11の例では、各試合場の注目度を、この試合場を目視している観客数で表す。
[ステップS81]注目度算出部360は、観客情報352を観客席120の客席識別番号の順に読み出して統計処理を行い、試合場の注目度を算出する。注目度算出部360は、観客席番号mに1を設定する。
FIG. 11 is a flowchart illustrating a procedure of attention level calculation processing. In the example of FIG. 11, the attention level of each game field is represented by the number of spectators who are viewing this game field.
[Step S81] The attention level calculation unit 360 reads the audience information 352 in the order of the audience identification number of the audience seat 120, performs statistical processing, and calculates the attention level of the game field. The attention level calculation unit 360 sets 1 for the spectator seat number m.

[ステップS82]注目度算出部360は、観客情報352の「着席状態」に基づき、客席識別番号がmの観客席(以下、観客席mとする)に観客130が着席しているか否かを判定する。観客130が着席しているときは処理をステップS83に進め、観客130が着席していないときは処理をステップS86に進める。   [Step S82] Based on the “sitting state” of the spectator information 352, the attention level calculation unit 360 determines whether or not the spectator 130 is seated in the spectator seat with the seat identification number m (hereinafter referred to as spectator seat m). judge. If the spectator 130 is seated, the process proceeds to step S83. If the spectator 130 is not seated, the process proceeds to step S86.

[ステップS83]注目度算出部360は、観客情報352の「前兆検出」に基づき、観客席mの観客130に前兆が検出されたか否かを判定する。注目度算出部360は、観客席mの観客130に前兆が検出されたときは処理をステップS84に進め、観客130に前兆が検出されなかったときは処理をステップS85に進める。   [Step S <b> 83] The attention level calculation unit 360 determines whether or not a precursor has been detected in the spectator 130 of the spectator seat m based on “detection of a precursor” in the spectator information 352. The attention level calculation unit 360 proceeds to step S84 when a precursor is detected in the spectator 130 of the audience seat m, and proceeds to step S85 when no precursor is detected in the spectator 130.

[ステップS84]注目度算出部360は、観客130に前兆が検出されたので、該当する目視対象領域の注目度に「2」を加算する。なお、注目度は、目視対象領域の試合場に対応付けて記憶部350に記憶されているとする。注目度算出部360は、前兆が検出された観客130に対応する注目度を、前兆が検出されなかった観客130に対応する注目度より重くする重み付けを行い、処理をステップS86に進める。なお、「+2」は一例であり、どのような値で重み付けするかは適宜設定される。   [Step S <b> 84] The attention level calculation unit 360 adds “2” to the attention level of the corresponding visual target area because the sign is detected in the audience 130. It is assumed that the attention level is stored in the storage unit 350 in association with the game field in the visual target area. The attention level calculation unit 360 weights the attention level corresponding to the spectator 130 in which the precursor is detected to be heavier than the attention level corresponding to the spectator 130 in which the precursor is not detected, and the process proceeds to step S86. Note that “+2” is an example, and what value is weighted is appropriately set.

[ステップS85]注目度算出部360は、観客130に前兆が検出されなかったので、該当する目視対象領域の注目度に「1」を加算し、処理をステップS86に進める。
[ステップS86]注目度算出部360は、全観客席の処理が終了したか否かを判定する。注目度算出部360は、全観客席の処理が終了したときは、処理をステップS88に進め、終了していないときは処理をステップS87に進める。
[Step S85] Since no sign is detected in the spectator 130, the attention level calculation unit 360 adds “1” to the attention level of the corresponding visual target area, and the process proceeds to step S86.
[Step S86] The attention level calculation unit 360 determines whether or not the processing for all spectator seats has been completed. The attention level calculation unit 360 advances the process to step S88 when the process for all spectator seats is completed, and advances the process to step S87 when the process is not completed.

[ステップS87]注目度算出部360は、観客席mに「1」を加算し、処理をステップS82に進める。
[ステップS88]注目度算出部360は、全観客の目視対象領域より算出した各試合場の注目度に基づいて、モニタ装置500に表示する表示対象を選択する。注目度算出部360は、最も注目度の高い、すなわち、最も多くの観客が目視する試合場の映像信号を選択し、表示対象とする。
[Step S87] The attention level calculation unit 360 adds “1” to the spectator seat m and advances the process to Step S82.
[Step S88] The attention level calculation unit 360 selects a display target to be displayed on the monitor device 500 based on the attention level of each game field calculated from the visual target area of all the spectators. The attention level calculation unit 360 selects the video signal of the game field with the highest level of attention, that is, the game field viewed by the most spectators, and sets it as a display target.

上記の第2の実施の形態の映像表示システムは、観客の顔画像データ及び観客席画像データを解析して観客が目視している試合場を検出し、統計処理を行って最も注目されている試合場を選択することができる。このようにして選択された試合場の映像信号をモニタ装置に表示するので、最も多くの観客が注目する試合場の映像を表示することができる。   The video display system according to the second embodiment is most noticed by analyzing the spectator face image data and the spectator seat image data to detect the game field being viewed by the spectator and performing statistical processing. You can select a matchground. Since the video signal of the game field selected in this way is displayed on the monitor device, it is possible to display the video of the game field that attracts the most audience.

また、観客の前兆動作を検出し、前兆動作を検出した観客が目視する試合場の注目度に重み付けをすることにより、観客の一部が気付いた試合の決定的瞬間をモニタ画面に表示し、他の観客に提供することができる。スポーツ観戦では、観客の目視対象領域を統計処理し、多くの観客が目視してから表示を行うのでは、一部の観客が気付いた決定的瞬間を表示できない恐れがある。第2の実施の形態の映像表示システムによれば、観客の前兆動作を検出して表示に反映することにより、決定的瞬間をモニタ画面に表示することができる。   In addition, by detecting the sign motion of the spectator and weighting the attention level of the game field that the spectator who has detected the sign motion is observing, the decisive moment of the game noticed by a part of the spectator is displayed on the monitor screen, Can be provided to other audiences. In sports watching, if a spectator's visual target area is statistically processed and displayed after many spectators view, there is a possibility that a decisive moment noticed by some spectators cannot be displayed. According to the video display system of the second embodiment, a decisive moment can be displayed on the monitor screen by detecting the sign motion of the audience and reflecting it in the display.

[第3の実施の形態]
図12は、第3の実施の形態の映像表示システムの構成を示す図である。図2に示す第2の実施の形態の映像表示システムと同じものには同じ番号を付し、説明は省略する。
[Third Embodiment]
FIG. 12 is a diagram illustrating a configuration of a video display system according to the third embodiment. The same components as those in the video display system according to the second embodiment shown in FIG.

第3の実施の形態の映像表示システムは、第2の実施の形態の客席カメラ221,222を回転式客席カメラ240に置き換えている。また、回転式客席カメラ240の撮影した顔画像データを解析する画像解析装置380には、第2の実施の形態の画像解析装置300に回転式客席カメラ240の制御機能が付加されている。   In the video display system of the third embodiment, the passenger seat cameras 221 and 222 of the second embodiment are replaced with a rotary passenger seat camera 240. In addition, the image analysis device 380 that analyzes the face image data captured by the rotary passenger seat camera 240 has the control function of the rotary passenger seat camera 240 added to the image analysis device 300 of the second embodiment.

回転式客席カメラ240は、全ての観客席120の撮影が可能なように撮影部を回転させることができる。このような回転式客席カメラ240は、観客130の顔を観客130の正面から撮影することができる。複数台の客席カメラ221,222を用意することなく、1台の回転式客席カメラ240で全ての観客席120の観客130を撮影できるという利点がある。また、観客130と客席カメラ221,222との位置関係による観客130の顔画像の補正が必要なくなる。   The rotary audience camera 240 can rotate the imaging unit so that all the audience seats 120 can be imaged. Such a rotary audience camera 240 can photograph the face of the audience 130 from the front of the audience 130. There is an advantage that the spectators 130 of all the spectator seats 120 can be photographed by one rotary spectator camera 240 without preparing a plurality of spectator cameras 221 and 222. Further, it is not necessary to correct the face image of the audience 130 based on the positional relationship between the audience 130 and the audience seat cameras 221 and 222.

図13は、第3の実施の形態の映像表示システムの機能構成を示すブロック図である。図4に示す第2の実施の形態の映像表示システムと同じものには同じ番号を付し、説明は省略する。   FIG. 13 is a block diagram illustrating a functional configuration of the video display system according to the third embodiment. The same components as those in the video display system according to the second embodiment shown in FIG.

第3の実施の形態の映像表示システムの画像解析装置380は、第2の実施の形態の画像解析装置300に、客席カメラ制御部370が付加されている。客席カメラ制御部370は、前兆動作検出部310及び観客目視方向検出部320を実行する周期に合わせて回転速度を決定し、回転式客席カメラ240に指示する。また、客席カメラ制御部370は、回転式客席カメラ240による撮影時のブレを防ぐため、撮影時には回転式客席カメラ240の回転を停止させる制御を行う。   In the image analysis device 380 of the video display system according to the third embodiment, a passenger seat camera control unit 370 is added to the image analysis device 300 according to the second embodiment. The passenger camera control unit 370 determines the rotation speed in accordance with the period in which the precursor motion detection unit 310 and the spectator viewing direction detection unit 320 are executed, and instructs the rotary passenger camera 240. In addition, the passenger seat camera control unit 370 performs control to stop the rotation of the rotary passenger seat camera 240 during shooting in order to prevent blurring during shooting by the rotary passenger seat camera 240.

回転式客席カメラ240は、撮影方向変更部241と、撮影部242を有する。撮影方向変更部241は、客席カメラ制御部370からの指示にしたがって、撮影方向を変更する。撮影部242は、客席カメラ制御部370からの指示にしたがって、観客130を撮影する。なお、回転式客席カメラ240の代わりに、広角カメラを配置するとしてもよい。   The rotary passenger seat camera 240 includes a shooting direction changing unit 241 and a shooting unit 242. The shooting direction changing unit 241 changes the shooting direction according to an instruction from the passenger seat camera control unit 370. The photographing unit 242 photographs the spectator 130 in accordance with an instruction from the audience seat camera control unit 370. A wide-angle camera may be arranged instead of the rotary passenger seat camera 240.

[第4の実施の形態]
図14は、第4の実施の形態の映像表示システムの分割表示画面の一例を示す図である。第1〜3の実施の形態では、モニタ装置500に注目度の最も高い試合場の画面を表示したが、第4の実施の形態では、モニタ装置500に表示する画面を分割表示画面530とする。
[Fourth Embodiment]
FIG. 14 is a diagram illustrating an example of a split display screen of the video display system according to the fourth embodiment. In the first to third embodiments, the screen of the game field with the highest degree of attention is displayed on the monitor device 500. However, in the fourth embodiment, the screen displayed on the monitor device 500 is the split display screen 530. .

分割表示画面530は、最も表示領域の広い表示域A531と、表示領域が表示域A531より狭い表示域B532と、表示域C533と、を有する。
出力映像作成装置400の表示映像作成部410は、注目度算出部360が算出した各試合場の注目度を取得し、注目度に応じて分割表示画面530のレイアウトを決定する。
The split display screen 530 includes a display area A531 having the widest display area, a display area B532 whose display area is narrower than the display area A531, and a display area C533.
The display video creation unit 410 of the output video creation device 400 acquires the attention level of each game field calculated by the attention level calculation unit 360, and determines the layout of the divided display screen 530 according to the attention level.

表示映像作成部410は、最も広い表示域A531に表示する映像は、最も注目度が高い試合場の映像信号とする。表示映像作成部410は、表示域B532に表示する映像は2番目に注目度が高い試合場の映像信号とする。また、表示映像作成部410は、表示域C533に表示する映像は3番目に注目度が高い試合場の映像信号とする。   The display video creation unit 410 sets the video displayed in the widest display area A531 as the video signal of the game field with the highest degree of attention. The display video creation unit 410 sets the video displayed in the display area B532 as the video signal of the game field having the second highest degree of attention. In addition, the display video creation unit 410 sets the video displayed in the display area C533 as the video signal of the game field having the third highest degree of attention.

第4の実施の形態では、表示域A531、表示域B532及び表示域C533の面積を注目度に合わせて可変に設定する。表示映像作成部410は、表示域A531の映像信号の注目度(以下、注目度Aとする)と、表示域B532の映像信号の注目度(以下、注目度Bとする)と、表示域C533の映像信号の注目度(以下、注目度Cとする)と、に基づき、表示域A531の面積を次の式で求める。   In the fourth embodiment, the areas of the display area A531, the display area B532, and the display area C533 are variably set according to the degree of attention. The display video creation unit 410 includes a video signal attention level (hereinafter referred to as attention level A) in the display area A531, a video signal attention level (hereinafter referred to as attention level B) in the display area B532, and a display area C533. The area of the display area A531 is obtained by the following formula based on the attention level of the video signal (hereinafter referred to as attention level C).

表示域A=[A/(A+B+C)]×100[%]
なお、100%は、表示画面全体を表示域とした場合に相当する。このように表示域A531を算出することで、注目度の高い映像ほど広い表示域で表示することができるようになる。表示域B532及び表示域C533は、残った領域を分割した領域とする。表示域B532及び表示域C533の面積は次の式で求める。
Display area A = [A / (A + B + C)] × 100 [%]
Note that 100% corresponds to the case where the entire display screen is the display area. By calculating the display area A531 in this way, a video with a higher degree of attention can be displayed in a wider display area. The display area B532 and the display area C533 are areas obtained by dividing the remaining area. The areas of the display area B532 and the display area C533 are obtained by the following formula.

表示域B(表示域Cも同じ)=[(B+C)/(A+B+C)]×100÷2[%]
表示映像作成部410は、所定の周期で表示域の面積を更新する。表示映像作成部410は、例えば、表示域A531に表示する映像信号を切り替えるときなど、所定のタイミングで表示域の面積を更新するとしてもよい。
Display area B (same for display area C) = [(B + C) / (A + B + C)] × 100 ÷ 2 [%]
The display video creation unit 410 updates the area of the display area at a predetermined cycle. The display video creation unit 410 may update the area of the display area at a predetermined timing, for example, when switching the video signal to be displayed in the display area A531.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、映像表示装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM/RWなどがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the video display apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic storage device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Optical discs include DVD, DVD-RAM, CD-ROM / RW, and the like. Magneto-optical recording media include MO (Magneto-Optical disk).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.

また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC、PLD(Programmable Logic Device)などの電子回路で実現することもできる。   Further, at least a part of the above processing functions can be realized by an electronic circuit such as a DSP (Digital Signal Processor), an ASIC, or a PLD (Programmable Logic Device).

なお、本発明は上述した実施の形態そのままに限定されるものではなく、実施段階でのその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素を適宜組み合わせてもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせてもよい。このような、発明の趣旨を逸脱しない範囲内において種々の変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, all the constituent elements shown in the embodiment may be appropriately combined. Furthermore, constituent elements over different embodiments may be appropriately combined. Various modifications and applications are possible without departing from the spirit of the invention.

1,1a,1b 試合場
2 観客席領域
3 観客
3e 目視方向
10 映像表示装置
11 目視対象検出部
12 表示制御部
13 表示部
13a モニタ画面
31,32 第1撮像装置
40 第2撮像装置
50 位置検出装置
DESCRIPTION OF SYMBOLS 1,1a, 1b Game field 2 Audience seat area 3 Audience 3e Viewing direction 10 Video display apparatus 11 Visual object detection part 12 Display control part 13 Display part 13a Monitor screen 31, 32 1st imaging device 40 2nd imaging device 50 Position detection apparatus

Claims (7)

複数の対象領域それぞれに配置され、配置された前記対象領域を撮影する複数の第1撮像装置と、
前記複数の対象領域を観覧する観客の顔画像を撮影する第2撮像装置と、
前記観客の視点位置を検出する位置検出装置と、
前記観客の顔画像に基づいて当該観客の目視方向を検出し、前記観客の目視方向と、前記位置検出装置が検出した当該観客の視点位置情報と、前記複数の対象領域の位置情報に基づき、前記複数の対象領域のうち当該観客が目視している目視対象領域を検出する目視対象検出部と、前記複数の第1撮像装置のうち、前記目視対象領域に対応する前記第1撮像装置の撮影した映像を表示部に表示する表示制御部と、を備える映像表示装置と、
を有する映像表示システム。
A plurality of first imaging devices that are arranged in each of a plurality of target areas and shoot the arranged target areas;
A second imaging device that captures a face image of a spectator viewing the plurality of target areas;
A position detection device for detecting the viewpoint position of the audience;
Detecting the viewing direction of the audience based on the face image of the audience, based on the viewing direction of the audience, the viewpoint position information of the audience detected by the position detection device, and the position information of the plurality of target areas, A visual target detection unit that detects a visual target area that the spectator is viewing from among the plurality of target areas, and among the plurality of first imaging devices, imaging of the first imaging device corresponding to the visual target area. A video display device comprising: a display control unit that displays the video that has been displayed on the display unit;
A video display system.
前記目視対象検出部は、前記複数の観客について検出した前記目視対象領域に基づいて、前記目視対象領域ごと当該目視対象領域を目視する観客数に応じた注目度を算出し、前記注目度に基づいて前記表示部に表示する前記目視対象領域を選択する、
請求項1記載の映像表示システム。
The visual target detection unit calculates a degree of attention according to the number of spectators viewing the visual target area for each visual target area based on the visual target areas detected for the plurality of spectators, and based on the attention level Selecting the visual target area to be displayed on the display unit,
The video display system according to claim 1.
前記映像表示装置は、
前記観客が興味を引く事象を目視したときの動作を検出する動作検出部を有し、
前記目視対象検出部は、前記動作が検出された観客が目視する前記目視対象領域の注目度を前記動作が検出されなかった観客が目視する前記目視対象領域の注目度より高くする重み付けを行って前記注目度を算出する、
請求項2記載の映像表示システム。
The video display device
An operation detection unit for detecting an operation when the audience is visually interested in an event,
The visual object detection unit performs weighting such that the degree of attention of the visual target area viewed by the audience in which the motion is detected is higher than the degree of attention of the visual target area observed by the audience in which the motion is not detected. Calculating the degree of attention;
The video display system according to claim 2.
前記動作検出部は、前記顔画像に基づいて当該観客の瞳孔の大きさを検出し、記憶部に記憶する前記観客について過去に検出された瞳孔の大きさと比較し、前記瞳孔の大きさに変化があったとき、前記観客が興味を引く事象を目視したと推定する、
請求項3記載の映像表示システム。
The motion detection unit detects the size of the pupil of the spectator based on the face image, compares with the size of the pupil detected in the past for the spectator stored in the storage unit, and changes to the size of the pupil When there is, it is presumed that the audience visually observed an event that attracts interest.
The video display system according to claim 3.
前記位置検出装置は、第3撮像装置が、予め位置が決められた観客席を上方から撮影した客席画像を取得し、前記客席画像に基づいて前記観客席に観客が着席しているか否かを判定し、前記観客席ごとに予め定義された位置座標に基づき、前記観客席に着席する観客の前記視点位置情報を生成する、
請求項1記載の映像表示システム。
In the position detection device, the third imaging device acquires a seat image obtained by photographing a spectator seat whose position is determined in advance from above, and whether or not a spectator is seated in the spectator seat based on the seat image. Determining and generating the viewpoint position information of a spectator seated in the spectator seat based on position coordinates defined in advance for each spectator seat;
The video display system according to claim 1.
前記第2撮像装置は、前記対象領域の周囲に設けられた観客席を撮影する回転式客席カメラであって、前記撮影部を回転させて前記観客席の観客を正面から撮影する、
請求項1記載の映像表示システム。
The second imaging device is a rotary audience camera that photographs a spectator seat provided around the target area, and photographs the audience in the spectator seat from the front by rotating the imaging section.
The video display system according to claim 1.
コンピュータが、
対象領域それぞれに配置され、配置された前記対象領域を撮影する複数の第1撮像装置の撮影した映像と、前記複数の対象領域を観覧する観客の顔画像を撮影する第2撮像装置の撮影した前記観客の顔画像と、位置検出装置の検出した前記観客の視点位置情報と、を取得し、
前記観客の顔画像に基づいて当該観客の目視方向を検出し、前記観客の目視方向と、当該観客の前記視点位置情報と、前記複数の対象領域の位置情報とに基づき、前記複数の対象領域のうち、当該観客が目視している目視対象領域を検出し、
前記複数の第1撮像装置のうち、前記目視対象領域に対応する前記第1撮像装置の撮影した映像を表示部に表示する、
処理を実行する映像表示方法。
Computer
Images taken by a plurality of first imaging devices that are arranged in each of the target regions and photograph the arranged target regions, and a second imaging device that photographs a face image of a spectator viewing the plurality of target regions. Obtaining the audience face image and the viewpoint position information of the audience detected by the position detection device;
Detecting the viewing direction of the audience based on the face image of the audience, and based on the viewing direction of the audience, the viewpoint position information of the audience, and position information of the plurality of target areas, Among them, the visual target area that the audience is viewing is detected,
Displaying a video captured by the first imaging device corresponding to the viewing target region on the display unit among the plurality of first imaging devices;
A video display method for executing processing.
JP2016074101A 2016-04-01 2016-04-01 Video display system and video display method Pending JP2017188715A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016074101A JP2017188715A (en) 2016-04-01 2016-04-01 Video display system and video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016074101A JP2017188715A (en) 2016-04-01 2016-04-01 Video display system and video display method

Publications (1)

Publication Number Publication Date
JP2017188715A true JP2017188715A (en) 2017-10-12

Family

ID=60046592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016074101A Pending JP2017188715A (en) 2016-04-01 2016-04-01 Video display system and video display method

Country Status (1)

Country Link
JP (1) JP2017188715A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020005147A (en) * 2018-06-28 2020-01-09 株式会社リコー Information processing apparatus, movable body, remote control system, information processing method, and program
CN111328399A (en) * 2018-04-27 2020-06-23 深圳市大疆创新科技有限公司 Control device and photographing method
JPWO2019078248A1 (en) * 2017-10-17 2020-11-19 株式会社ニコン Control devices, control systems, and control programs
CN113784149A (en) * 2021-09-10 2021-12-10 咪咕数字传媒有限公司 Method, device and equipment for displaying hot region of video signal
WO2022004569A1 (en) * 2020-07-01 2022-01-06 富士フイルム株式会社 Image data processing device and system
WO2023276279A1 (en) * 2021-07-02 2023-01-05 ソニーグループ株式会社 Image processing device, image processing method, and program
CN118488189A (en) * 2023-12-01 2024-08-13 泰安市广播电视台 Video communication method and system based on television broadcasting

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282921A (en) * 1998-03-31 1999-10-15 Nippon Telegr & Teleph Corp <Ntt> Sensitivity information acquiring method and systematic device
JP2002369061A (en) * 2001-06-05 2002-12-20 Mitsubishi Electric Corp Image pickup device, image pickup display system, image pickup method and image pickup display method
JP2003244728A (en) * 2002-02-15 2003-08-29 Mitsubishi Heavy Ind Ltd Virtual image creating apparatus and virtual image creating method
JP2006119408A (en) * 2004-10-22 2006-05-11 Sony Corp Video display method and device
JP2006185248A (en) * 2004-12-28 2006-07-13 Canon Marketing Japan Inc Photographed image sales system, site server, program, and recording medium
JP2007104091A (en) * 2005-09-30 2007-04-19 Fujifilm Corp Image selection apparatus, program, and method
JP2007142896A (en) * 2005-11-18 2007-06-07 Fujitsu Ltd Spectator's picture offering system, photography camera controller, and program
WO2007145331A1 (en) * 2006-06-16 2007-12-21 Pioneer Corporation Camera control apparatus, camera control method, camera control program, and recording medium
JP2008005208A (en) * 2006-06-22 2008-01-10 Nec Corp Camera automatic control system for athletics, camera automatic control method, camera automatic control unit, and program
JP2009272970A (en) * 2008-05-09 2009-11-19 Nippon Hoso Kyokai <Nhk> Sports video transmission apparatus
JP2010081260A (en) * 2008-09-25 2010-04-08 Casio Computer Co Ltd Imaging apparatus and program therefor
JP2010157906A (en) * 2008-12-26 2010-07-15 Canon Inc Video display device
JP2011217202A (en) * 2010-03-31 2011-10-27 Saxa Inc Image capturing apparatus
JP2012196279A (en) * 2011-03-18 2012-10-18 Waseda Univ Attention degree detecting system, attention degree determination device, program for attention degree determination device, and image delivery system
JP2013065962A (en) * 2011-09-15 2013-04-11 Toshiba Corp Image operation system
JP2015209155A (en) * 2014-04-28 2015-11-24 矢崎総業株式会社 Seat belt device and seat belt system

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282921A (en) * 1998-03-31 1999-10-15 Nippon Telegr & Teleph Corp <Ntt> Sensitivity information acquiring method and systematic device
JP2002369061A (en) * 2001-06-05 2002-12-20 Mitsubishi Electric Corp Image pickup device, image pickup display system, image pickup method and image pickup display method
JP2003244728A (en) * 2002-02-15 2003-08-29 Mitsubishi Heavy Ind Ltd Virtual image creating apparatus and virtual image creating method
JP2006119408A (en) * 2004-10-22 2006-05-11 Sony Corp Video display method and device
JP2006185248A (en) * 2004-12-28 2006-07-13 Canon Marketing Japan Inc Photographed image sales system, site server, program, and recording medium
JP2007104091A (en) * 2005-09-30 2007-04-19 Fujifilm Corp Image selection apparatus, program, and method
JP2007142896A (en) * 2005-11-18 2007-06-07 Fujitsu Ltd Spectator's picture offering system, photography camera controller, and program
WO2007145331A1 (en) * 2006-06-16 2007-12-21 Pioneer Corporation Camera control apparatus, camera control method, camera control program, and recording medium
JP2008005208A (en) * 2006-06-22 2008-01-10 Nec Corp Camera automatic control system for athletics, camera automatic control method, camera automatic control unit, and program
JP2009272970A (en) * 2008-05-09 2009-11-19 Nippon Hoso Kyokai <Nhk> Sports video transmission apparatus
JP2010081260A (en) * 2008-09-25 2010-04-08 Casio Computer Co Ltd Imaging apparatus and program therefor
JP2010157906A (en) * 2008-12-26 2010-07-15 Canon Inc Video display device
JP2011217202A (en) * 2010-03-31 2011-10-27 Saxa Inc Image capturing apparatus
JP2012196279A (en) * 2011-03-18 2012-10-18 Waseda Univ Attention degree detecting system, attention degree determination device, program for attention degree determination device, and image delivery system
JP2013065962A (en) * 2011-09-15 2013-04-11 Toshiba Corp Image operation system
JP2015209155A (en) * 2014-04-28 2015-11-24 矢崎総業株式会社 Seat belt device and seat belt system

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11575825B2 (en) 2017-10-17 2023-02-07 Nikon Corporation Control apparatus, control system, and control program
JPWO2019078248A1 (en) * 2017-10-17 2020-11-19 株式会社ニコン Control devices, control systems, and control programs
EP3713211A4 (en) * 2017-10-17 2021-10-06 Nikon Corporation Control apparatus, control system, and control program
JP7375542B2 (en) 2017-10-17 2023-11-08 株式会社ニコン Control devices, control systems, and control programs
CN111328399A (en) * 2018-04-27 2020-06-23 深圳市大疆创新科技有限公司 Control device and photographing method
JP7400882B2 (en) 2018-06-28 2023-12-19 株式会社リコー Information processing device, mobile object, remote control system, information processing method and program
JP2022141639A (en) * 2018-06-28 2022-09-29 株式会社リコー Information processing apparatus, movable body, remote control system, information processing method, and program
JP7091880B2 (en) 2018-06-28 2022-06-28 株式会社リコー Information processing equipment, mobiles, remote control systems, information processing methods and programs
JP2020005147A (en) * 2018-06-28 2020-01-09 株式会社リコー Information processing apparatus, movable body, remote control system, information processing method, and program
WO2022004569A1 (en) * 2020-07-01 2022-01-06 富士フイルム株式会社 Image data processing device and system
JP7436668B2 (en) 2020-07-01 2024-02-21 富士フイルム株式会社 Image data processing device and system
WO2023276279A1 (en) * 2021-07-02 2023-01-05 ソニーグループ株式会社 Image processing device, image processing method, and program
CN113784149A (en) * 2021-09-10 2021-12-10 咪咕数字传媒有限公司 Method, device and equipment for displaying hot region of video signal
CN113784149B (en) * 2021-09-10 2023-09-19 咪咕数字传媒有限公司 Method, device and equipment for displaying heat region of video signal
CN118488189A (en) * 2023-12-01 2024-08-13 泰安市广播电视台 Video communication method and system based on television broadcasting

Similar Documents

Publication Publication Date Title
JP2017188715A (en) Video display system and video display method
US11709545B2 (en) Gaze detection method and apparatus
US11006089B2 (en) Information processing apparatus and information processing method
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US20120133754A1 (en) Gaze tracking system and method for controlling internet protocol tv at a distance
CN109154862B (en) Apparatus, method, and computer-readable medium for processing virtual reality content
US11244423B2 (en) Image processing apparatus, image processing method, and storage medium for generating a panoramic image
US20210233314A1 (en) Systems, Methods, and Media for Automatically Triggering Real-Time Visualization of Physical Environment in Artificial Reality
US20210012559A1 (en) Multi line trace gaze to object mapping for determining gaze focus targets
US11521346B2 (en) Image processing apparatus, image processing method, and storage medium
US10657703B2 (en) Image processing apparatus and image processing method
JP2024001268A (en) Control apparatus
US20180089842A1 (en) Image processing apparatus, image processing method, and storage medium
JP2017192114A5 (en)
JP2020191590A (en) Image processing device, system, control method of image processing device, and program
CN107667522A (en) Adjust the length of live image
KR20160068281A (en) Method of object recognition
US9767564B2 (en) Monitoring of object impressions and viewing patterns
TW201222422A (en) Method and arrangement for identifying virtual visual information in images
JP2017028688A (en) Image managing device, image managing method and program
US11778155B2 (en) Image processing apparatus, image processing method, and storage medium
JP7332047B2 (en) Tracking Devices, Tracking Systems, Tracking Methods, and Programs
US20230410417A1 (en) Information processing apparatus, information processing method, and storage medium
US10482641B2 (en) Virtual reality display
US20230334767A1 (en) Image processing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191001