[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5026692B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5026692B2
JP5026692B2 JP2005347602A JP2005347602A JP5026692B2 JP 5026692 B2 JP5026692 B2 JP 5026692B2 JP 2005347602 A JP2005347602 A JP 2005347602A JP 2005347602 A JP2005347602 A JP 2005347602A JP 5026692 B2 JP5026692 B2 JP 5026692B2
Authority
JP
Japan
Prior art keywords
image
screen
display content
group
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005347602A
Other languages
Japanese (ja)
Other versions
JP2007151647A (en
Inventor
智一 掛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2005347602A priority Critical patent/JP5026692B2/en
Priority to US11/600,017 priority patent/US20070126874A1/en
Publication of JP2007151647A publication Critical patent/JP2007151647A/en
Application granted granted Critical
Publication of JP5026692B2 publication Critical patent/JP5026692B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は画像処理装置、画像処理方法及びプログラムに関し、特にユーザの動画像を含む画面を表示する画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly, to an image processing apparatus, an image processing method, and a program that display a screen including a moving image of a user.

下記特許文献1には、コンピュータで作成した画像にユーザの動画像を合成し、ユーザの動画像の内容に基づいて画面表示を制御する画像処理装置が開示されている。この画像処理装置によれば、コンピュータで作成した画像中の登場人物のようにユーザを演出することができ、ゲームソフト等の面白さを倍加させることができる。
特許第3298870号公報
Patent Document 1 below discloses an image processing apparatus that synthesizes a moving image of a user with an image created by a computer and controls screen display based on the content of the moving image of the user. According to this image processing apparatus, a user can be produced like a character in an image created by a computer, and the fun of game software and the like can be doubled.
Japanese Patent No. 3298870

しかしながら、上記背景技術は、1のカメラで撮影された1人のユーザの動画像を、コンピュータで作成した画像の固定された位置に合成するものであり、2以上のカメラで撮影される画像を用いて画面表示を制御することができない。このため、複数のユーザによるゲームやコミュニケーションに適用することが困難であるという問題があった。   However, the above-mentioned background art is to synthesize a moving image of one user photographed by one camera at a fixed position of an image created by a computer, and images taken by two or more cameras. Cannot be used to control the screen display. For this reason, there was a problem that it was difficult to apply to a game and communication by a plurality of users.

本発明は上記課題に鑑みてなされたものであって、その目的は、2以上のカメラの各々により撮影される画像を用いて画面表示を制御することができる画像処理装置、画像処理方法及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of controlling screen display using images captured by each of two or more cameras. Is to provide.

上記課題を解決するために、本発明に係る画像処理装置は、2以上のカメラの各々により撮影された画像を所定時間毎に取得する画像取得手段と、前記画像取得手段により前記所定時間毎に取得される前記各画像を画面に順次表示する画像表示手段と、前記画像取得手段により取得される、前記2のカメラにより撮影された前記各画像の関係に基づいて、前記画面の表示内容を制御する表示内容制御手段と、を含むことを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention includes an image acquisition unit that acquires an image captured by each of two or more cameras every predetermined time, and the image acquisition unit that performs the predetermined time interval. The display content of the screen is controlled based on the relationship between the image display means for sequentially displaying the acquired images on the screen and the images acquired by the two cameras acquired by the image acquisition means. Display content control means.

また、本発明に係る画像処理方法は、2以上のカメラの各々により撮影された画像を所定時間毎に取得する画像取得ステップと、前記画像取得ステップで前記所定時間毎に取得される前記各画像を画面に順次表示する画像表示ステップと、前記画像取得ステップで取得される、前記2のカメラにより撮影された前記各画像の関係に基づいて、前記画面の表示内容を制御する表示内容制御ステップと、を含むことを特徴とする。   In addition, the image processing method according to the present invention includes an image acquisition step of acquiring an image captured by each of two or more cameras every predetermined time, and each of the images acquired every predetermined time in the image acquisition step. An image display step for sequentially displaying the image on the screen, and a display content control step for controlling the display content on the screen based on the relationship between the images captured by the two cameras acquired in the image acquisition step. , Including.

また、本発明に係るプログラムは、2以上のカメラの各々により撮影された画像を所定時間毎に取得する画像取得手段、前記画像取得手段により前記所定時間毎に取得される前記各画像を画面に順次表示する画像表示手段、及び前記画像取得手段により取得される、前記2のカメラにより撮影された前記各画像の関係に基づいて、前記画面の表示内容を制御する表示内容制御手段として、例えば家庭用ゲーム機、携帯用ゲーム機、業務用ゲーム機、パーソナルコンピュータ、サーバコンピュータ、携帯電話機、携帯情報端末等のコンピュータを機能させるためのプログラムである。このプログラムは、例えばDVD−ROM、CD−ROM、ROMカートリッジ等のコンピュータ読み取り可能な情報記憶媒体に格納されてよい。   In addition, the program according to the present invention provides an image acquisition unit that acquires an image captured by each of two or more cameras every predetermined time, and the images acquired every predetermined time by the image acquisition unit are displayed on a screen. Image display means for sequentially displaying, and display content control means for controlling the display content of the screen based on the relationship between the images acquired by the two cameras acquired by the image acquisition means. Game machine, portable game machine, arcade game machine, personal computer, server computer, mobile phone, portable information terminal, etc. This program may be stored in a computer-readable information storage medium such as a DVD-ROM, a CD-ROM, or a ROM cartridge.

本発明によれば、2以上のカメラの各々により撮影された画像が所定時間毎に取得され、画面に表示される。そして、その表示内容は、それらカメラのうち2つにより撮影された画像の関係に基づいて制御される。この結果、各カメラにより撮影される内容に応じて画面の表示内容を変化させることができ、複数のユーザによるゲームやコミュニケーションに好適に適用することができるようになる。   According to the present invention, images taken by each of two or more cameras are acquired every predetermined time and displayed on the screen. The display content is controlled based on the relationship between images taken by two of the cameras. As a result, the display content of the screen can be changed according to the content photographed by each camera, and can be suitably applied to games and communication by a plurality of users.

なお、前記表示内容制御手段は、前記画像取得手段により取得される、前記2のカメラにより撮影された前記各画像の内容の関係又は該画像に写された被写体の動きの関係に基づいて、前記画面の表示内容を制御するようにしてもよい。この構成によると、例えば各カメラの前でユーザが同じ或いは類似のポーズをとったり、特定の動作を行ったり、そのタイミングを調整したり、或いは特定の物を各カメラで写したりすることで、画面の表示内容を任意に変化させることができるようになる。   The display content control means is based on the relationship between the contents of the images taken by the two cameras or the movement of the subject imaged in the images, which is acquired by the image acquisition means. You may make it control the display content of a screen. According to this configuration, for example, the user can pose the same or similar pose in front of each camera, perform a specific operation, adjust the timing, or copy a specific object with each camera. The display content of can be changed arbitrarily.

この場合、前記表示内容制御手段は、前記2のカメラにより撮影された前記各画像の内容の相違を示す画像を生成するとともに、該画像に基づいて、前記画面の表示内容を制御するようにしてもよい。前記相違を示す画像は、前記画像取得手段により異なる時刻に取得されて前記画面に表示される、前記2のカメラにより撮影された前記各画像の内容の相違を示すものであってよい。或いは、前記画像取得手段により同じ時刻に取得されて前記画面に表示される、前記2のカメラにより撮影された前記各画像の内容の相違を示すものであってもよい。   In this case, the display content control means generates an image showing the difference in content of each image taken by the two cameras, and controls the display content of the screen based on the image. Also good. The image indicating the difference may indicate a difference in contents of the images captured by the two cameras that are acquired at different times by the image acquisition unit and displayed on the screen. Alternatively, it may indicate the difference between the contents of the images captured by the two cameras that are acquired at the same time by the image acquisition means and displayed on the screen.

また、前記表示内容制御手段は、前記画像取得手段により取得される、前記2のカメラにより撮影された前記各画像に写された被写体の動きの方向が所定関係にあるか否かに応じて、前記画面の表示内容を制御するようにしてもよい。こうすれば、各カメラの前で被写体が特定の方向の動きをすることで画面の表示内容を変化させることができる。   In addition, the display content control unit is acquired by the image acquisition unit, depending on whether or not the direction of movement of the subject captured in each of the images captured by the two cameras is in a predetermined relationship, You may make it control the display content of the said screen. In this way, the display content of the screen can be changed by moving the subject in a specific direction in front of each camera.

以下、本発明の実施形態について図面に基づき詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係るエンタテインメントシステム(画像処理装置)を用いて構成されたネットワークシステムの構成図である。同図に示すように、このシステムはインターネットやLAN等のネットワーク50に接続された複数のエンタテインメントシステム10からなる。各エンタテインメントシステム10は、ユーザの動画像を撮影するカメラユニット46が接続されたコンピュータを含んで構成されており、ネットワーク50を介してユーザの動画像を示すデータを授受することで、各エンタテインメントシステム10において、多数のユーザの動画像が含まれる共通の画面を表示させることができるようになっている。   FIG. 1 is a configuration diagram of a network system configured using an entertainment system (image processing apparatus) according to the present embodiment. As shown in the figure, this system comprises a plurality of entertainment systems 10 connected to a network 50 such as the Internet or a LAN. Each entertainment system 10 includes a computer to which a camera unit 46 that captures a user's moving image is connected. Each entertainment system 10 receives and transmits data indicating the user's moving image via the network 50. 10, a common screen including a large number of users' moving images can be displayed.

図2は、本実施形態に係るエンタテインメントシステム(画像処理装置)のハードウェア構成を示す図である。同図に示すように、エンタテインメントシステム10は、MPU(Micro Processing Unit)11と、メインメモリ20と、画像処理部24と、モニタ26と、入出力処理部28と、音声処理部30と、スピーカ32と、光ディスク読み取り部34と、光ディスク36と、ハードディスク38と、インタフェース(I/F)40,44と、コントローラ42と、カメラユニット46と、ネットワークインタフェース48と、を含んで構成されるコンピュータシステムである。   FIG. 2 is a diagram illustrating a hardware configuration of the entertainment system (image processing apparatus) according to the present embodiment. As shown in the figure, the entertainment system 10 includes an MPU (Micro Processing Unit) 11, a main memory 20, an image processing unit 24, a monitor 26, an input / output processing unit 28, an audio processing unit 30, and a speaker. 32, an optical disk reading unit 34, an optical disk 36, a hard disk 38, interfaces (I / F) 40, 44, a controller 42, a camera unit 46, and a network interface 48. It is.

図3は、MPU11の構成を示す図である。同図に示すように、MPU11は、メインプロセッサ12と、サブプロセッサ14a〜14hと、バス16と、メモリコントローラ18と、インタフェース(I/F)22と、を含んで構成される。   FIG. 3 is a diagram showing the configuration of the MPU 11. As shown in the figure, the MPU 11 includes a main processor 12, sub processors 14a to 14h, a bus 16, a memory controller 18, and an interface (I / F) 22.

メインプロセッサ12は、図示しないROM(Read Only Memory)に記憶されるオペレーティングシステム、例えばDVD(Digital Versatile Disk)−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて、各種情報処理を行ったり、サブプロセッサ14a〜14hに対する制御を行ったりする。   The main processor 12 is an operating system stored in a ROM (Read Only Memory) (not shown), for example, a program and data read from an optical disc 36 such as a DVD (Digital Versatile Disk) -ROM, and a program supplied via a communication network. Based on the data and the like, various information processing is performed, and the sub processors 14a to 14h are controlled.

サブプロセッサ14a〜14hは、メインプロセッサ12からの指示に従って、各種情報処理を行ったり、エンタテインメントシステム10の各部を、例えばDVD−ROM等の光ディスク36から読み出されるプログラム及びデータや、ネットワーク50を介して供給されるプログラム及びデータ等に基づいて制御したりする。   The sub-processors 14 a to 14 h perform various types of information processing according to instructions from the main processor 12, and each unit of the entertainment system 10 is read from the optical disk 36 such as a DVD-ROM or the like via the network 50. Control based on supplied programs and data.

バス16は、アドレス及びデータをエンタテインメントシステム10の各部でやり取りするためのものである。メインプロセッサ12、サブプロセッサ14a〜14h、メモリコントローラ18、インタフェース22は、バス16を介して相互にデータ授受可能に接続される。   The bus 16 is used for exchanging addresses and data among the various parts of the entertainment system 10. The main processor 12, the sub processors 14a to 14h, the memory controller 18, and the interface 22 are connected to each other via the bus 16 so as to be able to exchange data.

メモリコントローラ18は、メインプロセッサ12及びサブプロセッサ14a〜14hからの指示に従って、メインメモリ20へのアクセスを行う。   The memory controller 18 accesses the main memory 20 in accordance with instructions from the main processor 12 and the sub processors 14a to 14h.

メインメモリ20には、光ディスク36やハードディスク38から読み出されたプログラム及びデータや、通信ネットワークを介して供給されたプログラム及びデータが必要に応じて書き込まれる。メインメモリ20はメインプロセッサ12やサブプロセッサ14a〜14hの作業用としても用いられる。   Programs and data read from the optical disk 36 and the hard disk 38 and programs and data supplied via the communication network are written into the main memory 20 as necessary. The main memory 20 is also used for work of the main processor 12 and the sub processors 14a to 14h.

インタフェース22には画像処理部24及び入出力処理部28が接続される。メインプロセッサ12及びサブプロセッサ14a〜14hと、画像処理部24又は入出力処理部28と、の間のデータ授受はインタフェース22を介して行われる。   An image processing unit 24 and an input / output processing unit 28 are connected to the interface 22. Data exchange between the main processor 12 and the sub processors 14 a to 14 h and the image processing unit 24 or the input / output processing unit 28 is performed via the interface 22.

画像処理部24は、GPU(Graphical Processing Unit)とフレームバッファとを含んで構成される。GPUは、メインプロセッサ12やサブプロセッサ14a〜14hから供給される画像データに基づいてフレームバッファに各種画面を描画する。フレームバッファに形成された画面は、所定のタイミングでビデオ信号に変換されてモニタ26に出力される。なお、モニタ26には例えば家庭用テレビ受像機が用いられる。   The image processing unit 24 includes a GPU (Graphical Processing Unit) and a frame buffer. The GPU renders various screens in the frame buffer based on the image data supplied from the main processor 12 and the sub processors 14a to 14h. The screen formed in the frame buffer is converted into a video signal at a predetermined timing and output to the monitor 26. As the monitor 26, for example, a home television receiver is used.

入出力処理部28には、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44が接続される。入出力処理部28は、メインプロセッサ12及びサブプロセッサ14a〜14hと、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44、ネットワークインタフェース48と、の間のデータ授受を制御する。   An audio processing unit 30, an optical disk reading unit 34, a hard disk 38, and interfaces 40 and 44 are connected to the input / output processing unit 28. The input / output processing unit 28 controls data exchange between the main processor 12 and the sub processors 14 a to 14 h, the audio processing unit 30, the optical disk reading unit 34, the hard disk 38, the interfaces 40 and 44, and the network interface 48.

音声処理部30は、SPU(Sound Processing Unit)とサウンドバッファとを含んで構成される。サウンドバッファには、光ディスク40やハードディスク38から読み出されたゲーム音楽、ゲーム効果音やメッセージなどの各種音声データが記憶される。SPUは、これらの各種音声データを再生してスピーカ32から出力させる。なお、スピーカ32には例えば家庭用テレビ受像機の内蔵スピーカが用いられる。   The sound processing unit 30 includes an SPU (Sound Processing Unit) and a sound buffer. The sound buffer stores various audio data such as game music, game sound effects and messages read from the optical disc 40 and the hard disk 38. The SPU reproduces these various audio data and outputs them from the speaker 32. As the speaker 32, for example, a built-in speaker of a home television receiver is used.

光ディスク読み取り部34は、メインプロセッサ12及びサブプロセッサ14a〜14hからの指示に従って、光ディスク36に記憶されたプログラムやデータを読み取る。なお、エンタテインメントシステム10は、光ディスク36以外の他の情報記憶媒体に記憶されたプログラムやデータを読み取り可能に構成してもよい。   The optical disk reading unit 34 reads programs and data stored on the optical disk 36 in accordance with instructions from the main processor 12 and the sub processors 14a to 14h. Note that the entertainment system 10 may be configured to be able to read programs and data stored in information storage media other than the optical disk 36.

光ディスク36は例えばDVD−ROM等の一般的な光ディスク(コンピュータ読み取り可能な情報記憶媒体)である。また、ハードディスク38は一般的なハードディスク装置である。光ディスク36やハードディスク38には各種プログラムやデータがコンピュータ読み取り可能に記憶される。   The optical disk 36 is a general optical disk (computer-readable information storage medium) such as a DVD-ROM. The hard disk 38 is a general hard disk device. Various programs and data are stored in the optical disk 36 and the hard disk 38 so as to be readable by a computer.

インタフェース(I/F)40,44は、コントローラ42やカメラユニット46等の各種周辺機器を接続するためのインタフェースである。このようなインタフェースとしては、例えばUSB(Universal Serial Bus)インタフェースが用いられる。   The interfaces (I / F) 40 and 44 are interfaces for connecting various peripheral devices such as the controller 42 and the camera unit 46. For example, a USB (Universal Serial Bus) interface is used as such an interface.

コントローラ42は汎用操作入力手段であり、ユーザが各種操作(例えばゲーム操作)を入力するために用いられる。入出力処理部28は、所定時間(例えば1/60秒)ごとにコントローラ42の各部の状態をスキャンし、その結果を表す操作信号をメインプロセッサ12やサブプロセッサ14a〜14hに供給する。メインプロセッサ12やサブプロセッサ14a〜14hは、ユーザによって行われた操作の内容をその操作信号に基づいて判断する。なお、エンタテインメントシステム10は複数のコントローラ42を接続可能に構成されており、各コントローラ42から入力される操作信号に基づいて、メインプロセッサ12やサブプロセッサ14a〜14hが各種処理を実行するようになっている。   The controller 42 is general-purpose operation input means, and is used by the user to input various operations (for example, game operations). The input / output processing unit 28 scans the state of each unit of the controller 42 every predetermined time (for example, 1/60 seconds), and supplies an operation signal representing the result to the main processor 12 and the sub processors 14a to 14h. The main processor 12 and the sub processors 14a to 14h determine the content of the operation performed by the user based on the operation signal. The entertainment system 10 is configured to be able to connect a plurality of controllers 42, and the main processor 12 and the sub processors 14a to 14h execute various processes based on operation signals input from the controllers 42. ing.

カメラユニット46は、例えば公知のデジタルカメラを含んで構成され、白黒、グレイスケール又はカラーの撮影画像を所定時間(例えば1/60秒)ごとに入力する。本実施の形態におけるカメラユニット46は、撮影画像をJPEG(Joint Photographic Experts Group)形式の画像データとして入力するようになっている。また、カメラユニット46は、例えばレンズをプレイヤに向けた状態でモニタ26の上に設置され、ケーブルを介してインタフェース44に接続される。ネットワークインタフェース48は入出力処理部28とネットワーク50とに接続されており、エンタテインメントシステム10がネットワーク50を介して他のエンタテインメントシステム10とデータ通信するのを中継するようになっている。   The camera unit 46 includes, for example, a known digital camera, and inputs black and white, grayscale, or color photographed images every predetermined time (for example, 1/60 seconds). The camera unit 46 in the present embodiment is configured to input a captured image as image data in JPEG (Joint Photographic Experts Group) format. The camera unit 46 is installed on the monitor 26 with the lens facing the player, for example, and is connected to the interface 44 via a cable. The network interface 48 is connected to the input / output processing unit 28 and the network 50, and relays data communication between the entertainment system 10 and other entertainment systems 10 via the network 50.

図4は、本実施形態に係る1つのエンタテインメントシステム10において、モニタ26に表示される画面を示している。同図に示すように、モニタ26に表示される画面には、ネットワーク50を介して通信接続された他のエンタテインメントシステム10において撮影され、そこから所定時間毎に送信される他のユーザの画像(動画像)、及び当該モニタ26とともにエンタテインメントシステム10に接続されたカメラユニット46により撮影され、所定時間毎に取得されるユーザの画像(動画像)が(同図では合計16の動画像)含まれている。各ユーザの画像は縦横に整列されており、一目でどのユーザがどのポーズ(姿勢)で写っているかが分かるようになっている。本実施形態では、これら複数の画像の中に所定の関係を有するペアがあるか否かを判定し、その判定結果に応じて、モニタ26に表示される画面にエフェクトを付加するようになっている。すなわち、エンタテインメントシステム10では、自機のカメラユニット46及び他機のカメラユニット46で撮影された複数のユーザの画像の中から、同じ或いは類似のポーズで写っているものがあるかを判定して、そのようなものがあれば、画面にエフェクトを追加するようにしている。   FIG. 4 shows a screen displayed on the monitor 26 in one entertainment system 10 according to the present embodiment. As shown in the figure, the screen displayed on the monitor 26 is captured by another entertainment system 10 connected via a network 50 and transmitted from the other user at predetermined time intervals ( Moving images), and the user's images (moving images) taken every predetermined time and captured by the camera unit 46 connected to the entertainment system 10 together with the monitor 26 (total of 16 moving images in the figure). ing. The images of each user are aligned vertically and horizontally so that it can be seen at a glance which user is in which pose (posture). In the present embodiment, it is determined whether or not there is a pair having a predetermined relationship among the plurality of images, and an effect is added to the screen displayed on the monitor 26 according to the determination result. Yes. In other words, the entertainment system 10 determines whether there are images of the same or similar pose among a plurality of user images taken by the camera unit 46 of the own device and the camera unit 46 of the other device. If there is something like that, I try to add effects to the screen.

図5は、エフェクトが付加された画面の一例を示している。同図に示すように、エフェクトが付加されると、各ユーザの画像の位置は、エフェクトが付加されていない場合の位置(図4参照)から移動するようになっている。また、エフェクト用の画像や文字も追加で表示されるようになっている。図5の場合は、中央に相対的に大きく表示されている2個のユーザ画像は、同じ或いは類似のポーズで写っているか、同じ又は類似の動きをしているので、エフェクトが付加されている例である。ここで、完全に一致しない場合であっても、画像の類似度によって画面中心からの位置を変化させてもよい。例えば、片手を挙げているポーズに対して完全一致するポーズは画面中心に、両手を挙げているポーズは画面中心から少し離れて、両手を下ろしている場合は画面中心からさらに離して表示する。つまり、画像間の類似度を2次元又は3次元の空間的な距離に変換し、それに応じて配置パターンを制御する。画像間の類似度を距離に変換し、それを空間(2次元、3次元)に表示することで、どれくらい異なっているか視認できるようになる。また、距離だけでなく、画像が配置される場所(画面中心からの方向等)にも意味を持たせれば、画像間の類似度をより認識し易くなる。例えば、両手を挙げたポーズに対して、左手のみを挙げたポーズの場合には、その画像を画面中心から左側に表示し、右手のみを挙げたポーズの場合には、その画像を画面中心から右側に表示すればよい。   FIG. 5 shows an example of a screen to which an effect is added. As shown in the figure, when an effect is added, the position of each user's image is moved from the position when the effect is not added (see FIG. 4). In addition, images and characters for effects are additionally displayed. In the case of FIG. 5, the two user images displayed relatively large in the center are reflected in the same or similar pose, or have the same or similar movement, and thus an effect is added. It is an example. Here, even if they do not completely match, the position from the center of the screen may be changed depending on the similarity of images. For example, a pose that completely matches a pose that raises one hand is displayed at the center of the screen, a pose that raises both hands is slightly separated from the center of the screen, and when both hands are lowered, the pose is further separated from the center of the screen. That is, the similarity between images is converted into a two-dimensional or three-dimensional spatial distance, and the arrangement pattern is controlled accordingly. By converting the similarity between images into a distance and displaying it in space (2D, 3D), it becomes possible to visually recognize how much they are different. Further, if the meaning is given not only to the distance but also to the place where the image is arranged (direction from the center of the screen, etc.), it becomes easier to recognize the similarity between the images. For example, in the case of a pose with both hands only, the image is displayed on the left side from the center of the screen in the case of a pose with only the left hand, and in the case of a pose with only the right hand, the image is displayed from the center of the screen. Display it on the right side.

図6は、エンタテインメントシステム10の機能ブロック図である。同図に示すように、エンタテインメントシステム10は、機能的には画像取得部60、画像バッファ62、画像表示部64及び表示内容制御部66を含んでいる。これらの機能は、光ディスク36に格納されたプログラムをエンタテインメントシステム10において実行することにより、実現されるものである。まず、画像取得部60は、自機のカメラユニット46で所定時間毎に撮影される画像を所定時間毎に取得し、これを順次画像バッファ62に格納する。さらに、他機のカメラユニット46で所定時間毎に撮影され、自機に送信される画像(他機のユーザが写された画像)を所定時間毎に取得し、これらも順次画像バッファ62に格納する。画像バッファ62は、例えばメインメモリ20を中心に構成されるものであり、図7に示すように、各エンターテインメントシステム10のカメラユニット46に対応づけられた複数(ここでは16個)の個別画像バッファ62a〜62pを含んでいる。そして、各個別画像バッファ62xには、対応するカメラユニット46により最も早い時刻に取得された(最も古い)画像62x−1から、同カメラユニット46により最後に取得された(最新の)画像62x−5までの、合計5つの画像が記録されている。そして、新たな画像が取得されると、最も早い時刻に取得された画像62x−1が破棄され、代わりに新たに取得された画像が個別画像バッファ62xに格納される(x=a〜p)。こうして、各個別画像バッファ62a〜62pには、現在時刻に近い5つの時刻で取得されたユーザの画像が順に格納されることになる。   FIG. 6 is a functional block diagram of the entertainment system 10. As shown in the figure, the entertainment system 10 functionally includes an image acquisition unit 60, an image buffer 62, an image display unit 64, and a display content control unit 66. These functions are realized by executing a program stored on the optical disc 36 in the entertainment system 10. First, the image acquisition unit 60 acquires images captured at predetermined time intervals by the camera unit 46 of the own device at predetermined time intervals, and sequentially stores them in the image buffer 62. Further, images (images of other users) taken by the camera unit 46 of the other device and taken every predetermined time are acquired every predetermined time, and these are also stored in the image buffer 62 sequentially. To do. For example, the image buffer 62 is configured with the main memory 20 as the center, and as shown in FIG. 7, a plurality (16 in this case) of individual image buffers associated with the camera units 46 of each entertainment system 10. 62a-62p are included. In each individual image buffer 62x, from the (oldest) image 62x-1 acquired at the earliest time by the corresponding camera unit 46, the latest (latest) image 62x- acquired by the camera unit 46 is stored. A total of 5 images up to 5 are recorded. When a new image is acquired, the image 62x-1 acquired at the earliest time is discarded, and instead, the newly acquired image is stored in the individual image buffer 62x (x = ap). . In this way, each of the individual image buffers 62a to 62p sequentially stores user images acquired at five times close to the current time.

画像表示部64では、画像バッファ62の各個別画像バッファ62a〜62pから最も古い(早い)時刻に取得された画像62を読み出し、それらを配列した画面を生成し、それをモニタ62に表示させる。このとき、表示内容制御部66は、各個別画像バッファ62a〜62pに格納された、最も古い(早い)時刻に取得された画像62の内容を相互に比較して、ユーザが近似したポーズをとっているものがあるか否かを判断する。そして、そのような関係の画像のペアがあれば画像表示部64にエフェクトの付加を指示する。画像表示部64では、この指示があれば、各画像の画面における位置を変化させたり、文字や絵柄等のエフェクト画像を画面に追加する等のエフェクト処理を実行する。   The image display unit 64 reads the images 62 acquired at the oldest (early) time from the individual image buffers 62 a to 62 p of the image buffer 62, generates a screen on which these images are arranged, and displays them on the monitor 62. At this time, the display content control unit 66 compares the contents of the images 62 stored in the individual image buffers 62a to 62p and acquired at the oldest (early) time with each other, and takes a pose approximated by the user. Determine whether there is something. If there is a pair of images having such a relationship, the image display unit 64 is instructed to add an effect. In response to this instruction, the image display unit 64 executes effect processing such as changing the position of each image on the screen or adding an effect image such as a character or a picture to the screen.

図8は、エンタテインメントシステム10による画像処理を示すフロー図である。同図に示すように、エンタテインメントシステム10では、表示内容制御部66が、画像バッファ62の各個別画像バッファ62a〜62pに格納された最も古い画像62a−1〜62p−1を取得し、それらの中にユーザが同じ或いは類似のポーズで写ったペアがあるか否かを判断する(S101)。例えば、画像62a−1〜62p−1を取得し、そこから背景を削除して背景削除済み画像を生成し、それらを二値化し、二値化画像を生成する。こうすれば、ユーザ(被写体)が写った領域の画素については「1」の値が、それ以外(背景領域)の画素については「0」の値が関連づけられた二値化画像が得られる。そして、各画像62a−1〜62p−1に対応する二値化画像の差分画像を生成する。この差分画像は、各カメラユニット46で撮影された画像62a−1〜62p−1の内容の相違を示す画像であり、そこの表れた差分が所定量以上の場合には、その差分に対応する画像ペアが、同じ或いは類似のポーズのユーザを写したものであると判断する。   FIG. 8 is a flowchart showing image processing by the entertainment system 10. As shown in the figure, in the entertainment system 10, the display content control unit 66 acquires the oldest images 62a-1 to 62p-1 stored in the individual image buffers 62a to 62p of the image buffer 62, and those It is determined whether there is a pair in which the user is captured in the same or similar pose (S101). For example, the images 62a-1 to 62p-1 are acquired, the background is deleted therefrom to generate a background deleted image, and these are binarized to generate a binarized image. In this way, a binarized image is obtained in which the value of “1” is associated with the pixel in the area where the user (subject) is captured, and the value of “0” is associated with the other pixels in the background (background area). And the difference image of the binarized image corresponding to each image 62a-1 to 62p-1 is produced | generated. This difference image is an image showing the difference in the contents of the images 62a-1 to 62p-1 photographed by each camera unit 46, and corresponds to the difference when the difference that appears is a predetermined amount or more. It is determined that the image pair is a copy of a user in the same or similar pose.

このようにして、画像62a−1〜62p−1の中に同じ或いは類似のポーズのユーザが写ったペアがあるか否かを判断し、そのようなペアがあれば、表示内容制御部66は画像表示部64にエフェクトの付加を指示する(S102)。逆に、そのようなペアがなければ、表示内容制御部66は画像表示部64にエフェクトの付加を指示しない。   In this way, it is determined whether or not there is a pair in which the user in the same or similar pose is shown in the images 62a-1 to 62p-1, and if there is such a pair, the display content control unit 66 The image display unit 64 is instructed to add an effect (S102). Conversely, if there is no such pair, the display content control unit 66 does not instruct the image display unit 64 to add an effect.

画像表示部64は、画像バッファ62に格納された画像62a−1〜62p−1を読み出し、それらの画像に基づいて、表示内容制御部66からの指示に応じてエフェクトが付加された画面を生成し、それをモニタ26に表示させる(S103)。その後、次の画面更新タイミングを待機し(S104)、再びS101以降の処理を実行する。こうして、S101〜S104の処理が所定時間毎に繰り返され、モニタ26には動画像が表示される。   The image display unit 64 reads the images 62a-1 to 62p-1 stored in the image buffer 62, and generates a screen to which an effect is added in accordance with an instruction from the display content control unit 66 based on the images. Then, it is displayed on the monitor 26 (S103). Thereafter, the next screen update timing is awaited (S104), and the processing after S101 is executed again. In this way, the processing of S101 to S104 is repeated every predetermined time, and a moving image is displayed on the monitor 26.

以上の画像処理によれば、各エンタテインメントシステム10のカメラユニット46の前でユーザが同じタイミングで同じ或いは類似のポーズをとれば、それに応じてモニタ26に映し出される画面にエフェクトを発生させることができ、興趣に富むシステムを実現することができる。   According to the above image processing, if the user takes the same or similar pose at the same timing in front of the camera unit 46 of each entertainment system 10, an effect can be generated on the screen displayed on the monitor 26 accordingly. It is possible to realize an interesting system.

なお、ここでは表示内容制御部66が、画像62a〜1〜62p−1、すなわち同じタイミングで取得された画像の中に、ユーザが同じ又は類似のポーズで写ったものがあるか否かを判断するようにしたが、異なるタイミングで取得された画像の中に、ユーザが同じ又は類似のポーズで写ったものがあるか否かを判断するようにしてもよい。具体的には、各カメラユニット46で撮影された画像62x−1と、それ以外のカメラユニット46で該画像62x−1よりも所定時間後に撮影された画像62y−n(yはx以外のすべて;nは1よりも大きい所定値(例えば2))と、を比較して、ユーザが同じ又は類似のポーズで写ったものがあるか否かを判断するようにしてもよい(x,y=a〜p)。こうすれば、あるユーザがとったポーズを、画面を見ながら他のユーザが真似ると、それに応じて画面にエフェクトが発生するようにできる。   Here, the display content control unit 66 determines whether or not the images 62a to 1 to 62p-1, that is, the images acquired at the same timing include the same or similar pose of the user. However, it may be determined whether there are images taken at the same or similar pose among images acquired at different timings. Specifically, an image 62x-1 captured by each camera unit 46 and an image 62y-n (y is all except x) captured after a predetermined time from the image 62x-1 by other camera units 46 N may be compared with a predetermined value greater than 1 (for example, 2) to determine whether there is an image of the user in the same or similar pose (x, y = a-p). In this way, when another user imitates a pose taken by one user while looking at the screen, an effect can be generated on the screen accordingly.

また、ここでは表示内容制御部66が、画像62a−1〜62p−1の中に、ユーザが同じ又は類似のポーズで写ったものがあるか否かを判断し、その判断結果に応じて画面にエフェクトを発生させるようにしたが、図9(a)及び(b)に示すような、同じ形状の物(被写体)が2以上のカメラユニット46により撮影されているか否かを判断するようにしてもよい。或いは、図10(a)及び(b)に示すような、同じ色の物(被写体)が2以上のカメラユニット46により撮影されているか否かを判断するようにしてもよい。   In addition, here, the display content control unit 66 determines whether or not any of the images 62a-1 to 62p-1 is captured in the same or similar pose, and the screen is displayed according to the determination result. However, it is determined whether or not an object (subject) having the same shape as shown in FIGS. 9A and 9B is photographed by two or more camera units 46. May be. Alternatively, it may be determined whether or not an object (subject) of the same color as shown in FIGS. 10A and 10B is captured by two or more camera units 46.

さらに、表示内容制御部66は、異なるカメラユニット46により同じ動きを撮影したものがあるか否かを判定して、その判定結果に応じて画面にエフェクトを発生させるようにしてもよい。すなわち、図11(a)に示すように、ユーザが右手を横に延ばした状態から該右手を上方に振り上げた場合に、それと同じ動きをしたユーザが居て、その様子が他のカメラユニット46により写されていれば、画面にエフェクトを発生させ、図11(b)に示すように、他の動きをしたユーザしか他のカメラユニット46により写されていなければ、画面にエフェクトを発生させないようにしてもよい。   Further, the display content control unit 66 may determine whether or not there is an image of the same movement taken by different camera units 46, and may generate an effect on the screen according to the determination result. That is, as shown in FIG. 11 (a), when the user swings the right hand upward from a state in which the right hand is extended sideways, there is a user who has moved in the same way, and the situation is the other camera unit 46. If an image is captured by the camera unit 46, an effect is generated on the screen. As shown in FIG. 11B, if only a user who has made another movement is captured by another camera unit 46, the effect is not generated on the screen. It may be.

例えば、図12(a)〜(c)に示すようにして、ユーザが右手を横に伸ばした状態から該右手を上方に振り上げて、その様子が順次カメラユニット46により写されている場合、カメラユニット46で画像が撮影される毎に直前に撮影された画像との差分画像を生成するとともに、その差分画像に表れた差分領域の重心位置等の代表位置を算出する。図13(a)は、図12(b)の画像とその直前に取得された同図(a)の画像との差分画像を示しており、そこには差分領域72−1が表れている。この差分領域72−1に対して、代表位置70−1が算出される。また、図13(b)は、図12(c)の画像とその直前に取得された同図(b)の画像との差分画像を示しており、そこには差分領域72−2が表れている。この差分領域72−2に対して、代表位置70−2が算出される。そして、各時刻で算出される代表位置70を結ぶベクトルのデータを、カメラユニット46により写されるユーザの動きを示す動きデータとする。   For example, as shown in FIGS. 12A to 12C, when the user swings up the right hand upward from the state where the right hand is extended sideways and the state is sequentially captured by the camera unit 46, the camera Each time an image is captured by the unit 46, a difference image from the image captured immediately before is generated, and a representative position such as a barycentric position of the difference area that appears in the difference image is calculated. FIG. 13A shows a difference image between the image of FIG. 12B and the image of FIG. 12A acquired immediately before that, and a difference area 72-1 appears there. A representative position 70-1 is calculated for the difference area 72-1. FIG. 13 (b) shows a difference image between the image of FIG. 12 (c) and the image of FIG. 13 (b) acquired immediately before that, and a difference area 72-2 appears there. Yes. A representative position 70-2 is calculated for the difference area 72-2. Then, the vector data connecting the representative positions 70 calculated at each time is set as motion data indicating the user's motion imaged by the camera unit 46.

こうした動きデータを、すべてのカメラユニット46で撮影された画像について生成し、それらを比較することにより、各カメラユニット46により写されるユーザが同じ又は類似の動きをしているか否かを判定することができる。これにより、例えば多人数参加型のネットワークゲーム(カメラユニットにより各プレイヤのジェスチャを撮影し、それを解析することにより、コマンド入力を行う格闘ゲーム、ロールプレイングゲーム、ダンシングゲーム等)をプレイしているときに、複数のプレイヤが同じ攻撃ポーズをとった場合、敵キャラクタに数倍のダメージを与えることができるといった応用も考えられ、多彩で魅力的なゲームアプリケーションを実現できる。   Such motion data is generated for images taken by all the camera units 46 and compared to determine whether or not the user photographed by each camera unit 46 has the same or similar motion. be able to. Thus, for example, a multiplayer network game (such as a fighting game, a role-playing game, or a dancing game in which a command is input by shooting a gesture of each player with a camera unit and analyzing it) is played. In some cases, when a plurality of players take the same attack pose, an application that can damage the enemy character several times is conceivable, and a diverse and attractive game application can be realized.

なお、上記動きデータを直接比較すると、図14(a)及び(b)に示すように同じ方向の手の動きをユーザがしたとしても、それらは異なる動きであると判断されることになる。そこで、上記動きデータから動きの方向(例えば画面の中央を中心とした回転方向)を算出し、算出される方向を比較することで、各カメラユニット46により写されるユーザが同じ又は類似の方向の動きをしているか否かを判定することができる。そして、その判定結果に応じて画面にエフェクトを発生させるようにすれば、ユーザは他人と同じ方向の動きをすることで、画面にエフェクトを発生させることができるようになる。   If the above movement data is directly compared, even if the user moves the hand in the same direction as shown in FIGS. 14A and 14B, it is determined that they are different movements. Therefore, by calculating the direction of movement (for example, the rotation direction centered on the center of the screen) from the movement data and comparing the calculated directions, the user imaged by each camera unit 46 is the same or similar direction. It is possible to determine whether or not the user is moving. If an effect is generated on the screen according to the determination result, the user can generate an effect on the screen by moving in the same direction as that of another person.

本発明の実施形態に係るエンタテインメントシステム(画像処理装置)を用いたネットワークシステムの構成図である。1 is a configuration diagram of a network system using an entertainment system (image processing apparatus) according to an embodiment of the present invention. 本発明の実施形態に係るエンタテインメントシステムのハードウェア構成図である。It is a hardware block diagram of the entertainment system which concerns on embodiment of this invention. MPUの内部構成図である。It is an internal block diagram of MPU. 本発明の実施形態に係るエンタテインメントシステムにおいて、モニタに映し出される画面(エフェクト付加前)の一例を示す図である。In the entertainment system which concerns on embodiment of this invention, it is a figure which shows an example of the screen (before effect addition) shown on a monitor. 本発明の実施形態に係るエンタテインメントシステムにおいて、モニタに映し出される画面(エフェクト付加後)の一例を示す図である。In the entertainment system which concerns on embodiment of this invention, it is a figure which shows an example of the screen (after effect addition) projected on a monitor. 本発明の実施形態に係るエンタテインメントシステムの機能ブロック図である。It is a functional block diagram of the entertainment system which concerns on embodiment of this invention. 画像バッファの記憶内容を模式的に示す図である。It is a figure which shows typically the memory content of an image buffer. 本発明の実施形態に係るエンタテインメントシステムの動作を示すフロー図である。It is a flowchart which shows operation | movement of the entertainment system which concerns on embodiment of this invention. 本発明の実施形態に係るエンタテインメントシステムの他の動作例を説明する図である。It is a figure explaining the other operation example of the entertainment system which concerns on embodiment of this invention. 本発明の実施形態に係るエンタテインメントシステムの他の動作例を説明する図である。It is a figure explaining the other operation example of the entertainment system which concerns on embodiment of this invention. 本発明の実施形態に係るエンタテインメントシステムのさらに他の動作例を説明する図である。It is a figure explaining the example of further another operation | movement of the entertainment system which concerns on embodiment of this invention. 本発明の実施形態に係るエンタテインメントシステムにおいて、撮影済み画像からユーザの動きデータを生成する処理を示す図である。It is a figure which shows the process which produces | generates a user's motion data from the image | photographed image in the entertainment system which concerns on embodiment of this invention. 本発明の実施形態に係るエンタテインメントシステムにおいて、撮影済み画像からユーザの動きデータを生成する処理を示す図である。It is a figure which shows the process which produces | generates a user's motion data from the image | photographed image in the entertainment system which concerns on embodiment of this invention. 本発明の実施形態に係るエンタテインメントシステムのさらに他の動作例を説明する図である。It is a figure explaining the example of further another operation | movement of the entertainment system which concerns on embodiment of this invention.

符号の説明Explanation of symbols

10 エンタテインメントシステム、11 MPU、12 メインプロセッサ、14a〜14h サブプロセッサ、16 バス、18 メモリコントローラ、20 メインメモリ、22,40,44 インタフェース、24 画像処理部、26 モニタ、28 入出力処理部、30 音声処理部、32 スピーカ、34 光ディスク読み取り部、36 光ディスク、38 ハードディスク、42 コントローラ、46 カメラユニット、48 ネットワークインタフェース、50 ネットワーク、60 画像取得部、62 画像バッファ、64 画像表示部、66 表示内容制御部、70 動作点、72 動作範囲。   10 Entertainment System, 11 MPU, 12 Main Processor, 14a-14h Sub-Processor, 16 Bus, 18 Memory Controller, 20 Main Memory, 22, 40, 44 Interface, 24 Image Processing Unit, 26 Monitor, 28 Input / Output Processing Unit, 30 Audio processing unit, 32 speaker, 34 optical disc reading unit, 36 optical disc, 38 hard disk, 42 controller, 46 camera unit, 48 network interface, 50 network, 60 image acquisition unit, 62 image buffer, 64 image display unit, 66 display content control Part, 70 operating points, 72 operating ranges.

Claims (9)

2以上のカメラの各々により撮影された画像を所定時間毎にネットワークを介して取得する画像取得手段と、
前記画像取得手段により取得された各画像を、前記撮影したカメラ毎に各画像群として格納する画像バッファと、
前記画像バッファに格納された各画像群のうち、新たに格納された各画像を画面に順次表示する画像表示手段と、
前記画像バッファに格納された各画像群相互間で、各画像群に含まれる画像間の関係に基づいて、前記画面の表示内容を制御する表示内容制御手段と、
を含むことを特徴とする画像処理装置。
Image acquisition means for acquiring an image captured by each of the two or more cameras via a network every predetermined time;
An image buffer for storing each image acquired by the image acquisition means as an image group for each of the captured cameras;
Among the image group stored in the image buffer, and an image display means for sequentially displaying each image newly stored in the screen,
Display content control means for controlling the display content of the screen based on the relationship between the images included in each image group between the image groups stored in the image buffer ;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記各画像群のうち、第1の画像群に含まれる画像及び前記第2の画像群に含まれる画像に写された被写体の動きの関係に基づいて、前記画面の表示内容を制御する、
を含むことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The display content of the screen is controlled based on the relationship between the movement of the subject captured in the image included in the first image group and the image included in the second image group among the image groups .
An image processing apparatus comprising:
請求項2に記載の画像処理装置において、
前記表示内容制御手段は、前記2のカメラにより撮影された前記各画像の内容の相違を示す画像を生成するとともに、該画像に基づいて、前記画面の表示内容を制御する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The display content control means generates an image indicating a difference between the contents of the images taken by the two cameras, and controls the display content of the screen based on the images.
An image processing apparatus.
請求項3に記載の画像処理装置において、
前記第1の画像群に含まれる画像及び前記第2の画像群に含まれる画像は、前記画像取得手段により異なる時刻に取得されて前記画面に表示され、前記表示内容制御手段は、前記第1の画像群に含まれる画像及び前記第2の画像群に含まれる画像の内容の相違を示す画像を生成するとともに、該画像に基づいて、前記画面の表示内容を制御する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The images included in the first image group and the images included in the second image group are acquired at different times by the image acquisition unit and displayed on the screen, and the display content control unit is and generates an image showing the difference in the contents of the image contained in the image and the second image group included in one image group, based on the image, and controls the display contents of the screen,
An image processing apparatus.
請求項3に記載の画像処理装置において、
前記第1の画像群に含まれる画像及び前記第2の画像群に含まれる画像は、前記画像取得手段により同じ時刻に取得されて前記画面に表示され、前記表示内容制御手段は、前記第1の画像群に含まれる画像及び前記第2の画像群に含まれる画像の内容の相違を示す画像を生成するとともに、該画像に基づいて、前記画面の表示内容を制御する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The image included in the first image group and the image included in the second image group are acquired at the same time by the image acquisition unit and displayed on the screen, and the display content control unit is and generates an image showing the difference in the contents of the image contained in the image and the included in the image group second image group, based on the image, and controls the display contents of the screen,
An image processing apparatus.
請求項2に記載の画像処理装置において、
前記表示内容制御手段は、前記画像取得手段により取得される、前記2のカメラにより撮影された前記各画像に写された被写体の動きの方向が所定関係にあるか否かに応じて、前記画面の表示内容を制御する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The display content control unit is configured to display the screen according to whether or not the direction of movement of the subject captured in each of the images captured by the two cameras acquired by the image acquisition unit is in a predetermined relationship. Control the display content of
An image processing apparatus.
画像取得手段により、2以上のカメラの各々により撮影された画像を所定時間毎にネットワークを介して取得し、
画像バッファにより、前記画像取得手段により取得された各画像を、前記撮影したカメラ毎に各画像群として格納し、
画像表示手段により、前記画像バッファに格納された各画像群のうち、新たに格納された各画像を画面に順次表示し、
表示内容制御手段により、前記画像バッファに格納された各画像群相互間で、各画像群に含まれる画像間の関係に基づいて、前記画面の表示内容を制御する、
ことを特徴とする画像処理方法。
The image acquisition means acquires images taken by each of the two or more cameras via a network every predetermined time,
Each image acquired by the image acquisition means is stored as an image group for each captured camera by the image buffer,
The image display means sequentially displays each newly stored image on the screen among each image group stored in the image buffer,
The display content control means controls the display content of the screen between the image groups stored in the image buffer based on the relationship between the images included in each image group.
An image processing method.
2以上のカメラの各々により撮影された画像を所定時間毎にネットワークを介して取得する画像取得手段、
前記画像取得手段により取得された各画像を、前記撮影したカメラ毎に各画像群として格納する画像バッファ、
前記画像バッファに格納された各画像群のうち、新たに格納された各画像を画面に順次表示する画像表示手段、及び、
前記画像バッファに格納された各画像群相互間で、各画像群に含まれる画像間の関係に基づいて、前記画面の表示内容を制御する表示内容制御手段、
としてコンピュータを機能させるためのプログラム。
Image acquisition means for acquiring images taken by each of the two or more cameras via a network every predetermined time;
An image buffer for storing each image acquired by the image acquisition means as an image group for each of the captured cameras;
Image display means for sequentially displaying each newly stored image on the screen among each image group stored in the image buffer; and
Display content control means for controlling the display content of the screen based on the relationship between images included in each image group between the image groups stored in the image buffer;
As a program to make the computer function as.
前記表示内容制御手段は、前記画像群毎に、前記各画像群に含まれる画像間の類似度に基づいて、前記画面に表示された前記各画像の位置を変化させることを特徴とする請求項1記載の画像処理装置。The display content control means changes the position of each image displayed on the screen based on the similarity between images included in each image group for each image group. The image processing apparatus according to 1.
JP2005347602A 2005-12-01 2005-12-01 Image processing apparatus, image processing method, and program Expired - Fee Related JP5026692B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005347602A JP5026692B2 (en) 2005-12-01 2005-12-01 Image processing apparatus, image processing method, and program
US11/600,017 US20070126874A1 (en) 2005-12-01 2006-11-15 Image processing device, image processing method, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005347602A JP5026692B2 (en) 2005-12-01 2005-12-01 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2007151647A JP2007151647A (en) 2007-06-21
JP5026692B2 true JP5026692B2 (en) 2012-09-12

Family

ID=38118318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005347602A Expired - Fee Related JP5026692B2 (en) 2005-12-01 2005-12-01 Image processing apparatus, image processing method, and program

Country Status (2)

Country Link
US (1) US20070126874A1 (en)
JP (1) JP5026692B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
JP2010142592A (en) 2008-12-22 2010-07-01 Nintendo Co Ltd Game program and game device
US7996793B2 (en) * 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
CN101579571B (en) * 2009-04-30 2012-09-26 武汉市高德电气有限公司 Live-action game device and method for realizing live-action game
US9981193B2 (en) * 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
EP2494432B1 (en) 2009-10-27 2019-05-29 Harmonix Music Systems, Inc. Gesture-based user interface
JP2011251006A (en) * 2010-06-02 2011-12-15 Nintendo Co Ltd Game program, portable game device, game system, and game method
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US9615062B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Multi-resolution image display
JP6001970B2 (en) * 2012-09-11 2016-10-05 株式会社ソニー・インタラクティブエンタテインメント GAME DEVICE, GAME SERVER, GAME CONTROL METHOD, AND GAME CONTROL PROGRAM
JP5689103B2 (en) * 2012-11-07 2015-03-25 任天堂株式会社 GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD
US10220303B1 (en) 2013-03-15 2019-03-05 Harmonix Music Systems, Inc. Gesture-based music game
WO2015173967A1 (en) * 2014-05-16 2015-11-19 セガサミークリエイション株式会社 Game image-generating device and program
JP2018041261A (en) * 2016-09-07 2018-03-15 東芝テック株式会社 Information processor and program

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594859A (en) * 1992-06-03 1997-01-14 Digital Equipment Corporation Graphical user interface for video teleconferencing
US5886818A (en) * 1992-12-03 1999-03-23 Dimensional Media Associates Multi-image compositing
US6188518B1 (en) * 1993-01-22 2001-02-13 Donald Lewis Maunsell Martin Method and apparatus for use in producing three-dimensional imagery
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5995140A (en) * 1995-08-28 1999-11-30 Ultrak, Inc. System and method for synchronization of multiple video cameras
KR100238668B1 (en) * 1996-11-28 2000-01-15 윤종용 Digital video player
US6307550B1 (en) * 1998-06-11 2001-10-23 Presenter.Com, Inc. Extracting photographic images from video
GB2343320B (en) * 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
US6571024B1 (en) * 1999-06-18 2003-05-27 Sarnoff Corporation Method and apparatus for multi-view three dimensional estimation
US6514081B1 (en) * 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
JP2001084375A (en) * 1999-09-13 2001-03-30 Atr Media Integration & Communications Res Lab Operation verification system and non-contact manipulation system
US7203380B2 (en) * 2001-11-16 2007-04-10 Fuji Xerox Co., Ltd. Video production and compaction with collage picture frame user interface
US7680192B2 (en) * 2003-07-14 2010-03-16 Arecont Vision, Llc. Multi-sensor panoramic network camera
US7502546B2 (en) * 2003-10-29 2009-03-10 Elbex Video Ltd. Method and apparatus for digitally recording and synchronously retrieving a plurality of video signals
US7475112B2 (en) * 2005-03-04 2009-01-06 Microsoft Corporation Method and system for presenting a video conference using a three-dimensional object

Also Published As

Publication number Publication date
US20070126874A1 (en) 2007-06-07
JP2007151647A (en) 2007-06-21

Similar Documents

Publication Publication Date Title
US20070126874A1 (en) Image processing device, image processing method, and information storage medium
JP4778865B2 (en) Image viewer, image display method and program
JP5148660B2 (en) Program, information storage medium, and image generation system
JP4921550B2 (en) How to give emotional features to computer-generated avatars during gameplay
JP5550248B2 (en) Program, information storage medium, image processing apparatus, image processing method, and data structure
JP3648535B1 (en) GAME DEVICE, COMPUTER CONTROL METHOD, AND PROGRAM
US8711169B2 (en) Image browsing device, computer control method and information recording medium
US8520901B2 (en) Image generation system, image generation method, and information storage medium
JP2011258159A (en) Program, information storage medium and image generation system
JP2011258160A (en) Program, information storage medium and image generation system
JP2011258158A (en) Program, information storage medium and image generation system
JP5236674B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2011186834A (en) Game program, recording medium, and computer device
JP2008165584A (en) Image processor, and control method and program for image processor
TW200820133A (en) Image processing device, controlling method of image processing device and information storing media
JP2003135851A (en) Game device, method for controlling computer game system, and program
JP5502043B2 (en) Game device and program
US8570330B2 (en) Image processing device, image processing method and information storage medium
JP4809655B2 (en) Image display device, control method and program for image display device
JP2009061159A (en) Program, information storage medium and game system
US7932903B2 (en) Image processor, image processing method and information storage medium
JP5213913B2 (en) Program and image generation system
US20220118358A1 (en) Computer-readable recording medium, and image generation system
JP2003334384A (en) Game apparatus, method for controlling computer game system, and program
CN117950491A (en) Meta-universe video-audio system, control method, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081201

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5026692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees