[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6369604B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6369604B2
JP6369604B2 JP2017112271A JP2017112271A JP6369604B2 JP 6369604 B2 JP6369604 B2 JP 6369604B2 JP 2017112271 A JP2017112271 A JP 2017112271A JP 2017112271 A JP2017112271 A JP 2017112271A JP 6369604 B2 JP6369604 B2 JP 6369604B2
Authority
JP
Japan
Prior art keywords
marker
frame
image
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017112271A
Other languages
Japanese (ja)
Other versions
JP2017201534A (en
Inventor
哲也 半田
哲也 半田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017112271A priority Critical patent/JP6369604B2/en
Publication of JP2017201534A publication Critical patent/JP2017201534A/en
Application granted granted Critical
Publication of JP6369604B2 publication Critical patent/JP6369604B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus , an image processing method , and a program.

近年、実空間に仮想物体が存在するかのように重畳させる拡張現実技術を用いた拡張現実感システム(AR(Augmented Reality:拡張現実)システム)が用いられるようになってきている。例えば、AR用のマーカを含む画像を撮影すると、このマーカの種類及び配置した位置に対応して、撮影画像中に仮想物体画像を合成して表示する拡張現実感システムが知られている。   In recent years, augmented reality systems (AR (Augmented Reality) systems) using augmented reality technology that superimposes virtual objects as if they exist in real space have come to be used. For example, when an image including an AR marker is captured, an augmented reality system is known in which a virtual object image is synthesized and displayed in a captured image corresponding to the type and position of the marker.

しかし、マーカを用いた拡張現実感システムでは、表示したい仮想物体画像の種類等に対応するマーカがそれぞれ必要となる。そこで、例えば、特許文献1には、マーカ掲示用携帯端末に、複数種類のマーカと仮想物体画像とを対応付けて記憶させておき、ユーザにより選択されたマーカをマーカ掲示用携帯端末に表示することで、複数のマーカの印刷物等を持ち歩かなくても複数種類の仮想物体の中から表示する仮想物体を選択できるようにした技術が記載されている。   However, an augmented reality system using markers requires markers corresponding to the type of virtual object image to be displayed. Therefore, for example, in Patent Document 1, a marker posting mobile terminal stores a plurality of types of markers and virtual object images in association with each other, and the marker selected by the user is displayed on the marker posting mobile terminal. Thus, a technique is described in which a virtual object to be displayed can be selected from a plurality of types of virtual objects without carrying a printed matter of a plurality of markers.

特開2005−250950号公報JP 2005-250950 A

しかしながら、特許文献1においても、1つのARマーカに対応付けられている仮想物体画像は一つであり、他の表示をさせるためにはユーザが選択操作をして、マーカ掲示用携帯端末に表示させるマーカの種類を切り替える必要があった。   However, also in Patent Document 1, there is one virtual object image associated with one AR marker, and in order to display another, the user performs a selection operation and displays it on the marker posting portable terminal. It was necessary to switch the type of marker to be used.

本発明の課題は、一つのマーカで異なる複数の表示ができるようにすることである。   An object of the present invention is to enable a plurality of different displays with one marker.

上記課題を解決するため、請求項1に記載の発明の画像処理装置は、
画像取得手段と、
前記画像取得手段により取得された第一の画像内に所定のマーカがフレームインした場合、前記マーカがフレームインした方向を認識するフレームイン方向認識手段と、
前記フレームイン方向認識手段により認識された前記マーカがフレームインした方向に応じた第二の画像を生成する生成手段と、
を備えることを特徴とする。
In order to solve the above problem, an image processing apparatus according to claim 1 is provided.
Image acquisition means ;
A frame-in direction recognizing unit for recognizing a direction in which the marker has been framed when a predetermined marker is framed in the first image acquired by the image acquiring unit ;
Generating means for generating a second image corresponding to the direction in which the marker recognized by the frame-in direction recognition means is framed;
It is characterized by providing .

本発明によれば、一つのマーカで異なる複数の表示を行うことが可能となる。   According to the present invention, it is possible to perform a plurality of different displays with one marker.

本実施形態における画像処理装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image processing apparatus in this embodiment. フレームイン/フレームアウト情報記憶部のデータ格納例を示す図である。It is a figure which shows the example of data storage of a frame in / frame out information storage part. 動作パターンデータベースのデータ格納例を示す図である。It is a figure which shows the example of data storage of an operation | movement pattern database. 図1のCPUにより実行される表示制御処理を示すフローチャートである。It is a flowchart which shows the display control process performed by CPU of FIG. ARマーカがフレームインした方向及びフレームアウトした方向を認識する方法を説明するための図である。It is a figure for demonstrating the method of recognizing the direction in which the AR marker was framed in, and the direction which was out of frame. 表示制御処理による表示動作の一例を示す図である。It is a figure which shows an example of the display operation by a display control process. 手に持つタイプの移動型端末でのフレームイン、フレームアウトの操作方法を示す図である。It is a figure which shows the operation method of the frame in in the mobile terminal of the type held in a hand, and a frame out. 、眼鏡型HMDでのフレームイン、フレームアウトの操作方法を示す図である。It is a figure which shows the operation method of the frame in in a spectacles type HMD, and a frame out.

以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated example.

<画像処理装置1の構成>
まず、本実施形態に係る画像処理装置1の構成について説明する。
画像処理装置1としては、例えば、スマートフォン、タブレット端末、ノートPC(Personal Computer)、ハンディターミナル等の移動型端末が適用可能である。
<Configuration of Image Processing Device 1>
First, the configuration of the image processing apparatus 1 according to the present embodiment will be described.
As the image processing apparatus 1, for example, a mobile terminal such as a smartphone, a tablet terminal, a notebook PC (Personal Computer), or a handy terminal is applicable.

図1に、画像処理装置1の機能構成例を示す。図1に示すように、画像処理装置1は、CPU(Central Processing Unit)10、RAM(Random Access Memory)11、記憶部12、通信部13、表示部14、操作部15、カメラ16、現在時刻取得部17等を備えて構成され、各部はバス18により接続されている。   FIG. 1 shows a functional configuration example of the image processing apparatus 1. As shown in FIG. 1, the image processing apparatus 1 includes a CPU (Central Processing Unit) 10, a RAM (Random Access Memory) 11, a storage unit 12, a communication unit 13, a display unit 14, an operation unit 15, a camera 16, and a current time. An acquisition unit 17 and the like are provided, and each unit is connected by a bus 18.

CPU10は、記憶部12に記憶されているプログラムを読み出してRAM11のワークエリアに展開し、展開したプログラムに従って、後述する表示制御処理を始めとする各種処理を実行する。CPU10は、表示制御処理を実行することにより、フレームイン認識手段、フレームイン方向認識手段、フレームアウト認識手段、フレームアウト方向認識手段、マーカ認識手段、制御手段として機能する。   The CPU 10 reads out the program stored in the storage unit 12 and develops it in the work area of the RAM 11, and executes various processes including a display control process described later according to the developed program. The CPU 10 functions as frame-in recognition means, frame-in direction recognition means, frame-out recognition means, frame-out direction recognition means, marker recognition means, and control means by executing display control processing.

RAM11は、揮発性のメモリであり、CPU10により実行される各種プログラムやこれら各種プログラムに係るデータ等を記憶するワークエリアを有する。   The RAM 11 is a volatile memory, and has a work area for storing various programs executed by the CPU 10, data related to these various programs, and the like.

また、RAM11は、AR(Augmented Reality)マーカ5(図6参照)がフレームインした方向及びフレームアウトした方向の履歴情報を記憶するためのフレームイン/フレームアウト情報記憶部111を有する。
ここで、ARマーカ5は、表示部14の画面上に表示する情報(例えば、仮想物体画像等)を規定するための画像である。フレームインとは、カメラ16により取得された撮像画像を表示部14の画面上に表示させている場合において、当該画面上にARマーカ5がない状態から当該画面上にARマーカ5が入ってくることをいう。フレームアウトとは、カメラ16により取得された撮像画像を表示部14の画面上に表示させている場合において、表示部14の画面上に表示されていたARマーカ5が当該画面上からなくなる(出て行く)ことをいう。
The RAM 11 also includes a frame-in / frame-out information storage unit 111 for storing history information in the direction in which the AR (Augmented Reality) marker 5 (see FIG. 6) is framed in and in the direction in which the frame is out.
Here, the AR marker 5 is an image for defining information (for example, a virtual object image or the like) to be displayed on the screen of the display unit 14. In the frame-in, when the captured image acquired by the camera 16 is displayed on the screen of the display unit 14, the AR marker 5 enters the screen from a state where the AR marker 5 does not exist. That means. Frame out means that when the captured image acquired by the camera 16 is displayed on the screen of the display unit 14, the AR marker 5 displayed on the screen of the display unit 14 disappears from the screen. To go).

図2に、フレームイン/フレームアウト情報記憶部111のデータ格納例を示す。図2に示すように、フレームイン/フレームアウト情報記憶部111は、例えば、「順番」、「動作内容」、「方向」のフィールドを有する。「順番」は、動作が行われた順番を格納する。「動作内容」は、動作がフレームインであるか又はフレームアウトであるかを示す情報を格納する。「方向」は、フレームイン又はフレームアウトされた方向を示す情報を格納する。   FIG. 2 shows an example of data storage in the frame-in / frame-out information storage unit 111. As illustrated in FIG. 2, the frame-in / frame-out information storage unit 111 includes, for example, fields of “order”, “operation content”, and “direction”. The “order” stores the order in which the operations are performed. “Operation content” stores information indicating whether the operation is frame-in or frame-out. “Direction” stores information indicating the direction of frame-in or frame-out.

記憶部12は、HDD(Hard Disk Drive)、半導体の不揮発性メモリ等により構成される。記憶部12には、例えば、図1に示すように、プログラム記憶部121、動作パターンデータベース122が設けられている。   The storage unit 12 includes an HDD (Hard Disk Drive), a semiconductor nonvolatile memory, and the like. For example, as illustrated in FIG. 1, the storage unit 12 includes a program storage unit 121 and an operation pattern database 122.

プログラム記憶部121には、CPU10で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。例えば、プログラム記憶部121には、ARマーカアプリケーションプログラムが記憶されている。これらのプログラムは、コンピュータ読み取り可能なプログラムコードの形態でプログラム記憶部121に格納されている。CPU10は、当該プログラムコードに従った動作を逐次実行する。   The program storage unit 121 stores a system program executed by the CPU 10, various processing programs, data necessary for executing these programs, and the like. For example, the program storage unit 121 stores an AR marker application program. These programs are stored in the program storage unit 121 in the form of computer-readable program codes. The CPU 10 sequentially executes operations according to the program code.

動作パターンデータベース122には、図3に示すように、ARマーカ5のフレームイン/フレームアウトの一連の動作パターンの情報と、その動作パターンに対応する表示情報(その動作パターンに応じて表示部14に表示する内容を示す情報)とが対応付けて格納されている。動作パターンの情報は、一連の動作を構成する各動作の内容(フレームインか、フレームアウトか)、順番、及びその方向(例えば、左から、右から、上から、下から)を含む。なお、フレームアウトはフレームインをしてから行われる動作であるため、奇数の順番の動作はフレームイン、偶数の順番の動作はフレームアウトである。また、動作パターンデータベース122には、各方向からの1回目のフレームインのみからなる動作パターンと、それぞれのフレームインの方向の動作に対応する表示情報とが対応付けて記憶されている。
また、記憶部12には、ARマーカ5の画像パターンを示すパターンファイルが記憶されている。
As shown in FIG. 3, the operation pattern database 122 includes a series of frame in / frame out operation pattern information of the AR marker 5 and display information corresponding to the operation pattern (the display unit 14 according to the operation pattern). Are stored in association with each other). The information of the operation pattern includes the content (frame-in or frame-out) of each operation constituting the series of operations, the order, and the direction (for example, from the left, from the right, from the top, from the bottom). Since frame-out is an operation performed after a frame-in, an odd-numbered sequence operation is a frame-in and an even-numbered sequence operation is a frame-out. Further, the motion pattern database 122 stores a motion pattern consisting of only the first frame-in from each direction and display information corresponding to the motion in the direction of each frame-in.
The storage unit 12 stores a pattern file indicating the image pattern of the AR marker 5.

通信部13は、LAN(Local Area Network)アダプタやルータ等により構成され、LAN等の通信ネットワークを介して外部装置と通信接続し、データ送受信を行う。   The communication unit 13 includes a LAN (Local Area Network) adapter, a router, and the like, and performs communication connection with an external device via a communication network such as a LAN to perform data transmission / reception.

表示部14は、LCD(Liquid Crystal Display)等により構成され、CPU10からの表示制御信号に従って、画面上に各種表示を行う表示手段である。   The display unit 14 is configured by an LCD (Liquid Crystal Display) or the like, and is a display unit that performs various displays on the screen in accordance with a display control signal from the CPU 10.

操作部15は、カーソルキー、各種機能キー、シャッターキーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU10に出力する。また、操作部15は、表示部14の表面を覆うように透明電極を格子状に配置したタッチパネル等を有し、手指やタッチペン等で押下された位置を検出し、その位置情報を操作情報としてCPU10に出力する。   The operation unit 15 includes a cursor key, various function keys, and a shutter key. The operation unit 15 receives a pressing input of each key by the user and outputs operation information to the CPU 10. The operation unit 15 includes a touch panel or the like in which transparent electrodes are arranged in a grid so as to cover the surface of the display unit 14, detects a position pressed with a finger or a touch pen, and uses the position information as operation information. It outputs to CPU10.

カメラ16は、レンズ、絞り、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備え、撮像素子上に被写体の光学像を結像し、その像を電気的な信号としてCPU10に出力する撮像手段である。
現在時刻取得部17は、RTC(Real Time Clock)等により構成され、現在日時を計測してCPU10に出力する。
The camera 16 includes an imaging element such as a lens, a diaphragm, a CCD (Charge Coupled Device), or a CMOS (Complementary Metal Oxide Semiconductor), and forms an optical image of a subject on the imaging element, and uses the image as an electrical signal. This is imaging means for outputting to the CPU 10.
The current time acquisition unit 17 is configured by an RTC (Real Time Clock) or the like, measures the current date and time, and outputs it to the CPU 10.

<画像処理装置1の動作>
次に、本実施形態における画像処理装置1の動作について説明する。
<Operation of Image Processing Apparatus 1>
Next, the operation of the image processing apparatus 1 in the present embodiment will be described.

図4に、画像処理装置1によって実行される表示制御処理のフローチャートを示す。表示制御処理は、操作部15によりARマーカアプリケーションの起動が指示された際に、CPU10とプログラム記憶部121に記憶されているARマーカアプリケーションプログラムとの協働により実行される。   FIG. 4 shows a flowchart of the display control process executed by the image processing apparatus 1. The display control process is executed in cooperation with the CPU 10 and the AR marker application program stored in the program storage unit 121 when the operation unit 15 instructs the activation of the AR marker application.

まず、CPU10は、カメラ16を起動させる(ステップS1)。なお、カメラ16の起動後、表示制御処理の実行中において、カメラ16は、所定時間毎に撮像画像を取得する。CPU10は、カメラ16により取得された撮像画像を現在時刻取得部17からの現在時刻と対応付けてRAM11に記憶するとともに、略リアルタイムで表示部14の画面上に表示させる。   First, the CPU 10 activates the camera 16 (step S1). Note that after the camera 16 is activated, the camera 16 acquires a captured image every predetermined time during the execution of the display control process. The CPU 10 stores the captured image acquired by the camera 16 in the RAM 11 in association with the current time from the current time acquisition unit 17 and displays it on the screen of the display unit 14 in substantially real time.

次いで、CPU10は、ARマーカ5のフレームインが認識されるのを待機する(ステップS2)。具体的には、CPU10は、カメラ16により所定時間毎に取得される撮像画像に対して画像処理によるARマーカ5の認識処理を行う。ARマーカ5の認識処理は、公知の手法により行うことができる。例えば、撮像画像から黒枠で囲まれた矩形領域を認識し、この黒枠で囲まれた領域内の画像パターンと記憶部12に記憶されているARマーカ5のパターンファイルとを比較し、一致率が所定の閾値以上である場合に、ARマーカ5を認識する。ARマーカ5が認識されていなかった状態から認識された状態となったときに、CPU10は、ARマーカ5がフレームインしたと認識する。   Next, the CPU 10 waits for recognition of the frame in of the AR marker 5 (step S2). Specifically, the CPU 10 performs recognition processing of the AR marker 5 by image processing on the captured image acquired by the camera 16 every predetermined time. The recognition process of the AR marker 5 can be performed by a known method. For example, a rectangular area surrounded by a black frame is recognized from the captured image, the image pattern in the area surrounded by the black frame is compared with the pattern file of the AR marker 5 stored in the storage unit 12, and the matching rate is The AR marker 5 is recognized when it is equal to or greater than a predetermined threshold. When the AR marker 5 is recognized from the state in which the AR marker 5 is not recognized, the CPU 10 recognizes that the AR marker 5 has entered the frame.

ARマーカ5のフレームインが認識されると(ステップS2;YES)、CPU10は、ARマーカ5のフレームインが認識された以降にカメラ16から取得された複数の撮像画像に基づいて、ARマーカ5の座標の軌跡を取得し、取得された軌跡に基づいて、ARマーカ5がフレームインした方向を認識する(ステップS3)。
具体的に、まず、CPU10は、撮像画像上にX軸、Y軸、及び座標の原点O(0,0)を設定する。次いで、図5に示すように、ARマーカ5が認識された状態となった撮像画像及びその後所定時間間隔でカメラ16により取得されたn枚の撮像画像のそれぞれからARマーカ5の中心座標P1(X,Y)、P2(X,Y)・・・Pn(X,Y)を求め、求めた中心座標群に対して回帰曲線Lを引く。そして、ARマーカ5が認識された状態となった撮像画像の中心座標P1(X,Y)から最も近い位置で回帰曲線とL交わった辺E(表示部14の画面枠の辺)をARマーカ5がフレームインした辺と認識し、ARマーカ5がフレームインした辺の方向をARマーカ5がフレームインした方向として認識する。例えば、ARマーカ5がフレームインした辺が左であれば、ARマーカ5がフレームインした方向は「左から」と認識する。
When the frame-in of the AR marker 5 is recognized (step S2; YES), the CPU 10 based on the plurality of captured images acquired from the camera 16 after the frame-in of the AR marker 5 is recognized. Is obtained, and the direction in which the AR marker 5 enters the frame is recognized based on the obtained locus (step S3).
Specifically, first, the CPU 10 sets the X axis, the Y axis, and the coordinate origin O (0, 0) on the captured image. Next, as shown in FIG. 5, the center coordinate P <b> 1 of the AR marker 5 is obtained from each of the captured image in which the AR marker 5 is recognized and the n captured images acquired by the camera 16 at predetermined time intervals thereafter. X, Y), P2 (X, Y)... Pn (X, Y) are obtained, and a regression curve L is drawn with respect to the obtained central coordinate group. Then, the side E (the side of the screen frame of the display unit 14) that intersects the regression curve at the closest position from the center coordinate P1 (X, Y) of the captured image in which the AR marker 5 is recognized is defined as the AR marker. 5 is recognized as the frame-in side, and the direction of the side where the AR marker 5 is framed in is recognized as the direction in which the AR marker 5 is framed in. For example, if the side where the AR marker 5 is framed in is left, the direction in which the AR marker 5 is framed is recognized as “from the left”.

次いで、CPU10は、フレームイン/フレームアウト情報記憶部111に、ARマーカ5がフレームインした方向の履歴情報を記憶する(ステップS4)。   Next, the CPU 10 stores history information in the direction in which the AR marker 5 is framed in the frame-in / frame-out information storage unit 111 (step S4).

次いで、CPU10は、RAM11のフレームイン/フレームアウト情報記憶部111に記憶されている履歴と一致する動作パターンが動作パターンデータベース122に記憶されているか否かを判断する(ステップS5)。
フレームイン/フレームアウト情報記憶部111に記憶されている履歴と一致する動作パターンが動作パターンデータベース122に記憶されていると判断した場合(ステップS5;YES)、CPU10は、動作パターンデータベース122においてその一致する動作パターンに対応付けて記憶されている表示情報に基づいて、表示部14に表示を行わせる(ステップS6)。即ち、ARマーカがフレームインした方向及びフレームアウトした方向の履歴に応じた所定の表示を表示部14に行わせる。例えば、表示部14に表示されている撮像画像中のARマーカ5の位置に、動作パターンに応じた仮想物体画像を合成して表示させる。
フレームイン/フレームアウト情報記憶部111に記憶されている履歴と一致する動作パターンが動作パターンデータベース122に記憶されていないと判断した場合(ステップS5;NO)、CPU10は、ステップS7の処理に移行する。即ち、現在表示している情報の表示をそのまま継続させる。
Next, the CPU 10 determines whether or not an operation pattern that matches the history stored in the frame-in / frame-out information storage unit 111 of the RAM 11 is stored in the operation pattern database 122 (step S5).
When it is determined that an operation pattern that matches the history stored in the frame-in / frame-out information storage unit 111 is stored in the operation pattern database 122 (step S5; YES), the CPU 10 Based on the display information stored in association with the matching operation pattern, display is performed on the display unit 14 (step S6). That is, the display unit 14 is caused to perform predetermined display according to the history of the direction in which the AR marker is framed in and the direction in which the AR marker is out. For example, a virtual object image corresponding to the operation pattern is synthesized and displayed at the position of the AR marker 5 in the captured image displayed on the display unit 14.
When it is determined that the operation pattern matching the history stored in the frame-in / frame-out information storage unit 111 is not stored in the operation pattern database 122 (step S5; NO), the CPU 10 proceeds to the process of step S7. To do. That is, the display of the currently displayed information is continued as it is.

なお、上述のように、動作パターンデータベース122には、各方向からの1回目のフレームインのみからなる動作パターンと、それぞれのフレームインの方向に対応する表示情報とが対応付けて記憶されている。よって、初期状態から初めてフレームインが認識された際には、ARマーカ5がフレームインした方向に応じた所定の表示が行われる。   Note that, as described above, the motion pattern database 122 stores a motion pattern including only the first frame-in from each direction and display information corresponding to each frame-in direction in association with each other. . Therefore, when the frame-in is recognized for the first time from the initial state, a predetermined display according to the direction in which the AR marker 5 is framed is performed.

次いで、CPU10は、ARマーカ5のフレームアウトが認識されるのを待機する(ステップS7)。この間、CPU10は、カメラ16により所定時間毎に取得される撮像画像に対し、上述のARマーカ5の認識処理を行い、ARマーカ5が認識されなくなった場合に、ARマーカ5がフレームアウトしたと認識する。   Next, the CPU 10 waits for the recognition of the frame out of the AR marker 5 (step S7). During this time, the CPU 10 performs the above-described recognition process of the AR marker 5 on the captured image acquired by the camera 16 every predetermined time, and when the AR marker 5 is no longer recognized, the AR marker 5 is out of the frame. recognize.

ARマーカ5のフレームアウトを認識すると(ステップS7;YES)、CPU10は、内部クロックにより計時を開始する(ステップS8)。また、CPU10は、ARマーカ5のフレームアウトが認識される直前にカメラ16から取得された複数の撮像画像に基づいて、ARマーカ5の座標の軌跡を取得し、この取得された軌跡に基づいて、ARマーカ5がフレームアウトした方向を認識する(ステップS9)。具体的に、CPU10は、図5に示すように、RAM11に記憶されている、ARマーカ5が認識されなくなる直前のn枚の撮像画像からARマーカ5の中心座標P11(X,Y)、P12(X,Y)・・・P1n(X,Y)を求め、求めた中心座標群に対して回帰曲線Lを引く。次いで、ARマーカ5が認識されなくなる最も直前の中心座標P11(X,Y)から最も近い位置で回帰曲線Lと交わった辺E(表示部14の画面枠の辺)をARマーカ5がフレームアウトした辺と認識し、ARマーカ5がフレームアウトした辺の方向をARマーカ5がフレームアウトした方向として認識する。例えば、ARマーカ5がフレームアウトした辺が左であると認識した場合、ARマーカ5がフレームアウトした方向は「左から」と認識する。   When the frame out of the AR marker 5 is recognized (step S7; YES), the CPU 10 starts measuring time with the internal clock (step S8). Further, the CPU 10 acquires the locus of the coordinates of the AR marker 5 based on the plurality of captured images acquired from the camera 16 immediately before the AR marker 5 is recognized as being out of the frame, and based on the acquired locus. The direction in which the AR marker 5 is out of the frame is recognized (step S9). Specifically, as shown in FIG. 5, the CPU 10 stores the center coordinates P11 (X, Y) and P12 of the AR marker 5 from the n captured images stored in the RAM 11 immediately before the AR marker 5 is not recognized. (X, Y)... P1n (X, Y) is obtained, and a regression curve L is drawn with respect to the obtained central coordinate group. Next, the AR marker 5 frames out the side E (side of the screen frame of the display unit 14) that intersects the regression curve L at the closest position from the most recent central coordinate P11 (X, Y) where the AR marker 5 is no longer recognized. The direction of the side where the AR marker 5 is out of frame is recognized as the direction where the AR marker 5 is out of frame. For example, when the AR marker 5 recognizes that the side out of the frame is left, the direction in which the AR marker 5 is out of frame is recognized as “from the left”.

次いで、CPU10は、RAM11のフレームイン/フレームアウト情報記憶部111に、フレームアウトした方向の履歴情報を記憶する(ステップS10)。   Next, the CPU 10 stores history information in the frame-out direction in the frame-in / frame-out information storage unit 111 of the RAM 11 (step S10).

次いで、CPU10は、フレームアウト後の撮像画像に対し、ARマーカ5の認識処理を行い、ARマーカ5のフレームインが認識されたか否かを判断する(ステップS11)。ARマーカ5のフレームインが認識されたと判断した場合(ステップS11;YES)、CPU10は、ステップS3の処理に戻り、ステップS3〜ステップS11の処理を繰り返し実行する。   Next, the CPU 10 performs recognition processing of the AR marker 5 on the captured image after the frame-out, and determines whether or not the frame-in of the AR marker 5 has been recognized (step S11). When it is determined that the frame-in of the AR marker 5 has been recognized (step S11; YES), the CPU 10 returns to the process of step S3 and repeatedly executes the processes of step S3 to step S11.

ARマーカ5のフレームインが認識されていないと判断した場合(ステップS11;NO)、CPU10は、計時開始から(即ち、フレームアウトしてから)所定時間が経過したか否かを判断する(ステップS12)。
計時開始から(即ち、フレームアウトしてから)所定時間が経過していないと判断した場合(ステップS12;NO)、処理はステップS11に戻る。
計時開始から(即ち、フレームアウトしてから)所定時間が経過したと判断した場合(ステップS12;YES)、CPU10は、RAM11に記憶されている撮像画像及びフレームイン/フレームアウト情報記憶部111に記憶されている履歴情報をリセット(消去)する(ステップS13)。これにより、初期状態となる。
When it is determined that the frame-in of the AR marker 5 has not been recognized (step S11; NO), the CPU 10 determines whether or not a predetermined time has elapsed from the start of timing (that is, after frame-out) (step S11). S12).
When it is determined that the predetermined time has not elapsed since the start of time measurement (that is, after frame out) (step S12; NO), the process returns to step S11.
When it is determined that a predetermined time has elapsed from the start of timing (that is, after frame out) (step S12; YES), the CPU 10 stores the captured image and frame-in / frame-out information storage unit 111 stored in the RAM 11. The stored history information is reset (erased) (step S13). Thereby, it will be in an initial state.

操作部15からARマーカアプリケーションの終了指示が入力されるまでステップS2〜ステップS13の処理が繰り返し実行される。操作部15からARマーカアプリケーションの終了指示が入力されると(ステップS14;YES)、CPU10は、表示制御処理を終了する。   Until the end instruction of the AR marker application is input from the operation unit 15, the processes in steps S2 to S13 are repeatedly executed. When an instruction to end the AR marker application is input from the operation unit 15 (step S14; YES), the CPU 10 ends the display control process.

ここで、上記の表示制御処理による表示動作について、図6に具体例を挙げて説明する。
例えば、図6(a)に示す初期状態において、画像処理装置1を左に動かすと、図6(b)に示すようにARマーカ5が左からフレームインする。ここで、初期状態からこれまでの動作履歴(左からのフレームイン)は、図3に示すように、動作パターンデータベース122に記憶されている動作パターンと一致しているので、この動作パターンに対応付けられている表示情報(ウサギ)に基づいて、ARマーカ5の位置にウサギの画像が表示される。
Here, the display operation by the display control process will be described with reference to a specific example in FIG.
For example, when the image processing apparatus 1 is moved to the left in the initial state shown in FIG. 6A, the AR marker 5 is framed in from the left as shown in FIG. 6B. Here, since the operation history from the initial state until now (frame-in from the left) matches the operation pattern stored in the operation pattern database 122 as shown in FIG. 3, it corresponds to this operation pattern. Based on the attached display information (rabbit), a rabbit image is displayed at the position of the AR marker 5.

次に、画像処理装置1を右に動かすと、図6(c)に示すように、ARマーカ5が左からフレームアウトする。ここから画像処理装置1を左に動かすと、図6(d)に示すようにARマーカ5が左からフレームインする。ここで、初期状態からこれまでの動作履歴(左からフレームイン→左からフレームアウト→左からフレームイン)は、動作パターンデータベース122には記憶されていない。よって、ARマーカ5の上にウサギが引き続き表示される。   Next, when the image processing apparatus 1 is moved to the right, as shown in FIG. 6C, the AR marker 5 is out of the frame from the left. When the image processing apparatus 1 is moved to the left from here, the AR marker 5 is framed in from the left as shown in FIG. Here, the operation history from the initial state until now (frame in from left → frame out from left → frame in from left) is not stored in the operation pattern database 122. Therefore, the rabbit is continuously displayed on the AR marker 5.

次に、画像処理装置1を上に動かすと、図6(e)に示すように、ARマーカ5が下からフレームアウトする。ここから画像処理装置1を下に動かすと、図6(f)に示すようにARマーカ5が下からフレームインする。ここで、初期状態からこれまでの動作履歴(左からフレームイン→左からフレームアウト→左からフレームイン→下からフレームアウト→下からフレームイン)は、動作パターンデータベース122に記憶されている動作パターンと一致しているので、この動作パターンに対応付けられている表示情報(ネコ)に基づいて、ARマーカ5の位置にネコの画像が表示される。   Next, when the image processing apparatus 1 is moved upward, as shown in FIG. 6E, the AR marker 5 is framed out from below. When the image processing apparatus 1 is moved downward from here, the AR marker 5 is framed in from below as shown in FIG. Here, the operation history from the initial state until now (from left to frame in → from left to frame out → from left to frame in → from bottom to frame out → from bottom to frame in) is an operation pattern stored in the operation pattern database 122. Therefore, the cat image is displayed at the position of the AR marker 5 based on the display information (cat) associated with this operation pattern.

このように、図7に示すように、画像処理装置1を上下左右に動かして、一つのARマーカ5を動作パターンデータベース122に登録されている動作パターンでフレームイン/フレームアウトさせるだけで、表示部14にその動作に応じた所望の表示を行わせることができる。   In this way, as shown in FIG. 7, the image processing apparatus 1 is moved up, down, left, and right, and only one AR marker 5 is framed in / out with an operation pattern registered in the operation pattern database 122. It is possible to cause the unit 14 to perform a desired display according to the operation.

以上説明したように、本実施形態における画像処理装置1によれば、CPU10は、カメラ16からの撮像画像に基づいて、表示部14の画面内にARマーカ5がフレームインしたことを認識するとともに、当該ARマーカ5がフレームインした方向を認識し、ARマーカ5がフレームインした方向に応じた所定の表示を表示部14に行わせる。
従って、同じ一つのARマーカ5であっても、ARマーカ5がフレームインした方向に応じて異なる複数の表示を表示部14に行わせることが可能となる。その結果、ARマーカの種類を選択するための選択操作を行う必要がなくなり、利便性が向上する。
As described above, according to the image processing apparatus 1 in the present embodiment, the CPU 10 recognizes that the AR marker 5 has entered the frame in the screen of the display unit 14 based on the captured image from the camera 16. The direction in which the AR marker 5 enters the frame is recognized, and the display unit 14 performs a predetermined display corresponding to the direction in which the AR marker 5 enters the frame.
Therefore, even with the same single AR marker 5, it is possible to cause the display unit 14 to perform a plurality of different displays depending on the direction in which the AR marker 5 is framed. As a result, there is no need to perform a selection operation for selecting the type of AR marker, and convenience is improved.

また、CPU10は、ARマーカ5がフレームインした方向及びフレームアウトした方向の履歴情報をフレームイン/フレームアウト情報記憶部111に記憶しておき、ARマーカ5のフレームインが認識された際に、フレームイン/フレームアウト情報記憶部111に記憶されているARマーカ5がフレームインした方向及びフレームアウトした方向の履歴に応じた所定の表示を表示部14に行わせる。
従って、同じ一つのARマーカ5であっても、ARマーカ5がフレームインした方向及びフレームアウトした方向の一連の動作に応じて異なる複数の表示を表示部14に行わせることが可能となる。その結果、ARマーカの種類を選択するための選択操作を行う必要がなくなり、利便性が向上する。
Further, the CPU 10 stores the history information of the direction in which the AR marker 5 is framed in and the direction in which the AR marker 5 is out in the frame-in / frame-out information storage unit 111, and when the frame in of the AR marker 5 is recognized. The display unit 14 is caused to perform predetermined display according to the history of the direction in which the AR marker 5 stored in the frame-in / frame-out information storage unit 111 has been framed in and the direction in which the frame is out.
Therefore, even with the same one AR marker 5, it is possible to cause the display unit 14 to perform a plurality of different displays according to a series of operations in the direction in which the AR marker 5 is framed in and the direction in which the AR marker 5 is out. As a result, there is no need to perform a selection operation for selecting the type of AR marker, and convenience is improved.

また、CPU10は、ARマーカ5がフレームインした方向及びフレームアウトした方向の認識を画像処理技術を用いて行うため、加速度センサ等のハードウエアを搭載することなく、簡単な装置構成で実現することが可能となる。   Further, since the CPU 10 recognizes the direction in which the AR marker 5 is framed in and the direction in which the AR marker 5 is out using the image processing technology, the CPU 10 can be realized with a simple device configuration without mounting hardware such as an acceleration sensor. Is possible.

なお、上記実施形態における記述内容は、画像処理装置の好適な一例であり、これに限定されるものではない。   In addition, the description content in the said embodiment is a suitable example of an image processing apparatus, and is not limited to this.

例えば、上記実施形態においては、画像処理装置1がスマートフォン等の手に持つタイプの移動型端末である場合を例にとり説明したが、眼鏡型HMD(Head Mounted Display)等であってもよい。この場合、図8に示すように、首振り動作でマーカのフレームイン、フレームアウトを行うことができるので、ハンズフリーで表示部14への表示を切り替えることが可能となる。   For example, in the above-described embodiment, the case where the image processing apparatus 1 is a mobile terminal of a type held in the hand of a smartphone or the like has been described as an example, but a glasses-type HMD (Head Mounted Display) or the like may be used. In this case, as shown in FIG. 8, since the marker can be framed in and out by the swing motion, the display on the display unit 14 can be switched hands-free.

また、上記実施形態においては、様々な方向からのフレームイン及びフレームアウトを組み合わせた動作パターンに対して表示情報を予め対応付けておくこととしたが、例えば、フレームインのみの動作パターン(例えば、右からフレームイン→左からフレームイン→上からフレームイン・・・等)に表示情報を対応付けて記憶しておくこととしてもよい。そして、ARマーカ5のフレームインが認識された際に、CPU10は、ARマーカ5がフレームインした方向の履歴が予め記憶された動作パターンに一致するか否かを判断し、一致した場合に、その動作パターンに応じた表示情報に基づき表示部14の表示を行うこととしてもよい。また、例えば、フレームアウトのみの動作パターン(例えば、右からフレームアウト→左からフレームアウト→上からフレームアウト・・・等)に表示情報を対応付けて記憶しておくこととしてもよい。そして、ARマーカ5のフレームインが認識された際に、CPU10は、それまでにARマーカ5がフレームアウトした方向の履歴が予め記憶された動作パターンに一致するか否かを判断し、一致した場合に、その動作パターンに応じた表示情報に基づき表示部14の表示を行うこととしてもよい。   In the above embodiment, display information is associated in advance with an operation pattern that combines frame-in and frame-out from various directions. For example, an operation pattern that includes only frame-in (for example, Display information may be stored in association with the frame in from the right → the frame in from the left → the frame in from the top. When the frame-in of the AR marker 5 is recognized, the CPU 10 determines whether or not the history of the direction in which the AR marker 5 is framed matches the operation pattern stored in advance. It is good also as displaying on the display part 14 based on the display information according to the operation | movement pattern. Further, for example, display information may be stored in association with an operation pattern of only frame out (for example, frame out from right → frame out from left → frame out from top, etc.). When the frame-in of the AR marker 5 is recognized, the CPU 10 determines whether or not the history of the direction in which the AR marker 5 has been out of frame matches the pre-stored operation pattern. In some cases, display on the display unit 14 may be performed based on display information corresponding to the operation pattern.

また、上記実施形態においては、初期状態からのフレームイン及びフレームアウトの一連の動作履歴が動作パターンデータベース122に記憶された動作パターンと一致した場合に、その動作パターンに応じた表示を行うこととしたが、これに限定されない。
例えば、記憶部12に、フレームインの方向と、これに対応する表示情報とを予め対応付けて記憶しておき、CPU10は、ARマーカ5がフレームインした方向が認識される毎に、認識されたフレームインの方向に予め対応付けられた表示情報に基づいて、ARマーカ5がフレームインした方向に応じた所定の表示を表示部14に行わせることとしてもよい。
また、例えば、記憶部12に、フレームアウトの方向と、これに対応する表示情報とを予め対応付けて記憶しておき、CPU10は、ARマーカ5のフレームアウトの方向を認識すると、その認識した方向をRAM11に記憶し、ARマーカ5のフレームインが認識されると、その直前に認識されたフレームアウトの方向に予め対応付けられた表示情報に基づいて、直前にARマーカ5がフレームアウトした方向に応じた所定の表示を表示部14に行わせることとしてもよい。
また、例えば、記憶部12に、フレームアウトの方向と、これに対応する表示情報とを予め対応付けて記憶しておき、CPU10は、ARマーカ5のフレームアウトの方向を認識すると、そのフレームアウトした方向に対応付けられた表示情報を表示してもよい。この時、マーカ5のフレームアウトをトリガとして表示情報を表示しているため、その後、マーカ5がフレームインしなくても表示情報を表示することができる。
このようにしても、上記実施形態と同様に、同じ一つのARマーカ5であっても、ARマーカ5がフレームインした方向やフレームアウトした方向に応じて異なる複数の表示を表示部14に行わせることが可能となる。
In the above embodiment, when a series of operation history of frame-in and frame-out from the initial state matches the operation pattern stored in the operation pattern database 122, display according to the operation pattern is performed. However, it is not limited to this.
For example, the storage unit 12 stores in advance a frame-in direction and display information corresponding to the direction, and the CPU 10 recognizes each time the direction in which the AR marker 5 is framed is recognized. The display unit 14 may be caused to perform a predetermined display corresponding to the direction in which the AR marker 5 is framed based on the display information previously associated with the frame-in direction.
Further, for example, the storage unit 12 stores in advance the frame-out direction and the display information corresponding to the frame-out direction, and the CPU 10 recognizes the direction when the AR marker 5 recognizes the frame-out direction. The direction is stored in the RAM 11, and when the frame-in of the AR marker 5 is recognized, the AR marker 5 is immediately framed out based on the display information previously associated with the frame-out direction recognized immediately before. It is good also as making the display part 14 perform the predetermined | prescribed display according to a direction.
Further, for example, the storage unit 12 stores a frame-out direction and display information corresponding to the frame-out direction in advance, and the CPU 10 recognizes the frame-out direction of the AR marker 5 and recognizes the frame-out direction. Display information associated with the selected direction may be displayed. At this time, since the display information is displayed by using the frame out of the marker 5 as a trigger, the display information can be displayed even if the marker 5 does not enter the frame thereafter.
Even in this case, similarly to the above-described embodiment, even with the same AR marker 5, a plurality of different displays are performed on the display unit 14 depending on the direction in which the AR marker 5 is framed in or the direction in which the AR marker 5 is out. It becomes possible to make it.

また、上記実施形態においては、画像処理技術によってARマーカ5がフレームインした方向及びフレームアウトした方向を認識することとしたが、加速度センサやジャイロセンサを搭載している画像処理装置1であれば、これらによってフレームインした方向及びフレームアウトした方向を認識することとしてもよい。   In the above embodiment, the direction in which the AR marker 5 is framed in and the direction in which the AR marker 5 is out of frame is recognized by the image processing technique. However, if the image processing apparatus 1 is equipped with an acceleration sensor or a gyro sensor. These directions may be used to recognize the frame-in direction and the frame-out direction.

また、上記実施形態においては、一つのARマーカ5に基づく表示について説明したが、ARマーカの種類は複数あってもよい。この場合、動作パターンデータベース122は、ARマーカの種類毎に複数記憶され、認識されたARパターンの種類に応じた動作パターンデータベースを用いて表示制御処理が行われる。   Moreover, in the said embodiment, although the display based on one AR marker 5 was demonstrated, there may be multiple types of AR marker. In this case, a plurality of operation pattern databases 122 are stored for each AR marker type, and display control processing is performed using an operation pattern database corresponding to the recognized AR pattern type.

また、ARマーカ5がフレームインした方向及びフレームアウトした方向だけでなく、フレームインしてからフレームアウトするまでの時間も表示内容を制御するためのパラメータとしてもよい。   Further, not only the direction in which the AR marker 5 is framed in and the direction in which the AR marker 5 is out, but also the time from frame in to frame out may be a parameter for controlling the display contents.

また、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Also, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory, a portable recording medium such as a CD-ROM, in addition to a ROM, a hard disk, etc. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

その他、画像処理装置を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each apparatus constituting the image processing apparatus can be changed as appropriate without departing from the spirit of the invention.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
撮像手段と、
前記撮像手段により取得された撮像画像を表示する表示手段と、
前記表示手段の画面内に所定のマーカがフレームインしたことを認識するフレームイン認識手段と、
前記マーカがフレームインした方向を認識するフレームイン方向認識手段と、
前記マーカがフレームインした方向に応じた所定の表示を前記表示手段に行わせる制御手段と、
を備える画像処理装置。
<請求項2>
前記表示手段の画面から前記マーカがフレームアウトしたことを認識するフレームアウト認識手段と、
前記マーカがフレームアウトした方向を認識するフレームアウト方向認識手段と、
前記マーカがフレームインした方向及びフレームアウトした方向の履歴情報を記憶する記憶手段と、
を更に備え、
前記制御手段は、前記マーカのフレームアウトが認識された後に前記マーカのフレームインが認識された際に、前記記憶手段に記憶されている前記マーカがフレームインした方向及びフレームアウトした方向の履歴に応じた所定の表示を前記表示手段に行わせる請求項1に記載の画像処理装置。
<請求項3>
撮像手段と、
前記撮像手段により取得された撮像画像を表示する表示手段と、
前記表示手段の画面内に所定のマーカがフレームインしたことを認識するフレームイン認識手段と、
前記表示手段の画面から前記マーカがフレームアウトしたことを認識するフレームアウト認識手段と、
前記マーカがフレームアウトした方向を認識するフレームアウト方向認識手段と、
前記マーカがフレームアウトした方向を記憶する記憶手段と、
前記マーカのフレームアウトが認識された後に前記マーカのフレームインが認識された際に、前記記憶手段に記憶されている前記マーカがフレームアウトした方向に応じた所定の表示を前記表示手段に行わせる制御手段と、
を備える画像処理装置。
<請求項4>
前記フレームイン方向認識手段は、前記マーカのフレームインが認識された以降に前記撮像手段から取得された複数の撮像画像に基づいて、前記マーカのフレームインが認識された後の前記マーカの座標の軌跡を取得し、この取得された軌跡に基づいて、前記マーカがフレームインした方向を認識する請求項1又は2に記載の画像処理装置。
<請求項5>
前記フレームアウト方向認識手段は、前記マーカのフレームアウトが認識される直前に前記撮像手段から取得された複数の撮像画像に基づいて、前記マーカのフレームアウトが認識される直前の前記マーカの座標の軌跡を取得し、この取得された軌跡に基づいて、前記マーカがフレームアウトした方向を認識する請求項2又は3に記載の画像処理装置。
<請求項6>
撮像手段と、
前記撮像手段により取得された撮像画像を表示する表示手段と、
前記表示手段の画面内に所定のマーカを認識するマーカ認識手段と、
前記マーカがフレームアウトした方向を認識するフレームアウト方向認識手段と、
前記マーカがフレームアウトした方向に応じた所定の表示を前記表示手段に行わせる制御手段と、
を備える画像処理装置。
<請求項7>
撮像手段を備える画像処理装置に用いられるコンピュータを、
前記撮像手段により取得された撮像画像を表示する表示手段、
前記表示手段の画面内に所定のマーカがフレームインしたことを認識するフレームイン認識手段、
前記マーカがフレームインした方向を認識するフレームイン方向認識手段、
前記マーカがフレームインした方向に応じた所定の表示を前記表示手段に行わせる制御手段、
として機能させるためのプログラム。
<請求項8>
撮像手段を備える画像処理装置に用いられるコンピュータを、
前記撮像手段により取得された撮像画像を表示する表示手段、
前記表示手段の画面内に所定のマーカがフレームインしたことを認識するフレームイン認識手段、
前記表示手段の画面から前記マーカがフレームアウトしたことを認識するフレームアウト認識手段、
前記マーカがフレームアウトした方向を認識するフレームアウト方向認識手段、
前記マーカがフレームアウトした方向を記憶する記憶手段、
前記マーカのフレームアウトが認識された後に前記マーカのフレームインが認識された際に、前記記憶手段に記憶されている前記マーカがフレームアウトした方向に応じた所定の表示を前記表示手段に行わせる制御手段、
として機能させるためのプログラム。
<請求項9> 撮像手段を備える画像処理装置に用いられるコンピュータを、
前記撮像手段により取得された撮像画像を表示する表示手段、
前記表示手段の画面内に所定のマーカを認識するマーカ認識手段、
前記マーカがフレームアウトした方向を認識するフレームアウト方向認識手段、
前記マーカがフレームアウトした方向に応じた所定の表示を前記表示手段に行わせる制御手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Imaging means;
Display means for displaying a captured image acquired by the imaging means;
Frame-in recognition means for recognizing that a predetermined marker has been framed in the screen of the display means;
Frame-in direction recognition means for recognizing the direction in which the marker is in frame;
Control means for causing the display means to perform a predetermined display according to the direction in which the marker is framed;
An image processing apparatus comprising:
<Claim 2>
Frame out recognition means for recognizing that the marker is out of frame from the screen of the display means;
Frame out direction recognition means for recognizing the direction in which the marker is out of frame;
Storage means for storing history information of the direction in which the marker is in and out of the frame;
Further comprising
When the marker frame-in is recognized after the marker frame-out is recognized, the control means stores the history of the marker-in direction and frame-out direction stored in the storage means. The image processing apparatus according to claim 1, wherein the display unit performs a predetermined display in response.
<Claim 3>
Imaging means;
Display means for displaying a captured image acquired by the imaging means;
Frame-in recognition means for recognizing that a predetermined marker has been framed in the screen of the display means;
Frame out recognition means for recognizing that the marker is out of frame from the screen of the display means;
Frame out direction recognition means for recognizing the direction in which the marker is out of frame;
Storage means for storing the direction in which the marker is out of frame;
When the marker frame-in is recognized after the marker frame-out is recognized, the display unit performs a predetermined display corresponding to the direction in which the marker stored in the storage unit is out-of-frame. Control means;
An image processing apparatus comprising:
<Claim 4>
The frame-in direction recognizing unit recognizes the coordinates of the marker after the frame-in of the marker is recognized based on a plurality of captured images acquired from the imaging unit after the frame-in of the marker is recognized. The image processing apparatus according to claim 1, wherein a trajectory is acquired, and a direction in which the marker is framed in is recognized based on the acquired trajectory.
<Claim 5>
The frame-out direction recognizing unit is configured to determine the coordinates of the marker immediately before the marker frame-out is recognized based on a plurality of captured images acquired from the imaging unit immediately before the marker frame-out is recognized. The image processing apparatus according to claim 2, wherein a trajectory is acquired and a direction in which the marker is out of frame is recognized based on the acquired trajectory.
<Claim 6>
Imaging means;
Display means for displaying a captured image acquired by the imaging means;
Marker recognition means for recognizing a predetermined marker in the screen of the display means;
Frame out direction recognition means for recognizing the direction in which the marker is out of frame;
Control means for causing the display means to perform a predetermined display according to the direction in which the marker is out of frame;
An image processing apparatus comprising:
<Claim 7>
A computer used in an image processing apparatus including an imaging unit,
Display means for displaying a captured image acquired by the imaging means;
Frame-in recognition means for recognizing that a predetermined marker has entered into the screen of the display means,
Frame-in direction recognition means for recognizing the direction in which the marker is in-frame,
Control means for causing the display means to perform a predetermined display according to the direction in which the marker is in-frame;
Program to function as.
<Claim 8>
A computer used in an image processing apparatus including an imaging unit,
Display means for displaying a captured image acquired by the imaging means;
Frame-in recognition means for recognizing that a predetermined marker has entered into the screen of the display means,
Frame-out recognition means for recognizing that the marker is out of frame from the display means screen;
Frame out direction recognition means for recognizing the direction in which the marker is out of frame,
Storage means for storing a direction in which the marker is out of frame;
When the marker frame-in is recognized after the marker frame-out is recognized, the display unit performs a predetermined display corresponding to the direction in which the marker stored in the storage unit is out-of-frame. Control means,
Program to function as.
<Claim 9> A computer used in an image processing apparatus including an imaging unit,
Display means for displaying a captured image acquired by the imaging means;
Marker recognition means for recognizing a predetermined marker in the screen of the display means;
Frame out direction recognition means for recognizing the direction in which the marker is out of frame,
Control means for causing the display means to perform a predetermined display according to the direction in which the marker is out of frame;
Program to function as.

1 画像処理装置
10 CPU
11 RAM
111 フレームイン/フレームアウト情報記憶部
12 記憶部
121 プログラム記憶部
122 動作パターンデータベース
13 通信部
14 表示部
15 操作部
16 カメラ
17 現在時刻取得部
1 Image processing apparatus 10 CPU
11 RAM
111 frame-in / frame-out information storage unit 12 storage unit 121 program storage unit 122 operation pattern database 13 communication unit 14 display unit 15 operation unit 16 camera 17 current time acquisition unit

Claims (12)

画像取得手段と、
前記画像取得手段により取得された第一の画像内に所定のマーカがフレームインした場合、前記マーカがフレームインした方向を認識するフレームイン方向認識手段と、
前記フレームイン方向認識手段により認識された前記マーカがフレームインした方向に応じた第二の画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means ;
A frame-in direction recognizing unit for recognizing a direction in which the marker has been framed when a predetermined marker is framed in the first image acquired by the image acquiring unit ;
Generating means for generating a second image corresponding to the direction in which the marker recognized by the frame-in direction recognition means is framed;
An image processing apparatus comprising:
前記画像取得手段により取得された第一の画像内から前記マーカがフレームアウトした場合、前記マーカがフレームアウトした方向を認識するフレームアウト方向認識手段と、
前記マーカがフレームインした方向及びフレームアウトした方向の履歴情報を記憶する記憶手段と、
を更に備え、
前記生成手段は、前記マーカのフレームアウトが認識された後に前記マーカのフレームインが認識された際に、前記記憶手段に記憶されている前記マーカがフレームインした方向及びフレームアウトした方向の履歴に応じた前記第二の画像を生成する、ことを特徴とする請求項1に記載の画像処理装置。
Frame out direction recognition means for recognizing the direction in which the marker is out of frame when the marker is out of frame from within the first image acquired by the image acquisition means ;
Storage means for storing history information of the direction in which the marker is in and out of the frame;
Further comprising
When the marker is recognized after the marker has been framed out, the generating means stores the history of the direction in which the marker has been framed in and the direction in which the marker has been stored stored in the storage means. The image processing apparatus according to claim 1, wherein the second image is generated in response.
前記第二の画像を表示させるよう表示手段を制御する表示制御手段を更に備える、A display control means for controlling the display means to display the second image;
ことを特徴とする請求項1又は2に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記生成手段は、前記第一の画像と前記第二の画像とを合成させる合成手段をさらに備える、The generating unit further includes a combining unit that combines the first image and the second image.
ことを特徴とする請求項1から3の何れか1項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記生成手段は、前記第二の画像として、所定の物体の動作パターンを表す画像を生成する、The generation unit generates an image representing an operation pattern of a predetermined object as the second image.
ことを特徴とする請求項1から4の何れか1項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記フレームイン方向認識手段は、前記マーカのフレームインが認識された前記画像取得手段から取得される第一の画像に基づいて、前記マーカのフレームインが認識された後の前記マーカの座標の軌跡を取得し、この取得された軌跡に基づいて、前記マーカがフレームインした方向を認識する
ことを特徴とする請求項1から5の何れか1項に記載の画像処理装置。
Said frame-in direction recognition means, on the basis of the first image that will be acquired from the image acquisition unit after the frame-in of the marker is recognized, the coordinates of the marker after frame-in of the marker is recognized And recognizing the direction in which the marker is framed in based on the acquired trajectory .
The image processing apparatus according to claim 1 , wherein the image processing apparatus is an image processing apparatus.
前記フレームアウト方向認識手段は、前記マーカのフレームアウトが認識される直前に前記画像取得手段から取得される第一の画像に基づいて、前記マーカのフレームアウトが認識される直前の前記マーカの座標の軌跡を取得し、この取得された軌跡に基づいて、前記マーカがフレームアウトした方向を認識する、
ことを特徴とする請求項2から6の何れか1項に記載の画像処理装置。
The frame-out direction recognizing means is based on the first image acquired from the image acquisition means immediately before the marker frame-out is recognized, and the marker coordinates immediately before the marker frame-out is recognized. And recognizing the direction in which the marker is out of the frame based on the acquired locus.
The image processing apparatus according to claim 2 , wherein the image processing apparatus is an image processing apparatus.
画像取得ステップと、An image acquisition step;
前記画像取得ステップにより取得された第一の画像内に所定のマーカがフレームインした場合、前記マーカがフレームインした方向を認識するフレームイン方向認識ステップと、A frame-in direction recognition step for recognizing a direction in which the marker has been framed when a predetermined marker has been framed in the first image acquired by the image acquisition step;
前記フレームイン方向認識ステップにより認識された前記マーカがフレームインした方向に応じた第二の画像を生成する生成ステップと、A generation step of generating a second image corresponding to the direction in which the marker recognized by the frame-in direction recognition step is framed;
を含むことを特徴とする画像処理方法。An image processing method comprising:
前記マーカがフレームインした方向及びフレームアウトした方向の履歴情報を記憶する記憶手段を具備する画像処理装置で実行される画像処理方法であって、An image processing method executed by an image processing apparatus including a storage unit that stores history information of a direction in which the marker is framed in and a direction in which the marker is out of frame,
前記画像取得ステップにより取得された第一の画像内から前記マーカがフレームアウトした場合、前記マーカがフレームアウトした方向を認識するフレームアウト方向認識ステップ、A frame-out direction recognition step for recognizing a direction in which the marker is out of frame when the marker is out of frame from within the first image acquired in the image acquisition step;
を更に備え、Further comprising
前記生成ステップは、前記マーカのフレームアウトが認識された後に前記マーカのフレームインが認識された際に、前記記憶手段に記憶されている前記マーカがフレームインした方向及びフレームアウトした方向の履歴に応じた前記第二の画像を生成する、In the generation step, when the frame-in of the marker is recognized after the frame-out of the marker is recognized, the history of the direction in which the marker is framed in and the direction in which the marker is out is stored in the storage unit. Generating the corresponding second image,
ことを特徴とする請求項8に記載の画像処理方法。The image processing method according to claim 8.
コンピュータを、Computer
画像取得手段、Image acquisition means,
前記画像取得手段により取得された第一の画像内に所定のマーカがフレームインした場合、前記マーカがフレームインした方向を認識するフレームイン方向認識手段、A frame-in direction recognizing unit for recognizing a direction in which the marker is framed in when a predetermined marker is framed in the first image acquired by the image acquiring unit;
前記フレームイン方向認識手段により認識された前記マーカがフレームインした方向に応じた第二の画像を生成する生成手段、Generating means for generating a second image corresponding to the direction in which the marker recognized by the frame-in direction recognizing means is framed;
として機能させるためことを特徴とするプログラム。A program characterized by functioning as
コンピュータを、Computer
画像取得手段、Image acquisition means,
前記画像取得手段により取得された第一の画像内から所定のマーカがフレームアウトした場合、前記マーカがフレームアウトした方向を認識するフレームアウト方向認識手段、A frame-out direction recognition means for recognizing a direction in which the marker is out of frame when a predetermined marker is out of frame from within the first image acquired by the image acquisition means;
前記フレームアウト方向認識手段により認識された前記マーカがフレームアウトした方向に応じた第二の画像を生成する生成手段、Generating means for generating a second image corresponding to the direction in which the marker recognized by the frame-out direction recognition means is out of frame;
として機能させるためことを特徴とするプログラム。A program characterized by functioning as
前記マーカがフレームインした方向及びフレームアウトした方向の履歴情報を記憶する記憶手段を具備するコンピュータを、A computer comprising storage means for storing history information of the direction in which the marker is framed in and the direction in which the marker is out;
前記画像取得手段により取得された第一の画像内から前記マーカがフレームアウトした場合、前記マーカがフレームアウトした方向を認識するフレームアウト方向認識手段、Frame out direction recognition means for recognizing the direction in which the marker is out of frame when the marker is out of frame from within the first image acquired by the image acquisition means;
として更に機能させ、Further function as
前記生成手段は、前記マーカのフレームアウトが認識された後に前記マーカのフレームインが認識された際に、前記記憶手段に記憶されている前記マーカがフレームインした方向及びフレームアウトした方向の履歴に応じた前記第二の画像を生成する、When the marker is recognized after the marker has been framed out, the generating means stores the history of the direction in which the marker has been framed in and the direction in which the marker has been stored stored in the storage means. Generating the corresponding second image,
ことを特徴とする請求項10に記載のプログラム。The program according to claim 10.
JP2017112271A 2017-06-07 2017-06-07 Image processing apparatus, image processing method, and program Active JP6369604B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017112271A JP6369604B2 (en) 2017-06-07 2017-06-07 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017112271A JP6369604B2 (en) 2017-06-07 2017-06-07 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013129368A Division JP6155893B2 (en) 2013-06-20 2013-06-20 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2017201534A JP2017201534A (en) 2017-11-09
JP6369604B2 true JP6369604B2 (en) 2018-08-08

Family

ID=60264639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017112271A Active JP6369604B2 (en) 2017-06-07 2017-06-07 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6369604B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5321237B2 (en) * 2009-05-18 2013-10-23 株式会社ニコン Imaging apparatus and imaging program
JP5685436B2 (en) * 2010-12-28 2015-03-18 新日鉄住金ソリューションズ株式会社 Augmented reality providing device, augmented reality providing system, augmented reality providing method and program
JP5776255B2 (en) * 2011-03-25 2015-09-09 ソニー株式会社 Terminal device, object identification method, program, and object identification system
JP5821526B2 (en) * 2011-10-27 2015-11-24 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2013105346A (en) * 2011-11-14 2013-05-30 Sony Corp Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program

Also Published As

Publication number Publication date
JP2017201534A (en) 2017-11-09

Similar Documents

Publication Publication Date Title
JP2014157482A (en) Operation display system
US10013156B2 (en) Information processing apparatus, information processing method, and computer-readable recording medium
CN108027656B (en) Input device, input method, and program
US9880721B2 (en) Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method
RU2648616C2 (en) Font addition method and apparatus
US10810801B2 (en) Method of displaying at least one virtual object in mixed reality, and an associated terminal and system
CN111045577A (en) Horizontal and vertical screen switching method, wearable device and device with storage function
WO2015136952A1 (en) Gesture recognition device, head-mounted display, and portable terminal
US9753548B2 (en) Image display apparatus, control method of image display apparatus, and program
CN114816135B (en) Cross-device drawing system
JP6155893B2 (en) Image processing apparatus and program
CN105678696B (en) A kind of information processing method and electronic equipment
EP3125089B1 (en) Terminal device, display control method, and program
JP2009037464A (en) Image display device and computer program
JP6369604B2 (en) Image processing apparatus, image processing method, and program
TWI653540B (en) Display apparatus, projector, and display control method
US8963924B2 (en) Target selection apparatus that detects target, control method therefor, and storage medium
JP2016115067A (en) Image display terminal, image display system, and image display program
JP2023033559A (en) Information processing device, display control method, and program
CN110989873B (en) Optical imaging system for simulating touch screen
KR102614026B1 (en) Electronic device having a plurality of lens and controlling method thereof
JP6318519B2 (en) Image processing apparatus, program, and control method
JP2014109662A (en) Display control unit and control method thereof
CN109218599B (en) Display method of panoramic image and electronic device thereof
JP6225724B2 (en) Information sharing system, information sharing method, information processing apparatus, and information processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180625

R150 Certificate of patent or registration of utility model

Ref document number: 6369604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150