[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013172321A - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP2013172321A
JP2013172321A JP2012035334A JP2012035334A JP2013172321A JP 2013172321 A JP2013172321 A JP 2013172321A JP 2012035334 A JP2012035334 A JP 2012035334A JP 2012035334 A JP2012035334 A JP 2012035334A JP 2013172321 A JP2013172321 A JP 2013172321A
Authority
JP
Japan
Prior art keywords
frame
image
unit
image feature
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012035334A
Other languages
Japanese (ja)
Other versions
JP5886075B2 (en
Inventor
Toshie Misu
俊枝 三須
Shinichi Sakaida
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2012035334A priority Critical patent/JP5886075B2/en
Publication of JP2013172321A publication Critical patent/JP2013172321A/en
Application granted granted Critical
Publication of JP5886075B2 publication Critical patent/JP5886075B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To emphasize a video the image features of which change.SOLUTION: The image processing apparatus includes an extraction means for receiving a frame included in a video and extracting the image features for each frame, a delay means for storing and delaying the image features extracted by the extraction means, a determination means for comparing the image features extracted by the extraction means with the image features delayed by the delay means, and determining change of the image features, a storage means for storing the frame in which the image features changed, when a determination is made that the image features changed by the determination means, an output means for outputting any one of a frame input or a frame stored in the storage means, and a control means for controlling the output means to output a predetermined number of frames stored in the storage means continuously to the storage means, when a determination is made that the image features changed by the determination means.

Description

本発明は、映像を強調する画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and program for enhancing video.

映像の一部を強調する方法として、放送やビデオの番組制作においてはスロー再生やコマ送り、一時停止といった演出が行われる。これらの演出は、とくに動きの速いシーンの視認性を高めるため、とくに重要なシーンの提示時間を延長するものである。   As a method of emphasizing a part of the video, effects such as slow playback, frame advance, and pause are performed in broadcast and video program production. These effects extend the presentation time of particularly important scenes in order to improve the visibility of particularly fast moving scenes.

映像の一部領域を強調する手法として、部分拡大を行う演出がある。この部分拡大を自動化し、例えば被写体を追跡したり、被写体を認識したりすることで被写体領域を特定し、自動的に部分拡大して提示する技術がある。   As a technique for emphasizing a partial area of an image, there is an effect of performing partial enlargement. There is a technique for automating this partial enlargement, for example, identifying a subject region by tracking the subject or recognizing the subject, and automatically presenting the subject with partial enlargement.

また、映像や画像の特定の被写体を認識し、この被写体領域の露光状態や色調が適切なものとなるように、自動的に画像補正を行うスチルカメラやビデオカメラ、プリンタが実用化されている(特許文献1)。   Still cameras, video cameras, and printers have been put to practical use that recognize specific subjects in video and images, and automatically perform image correction so that the exposure state and color tone of these subject areas are appropriate. (Patent Document 1).

特開2008−263320号公報JP 2008-263320 A

しかし、従来技術では、スロー再生やコマ送り、一時停止といった演出は手動で行われており、その操作には熟練や手間を要した。   However, in the prior art, effects such as slow playback, frame advance, and pause are performed manually, and the operation requires skill and effort.

また、部分拡大を行う手法は、小さな被写体を強調するのに有効であるが、瞬間的なシーンの強調を行うものではない。   In addition, the method of performing partial enlargement is effective for enhancing a small subject, but does not perform instantaneous scene enhancement.

また、映像や画像の特定の被写体を認識し、該被写体領域の露光状態や色調が適切なものとなるよう自動的に画像補正を行う手法は、特定の被写体が良好な状態で撮影するのに有効な手法である。しかし、突発的に照明が変化した場合には、この変化を抑制するよう動作するため、この突発的な照明変化時にセンサ上で感知される輝度情報を捨ててしまうこととなる。   In addition, a technique for recognizing a specific subject in a video or image and automatically correcting the image so that the exposure state and color tone of the subject area are appropriate is suitable for photographing a specific subject in a good state. It is an effective method. However, when the illumination changes suddenly, the operation is performed to suppress the change, so that the luminance information sensed on the sensor at the time of the sudden illumination change is discarded.

よって、従来技術では、輝度などの画像の特徴が変化する映像を強調することができないという問題点があった。   Therefore, the conventional technique has a problem that it is impossible to emphasize a video in which image characteristics such as luminance change.

そこで、本発明は上記問題点に鑑みてなされたものであり、画像の特徴が変化する映像を強調することができる画像処理装置及びプログラムを提供することを目的とする。   Accordingly, the present invention has been made in view of the above problems, and an object thereof is to provide an image processing apparatus and program capable of enhancing a video in which the characteristics of an image change.

本発明の一態様における画像処理装置は、映像に含まれるフレームを入力し、該フレーム毎に画像特徴を抽出する抽出手段と、前記抽出手段により抽出された画像特徴を記憶して遅延させる遅延手段と、前記抽出手段により抽出された画像特徴と、前記遅延手段により遅延された画像特徴とを比較し、画像特徴の変化を判定する判定手段と、前記判定手段により画像特徴が変化したと判定された場合、画像特徴が変化したフレームを記憶する記憶手段と、前記入力されたフレームと、前記記憶手段に記憶されたフレームとのいずれかを出力する出力手段と、前記判定手段により画像特徴が変化したと判定された場合、前記記憶手段に記憶されたフレームを連続して所定数出力するよう前記出力手段を制御する制御手段と、を備える。   An image processing apparatus according to an aspect of the present invention includes an extraction unit that inputs a frame included in a video, extracts an image feature for each frame, and a delay unit that stores and delays the image feature extracted by the extraction unit And the image feature extracted by the extraction unit and the image feature delayed by the delay unit to determine a change in the image feature, and the determination unit determines that the image feature has changed. The image feature is changed by the storage means for storing the frame whose image feature has changed, the output means for outputting any of the input frame and the frame stored in the storage means, and the determination means. Control means for controlling the output means so as to continuously output a predetermined number of frames stored in the storage means.

また、前記記憶手段は、前記画像特徴が変化したフレーム以降の所定数のフレームを記憶し、前記制御手段は、前記記憶手段に記憶された前記画像特徴が変化したフレームを連続して出力した後、前記記憶手段に記憶された前記所定数のフレームを出力するよう制御してもよい。   In addition, the storage unit stores a predetermined number of frames after the frame in which the image feature has changed, and the control unit continuously outputs the frame in which the image feature has been stored stored in the storage unit. The predetermined number of frames stored in the storage unit may be output.

また、前記所定数のフレームは、前記画像特徴が変化したフレーム以降のフレームであり、不連続のフレームであってもよい。   The predetermined number of frames is a frame after the frame in which the image feature has changed, and may be a discontinuous frame.

また、前記入力された各フレームを映像符号化順に並べ替えて、並べ替えられた各フレームを前記抽出手段に出力する前処理手段をさらに備えてもよい。   Further, the image processing apparatus may further include a preprocessing unit that rearranges the input frames in the order of video encoding and outputs the rearranged frames to the extraction unit.

また、前記画像特徴は、輝度値に関する値であってもよい。   The image feature may be a value related to a luminance value.

また、本発明の他の態様におけるプログラムは、映像に含まれるフレームを入力し、該フレーム毎に画像特徴を抽出する抽出ステップと、前記抽出された画像特徴をバッファリングして遅延させる遅延ステップと、前記抽出された画像特徴と、前記遅延された画像特徴とを比較し、画像特徴の変化を判定する判定ステップと、画像特徴が変化したと判定された場合、画像特徴が変化したフレームを記憶手段に記憶する記憶ステップと、前記入力されたフレームと、前記記憶手段に記憶されたフレームとのいずれかを出力する出力ステップと、画像特徴が変化したと判定された場合、前記記憶手段に記憶されたフレームを連続して所定数出力するよう制御する制御ステップと、コンピュータに実行させる。   According to another aspect of the present invention, there is provided a program for inputting a frame included in a video, extracting an image feature for each frame, and a delaying step for buffering and delaying the extracted image feature. A step of comparing the extracted image feature with the delayed image feature to determine a change in the image feature; and, if it is determined that the image feature has changed, a frame in which the image feature has changed is stored. A storage step of storing in the means, an output step of outputting any of the input frame and the frame stored in the storage means, and if it is determined that the image feature has changed, the storage means stores A control step for controlling to output a predetermined number of the frames continuously, and causing the computer to execute.

本発明によれば、画像の特徴が変化する映像を強調することができる。   According to the present invention, it is possible to emphasize a video in which the feature of an image changes.

実施例1における画像処理装置の構成の一例を示すブロック図。1 is a block diagram illustrating an example of a configuration of an image processing device according to Embodiment 1. FIG. 実施例1における画像処理の具体例を説明するための図。FIG. 6 is a diagram for explaining a specific example of image processing in the first embodiment. 実施例1における画像処理装置の画像処理の一例を示すフローチャート。3 is a flowchart illustrating an example of image processing of the image processing apparatus according to the first exemplary embodiment. 実施例2における画像処理の具体例を説明するための図。FIG. 10 is a diagram for explaining a specific example of image processing in the second embodiment. 実施例2における画像処理装置の画像処理の一例を示すフローチャート。9 is a flowchart illustrating an example of image processing of an image processing apparatus according to a second embodiment. 実施例3における画像処理装置の構成の一例を示すブロック図。FIG. 9 is a block diagram illustrating an example of a configuration of an image processing apparatus according to a third embodiment. 実施例3における画像処理の具体例を説明するための図。FIG. 10 is a diagram for explaining a specific example of image processing in the third embodiment. 実施例3における画像処理装置の画像処理の一例を示すフローチャート。10 is a flowchart illustrating an example of image processing of an image processing apparatus according to a third embodiment. 実施例4における画像処理装置の構成の一例を示すブロック図。FIG. 10 is a block diagram illustrating an example of a configuration of an image processing apparatus according to a fourth embodiment.

以下、添付図面を参照しながら本発明について説明する。以下に説明する画像処理装置は、入力された画像(入力映像)Aに対して、画像の特徴が変化した画像(フレーム)を強調し、その結果の画像(動画像)Bを出力する。   The present invention will be described below with reference to the accompanying drawings. An image processing apparatus described below emphasizes an input image (input video) A with an image (frame) whose image characteristics have changed, and outputs an image (moving image) B as a result.

[実施例1]
<構成>
図1は、実施例1における画像処理装置1の構成の一例を示すブロック図である。図1に示す例では、画像処理装置1は、特徴抽出手段101と、遅延手段102と、判定手段103と、画像記憶手段104と、出力手段105と、制御手段106とを有する。
[Example 1]
<Configuration>
FIG. 1 is a block diagram illustrating an example of the configuration of the image processing apparatus 1 according to the first embodiment. In the example illustrated in FIG. 1, the image processing apparatus 1 includes a feature extraction unit 101, a delay unit 102, a determination unit 103, an image storage unit 104, an output unit 105, and a control unit 106.

特徴抽出手段101は、入力映像Aの時刻tにおけるフレームA(t)を解析し、強調すべきフレームであるか否かを判定するのに用いる画像特徴F(t)を抽出する。   The feature extraction unit 101 analyzes the frame A (t) at time t of the input video A, and extracts an image feature F (t) used to determine whether or not the frame is to be emphasized.

画像特徴F(t)は、例えば、フレーム内の輝度値に関する値(輝度値の分散や平均や総和)や、色相の代表値(色ベクトル(R,G,B)の平均の色相成分)や、動きベクトルの平均や、特定領域の輝度値の平均などを用いる。   The image feature F (t) is, for example, a value related to a luminance value in a frame (dispersion, average, or sum of luminance values), a representative value of hue (average hue component of color vectors (R, G, B)), The average of motion vectors and the average of luminance values of a specific area are used.

輝度値に関する値を用いれば、急な輝度上昇(フラッシュなど)、急な絵柄の変化(爆発シーンなど)などが発生したフレームを特定することができる。色相の代表値を用いれば、急な色味の変化(ネオンサインの点滅など)が発生したフレームを特定することができる。   By using the value related to the brightness value, it is possible to identify a frame in which a sudden brightness increase (flash or the like), a sudden picture change (explosion scene or the like), and the like has occurred. By using the representative value of the hue, it is possible to identify a frame in which a sudden change in hue (such as a blinking neon sign) has occurred.

また、動きベクトルの平均を用いれば、急な動きの変化(自身の発生の瞬間や爆発の瞬間)などが発生したフレームを特定することができる。特定領域の輝度値の平均を用いれば、ある領域に被写体が入った瞬間(動物が画面の中央を横切った瞬間)などが発生したフレームを特定することができる。   Further, if the average of motion vectors is used, it is possible to specify a frame in which a sudden change in motion (the moment of occurrence or explosion) occurs. By using the average of the luminance values in the specific area, it is possible to specify a frame in which a moment when an object enters the certain area (moment when an animal crosses the center of the screen) or the like has occurred.

以下では、画像特徴F(t)として、輝度値に関する値を用いる場合について説明するが、この例に限られない。画像特徴として輝度値に関する値を用いると、例えば、報道用の映像で、暗い映像(夜の映像であり、犯人が乗った車の映像)からフラッシュにより人物(犯人)が映った画像を強調したいときなどに好適である。   Hereinafter, a case where a value related to a luminance value is used as the image feature F (t) will be described, but the present invention is not limited to this example. Using values related to luminance values as image features, for example, in a video for reporting, I want to emphasize an image in which a person (criminal) is reflected by a flash from a dark video (a night video, a video of a car in which the criminal rides) It is suitable for occasions.

特徴抽出手段101は、例えば、現フレームA(t)が照明変動時の映像か否かを判定するために、該フレームA(t)の輝度値に基づく画像特徴F(t)を算出する。   For example, the feature extraction unit 101 calculates an image feature F (t) based on the luminance value of the frame A (t) in order to determine whether or not the current frame A (t) is an image at the time of illumination variation.

具体的には、特徴抽出手段101は、例えば画像特徴F(t)として現フレームA(t)の輝度値の総和を算出する。輝度値の総和は、例えば輝度値の総和をフレームの総画素数で除した平均輝度値を用いてもよい。   Specifically, the feature extraction unit 101 calculates, for example, the sum of the luminance values of the current frame A (t) as the image feature F (t). For example, an average luminance value obtained by dividing the total luminance value by the total number of pixels of the frame may be used as the total luminance value.

特徴抽出手段101は、入力映像Aがモノクロ画像の場合には、時刻tにおけるフレームA(t)の、画像座標(x,y)における画素値をA(t;x,y)とおいたとき、以下の式(1)により輝度値の総和を求める。   When the input video A is a monochrome image, the feature extraction unit 101 sets the pixel value at the image coordinates (x, y) of the frame A (t) at time t as A (t; x, y). The sum of luminance values is obtained by the following equation (1).

また、特徴抽出手段101は、入力映像Aがカラーであるなど、複数の色成分や波長(バンド)成分からなる場合には、例えば、ベクトル値たる画素値A(t;x,y)に対して、以下の式(2)により輝度値の総和を求める。 In addition, when the input image A is a color or the like, the feature extraction unit 101 includes, for example, a pixel value A (t; x, y) that is a vector value when the input image A includes a plurality of color components and wavelength (band) components. Thus, the sum of luminance values is obtained by the following equation (2).


ここで、入力映像Aの時刻tにおけるフレームの画像座標(x,y)における画素値をA(t;x,y)のように表記する。

Here, the pixel value at the image coordinates (x, y) of the frame at time t of the input video A is expressed as A (t; x, y).

また、特徴抽出手段101は、色ベクトルから輝度値への変換行列(行ベクトル)Mを用いる場合、式(3)により輝度値の総和を求める。   In addition, when using a conversion matrix (row vector) M from a color vector to a luminance value, the feature extraction unit 101 obtains the sum of the luminance values by Expression (3).

ここで、画素値A(t;x,y)が3次元の列ベクトルであり、その第1成分が赤成分を、第2成分が緑成分を、第3成分が青成分をそれぞれ表すとする。この場合、変換行列Mとして、例えば、以下のITU−R BT.601規格に定める輝度信号算出用の行列(行ベクトル)を用いる。 Here, it is assumed that the pixel value A (t; x, y) is a three-dimensional column vector, the first component represents the red component, the second component represents the green component, and the third component represents the blue component. . In this case, as the transformation matrix M, for example, the following ITU-R BT. A matrix (row vector) for luminance signal calculation defined in the 601 standard is used.

また、変換行列Mとして、以下のITU−R BT.709規格に定める輝度信号算出用の行列(行ベクトル)を用いてもよい。 Further, as the transformation matrix M, the following ITU-R BT. A matrix (row vector) for calculating a luminance signal defined in the 709 standard may be used.

特徴抽出手段101は、算出した画像特徴F(t)を遅延手段102と、判定手段103とに出力する。 The feature extraction unit 101 outputs the calculated image feature F (t) to the delay unit 102 and the determination unit 103.

遅延手段102は、画像特徴F(t)を一時的に記憶(バッファリング)し、過去の画像特徴を出力する。例えば、遅延手段102は、1時点前の画像特徴F(t−1)を判定手段103に出力する。   The delay means 102 temporarily stores (buffers) the image feature F (t) and outputs past image features. For example, the delay unit 102 outputs the image feature F (t−1) one point before to the determination unit 103.

判定手段103は、現時点tにおける画像特徴F(t)と、過去の画像特徴(例えば、1時点前の画像特徴F(t−1))とを比較し、特徴の時間的変化があったか否かを判定する。判定手段103は、例えば、この時間的変化が第1の閾値を超えたか否かによってその出力値(判定フラグ)C(t)を決定する。   The determination unit 103 compares the image feature F (t) at the current time t with a past image feature (for example, the image feature F (t−1) before one time point), and whether or not there is a temporal change in the feature. Determine. The determination unit 103 determines the output value (determination flag) C (t) depending on, for example, whether or not this temporal change has exceeded the first threshold value.

この第1の閾値は、実験により適切な値が予め設定されていてもよいし、ユーザにより調節して設定されるようにしてもよい。   The first threshold value may be set in advance by an experiment, or may be set by adjustment by the user.

判定フラグC(t)は、例えば、「時間的変化あり」の場合に値「1」を、「時間的変化なし」の場合に値「0」をとるとする。   For example, it is assumed that the determination flag C (t) takes a value “1” in the case of “with time change” and a value “0” in the case of “no time change”.

例えば、判定手段103は、現時点tにおける画像特徴F(t)と、過去の画像特徴F(t−d)(dは自然数;例えば、d=1)との差分の絶対値が第1の閾値θ(θは正の実数)を超えた場合に、「時間的変化あり」と判定する(式(4))。   For example, the determination unit 103 determines that the absolute value of the difference between the image feature F (t) at the current time t and the past image feature F (t−d) (d is a natural number; for example, d = 1) is the first threshold value. When θ (θ is a positive real number) is exceeded, it is determined that “there is a temporal change” (Formula (4)).

判定手段103は、式(1)乃至式(3)のいずれか、および式(4)を用いることにより、輝度値が急激に増加または減少した瞬間に判定フラグC(t)を「1」とすることができる。 The determination unit 103 sets the determination flag C (t) to “1” at the moment when the luminance value suddenly increases or decreases by using any one of Expressions (1) to (3) and Expression (4). can do.

また、例えば、判定手段103は、現時点tにおける画像特徴F(t)と、過去の画像特徴F(t−d)(dは自然数;-例えば、d=1)との差分値が第1の閾値θ(θは正の実数)を超えた場合に、「時間的変化あり」と判定してもよい(式(5))。   Further, for example, the determination unit 103 has the first difference value between the image feature F (t) at the current time t and the past image feature F (t−d) (d is a natural number; −for example, d = 1). When the threshold value θ (θ is a positive real number) is exceeded, it may be determined that “there is a temporal change” (Formula (5)).

判定手段103は、式(1)乃至式(3)のいずれか、および式(5)を用いることにより、輝度値が急激に増加した瞬間に判定フラグC(t)を「1」とすることができる。 The determination unit 103 sets the determination flag C (t) to “1” at the moment when the luminance value suddenly increases by using any one of Expressions (1) to (3) and Expression (5). Can do.

また、例えば、判定手段103は、現時点tにおける画像特徴F(t)と、過去の画像特徴F(t−d)(dは自然数;例えば、d=1)との差分値が第1の閾値θ(θは負の実数)を下回った場合に、「時間的変化あり」と判定してもよい(式(6))。   In addition, for example, the determination unit 103 determines that the difference value between the image feature F (t) at the current time t and the past image feature F (t−d) (d is a natural number; for example, d = 1) is the first threshold value. When it is less than θ (θ is a negative real number), it may be determined that “there is a temporal change” (Formula (6)).

判定手段103は、式(1)乃至式(3)のいずれか、および式(6)を用いることにより、輝度値が急激に減少した瞬間に判定フラグC(t)を「1」とすることができる。 The determination unit 103 sets the determination flag C (t) to “1” at the moment when the luminance value decreases rapidly by using any one of the expressions (1) to (3) and the expression (6). Can do.

判定手段103は、時間的変化を判定した判定結果である判定フラグを、画像記憶手段104と、制御手段106とに出力する。   The determination unit 103 outputs a determination flag, which is a determination result of determining a temporal change, to the image storage unit 104 and the control unit 106.

画像記憶手段104は、判定手段103により出力された判定フラグC(t)が「時間的変化あり」(すなわちC(t)=1)となった時点における入力映像AのフレームA(t)を記憶する。   The image storage unit 104 displays the frame A (t) of the input video A at the time when the determination flag C (t) output by the determination unit 103 becomes “with time change” (that is, C (t) = 1). Remember.

また、画像記憶手段104は、過去直近(現時点tを含む)に「時間的変化あり」と判定された時点(tとおく;t≦t)のフレームA(t)を出力手段105に出力する。つまり、画像記憶手段104は、「時間的変化あり」と判定された時点tから所定フレーム数分は、フレームA(t)を出力手段105に出力する。 Further, the image storage unit 104 outputs the frame A (t 1 ) at the time point (t 1 ; t 1 ≦ t) at which it is determined that “there is a time change” in the past (including the current time t). Output to. That is, the image storage unit 104 outputs the frame A (t 1 ) to the output unit 105 for a predetermined number of frames from the time point t 1 at which it is determined that “there is a temporal change”.

出力手段105は、入力映像の現フレームA(t)と、画像記憶手段104から出力される過去直近(現時点tを含む)の「時間的変化あり」のフレームA(t)とのいずれか一方を出力する。出力手段105は、後述する制御手段106からの制御信号S(t)に応じて何れかのフレームを選択し、選択されたフレームを出力映像Bの時刻tにおけるフレームB(t)として出力する(式(7))。 The output means 105 is either the current frame A (t) of the input video or the most recent frame A (t 1 ) “with time change” output from the image storage means 104 (including the current time t). Output one. The output means 105 selects any frame in response to a control signal S (t) from the control means 106 described later, and outputs the selected frame as a frame B (t) at time t of the output video B ( Formula (7)).

制御手段106は、判定手段103により出力された判定フラグC(t)に基づき、出力手段105を制御するための制御信号S(t)を生成し、出力手段105に対して出力する。 The control unit 106 generates a control signal S (t) for controlling the output unit 105 based on the determination flag C (t) output by the determination unit 103 and outputs the control signal S (t) to the output unit 105.

例えば、制御手段106は、判定手段103により出力された判定フラグC(t)が直近(現時点を含む)に1となってからe時点先までの間(eを継続時間と呼ぶ;eは1以上の整数)だけS(t)を1とする(式(8))。   For example, the control unit 106 determines that the determination flag C (t) output by the determination unit 103 is 1 (including the current time) from the latest 1 to the time point e (e is referred to as the duration); S (t) is set to 1 only for the above integer) (formula (8)).

以上の構成を有することで、画像の特徴に変換があったフレームを継続時間だけ連続して表示することが可能となり、このフレームを強調することができるようになる。 With the above configuration, it is possible to continuously display frames whose image characteristics have been converted for the duration, and to emphasize the frames.

<具体例>
次に、実施例1における画像処理の具体例について説明する。この具体例では、例えば、継続時間e=2としたときの出力映像がどのようになるかについて説明する。
<Specific example>
Next, a specific example of image processing in the first embodiment will be described. In this specific example, for example, what the output video looks when the duration e = 2 is described.

図2は、実施例1における画像処理の具体例を説明するための図である。図2に示す例では、入力映像を上段のフレーム群(fm11乃至fm18に示すA(1)乃至A(8))とし、出力映像を下段のフレーム群(fm21乃至fm28に示すB(1)乃至B(8))とする。   FIG. 2 is a diagram for explaining a specific example of image processing in the first embodiment. In the example shown in FIG. 2, the input video is the upper frame group (A (1) to A (8) shown in fm11 to fm18), and the output video is the lower frame group (B (1) to B (1) to fm21 to fm28). B (8)).

図2に示す入力映像においては、fm13に示す入力フレームA(3)がフラッシュの閃光によって明るく撮像されている。一方、他の入力フレーム群(fm11、fm12およびfm14乃至fm18に示すA(1)、A(2)およびA(4)乃至A(8))は暗く撮像されている。   In the input image shown in FIG. 2, the input frame A (3) indicated by fm13 is captured brightly by the flash of the flash. On the other hand, the other input frame groups (A (1), A (2) and A (4) to A (8) shown in fm11, fm12 and fm14 to fm18) are imaged darkly.

このとき、上述した判定手段103が、式(5)を用いて時間的変化を判定した場合、入力フレームA(2)と入力フレームA(3)との差分が第1の閾値θより大きいとし、時点t=3において判定フラグC(3)が1となる。   At this time, when the determination unit 103 described above determines a temporal change using the equation (5), it is assumed that the difference between the input frame A (2) and the input frame A (3) is larger than the first threshold θ. At time t = 3, the determination flag C (3) becomes 1.

また、判定手段103は、他の時点では、フレーム間の輝度値の総和の差分が第1の閾値θ以下と判定し、C(t)=0とする。よって、画像記憶手段104は、判定フラグC(3)に基づいて、t=3時点のフレームA(3)を記憶する。   In addition, the determination unit 103 determines that the difference in the sum of the luminance values between frames is equal to or less than the first threshold θ at other time points, and sets C (t) = 0. Therefore, the image storage unit 104 stores the frame A (3) at time t = 3 based on the determination flag C (3).

次に、制御手段106は、時点t=3より継続時間e=2だけ(すなわち、t=3,4,5の間だけ)画像記憶手段104から出力されたフレームA(3)を出力し、その他の時点tにおいては、時点tにおける入力フレームA(t)を出力するよう制御する。   Next, the control means 106 outputs the frame A (3) output from the image storage means 104 from the time point t = 3 for the duration e = 2 (that is, only during t = 3, 4, 5). At other time t, control is performed so as to output the input frame A (t) at time t.

ここで、イントラ符号化を含む映像符号化を行った場合、画像の特徴が変化したフレームで画質が劣化しやすくなり、このフレームを強調することは困難である。しかし、実施例1によれば、例えばフレームB(5)ではフレームB(3)よりも画質が向上していることが期待され、このフレームB(5)を一時停止するなどしてこのフレームを強調して表示することができるようになる。   Here, when video coding including intra coding is performed, the image quality is likely to deteriorate in a frame in which the characteristics of the image have changed, and it is difficult to emphasize this frame. However, according to the first embodiment, for example, it is expected that the image quality of the frame B (5) is improved compared to the frame B (3), and this frame B (5) is temporarily stopped. It becomes possible to highlight and display.

<動作>
次に、実施例1における画像処理装置1の動作について説明する。図3は、実施例1における画像処理装置1の画像処理の一例を示すフローチャートである。図3に示すステップS101で、特徴抽出手段101は、入力映像から画像特徴F(t)を抽出する。特徴抽出手段101は、例えば、式(1)乃至式(3)のいずれかを用いて画像特徴を抽出すればよい。
<Operation>
Next, the operation of the image processing apparatus 1 in the first embodiment will be described. FIG. 3 is a flowchart illustrating an example of image processing of the image processing apparatus 1 according to the first embodiment. In step S101 shown in FIG. 3, the feature extraction unit 101 extracts an image feature F (t) from the input video. The feature extraction unit 101 may extract the image features using, for example, any one of the expressions (1) to (3).

ステップS102で、遅延手段102は、抽出された画像特徴F(t)を記憶し、所定時間遅延させる。所定時間は、例えば1フレーム分などである。   In step S102, the delay means 102 stores the extracted image feature F (t) and delays it for a predetermined time. The predetermined time is, for example, one frame.

ステップS103で、判定手段103は、現在のフレームの画像特徴F(t)と、遅延手段102により遅延された画像特徴F(t−d)とを比較する。   In step S <b> 103, the determination unit 103 compares the image feature F (t) of the current frame with the image feature F (t−d) delayed by the delay unit 102.

ステップS104で、判定手段103は、比較の結果、画像特徴に時間的変化があったか否かを判定する。判定手段103は、例えば、式(4)乃至式(6)のいずれかを用いればよい。   In step S104, the determination unit 103 determines whether or not there has been a temporal change in the image feature as a result of the comparison. For example, the determination unit 103 may use any one of Expressions (4) to (6).

判定結果が時間的変化あり(C(t)=1)であれば(ステップS104−YES)ステップS105に進み、判定結果が時間的変化なし(C(t)=0)であれば(ステップS104−NO)ステップS106に進む。   If the determination result has a temporal change (C (t) = 1) (step S104-YES), the process proceeds to step S105, and if the determination result has no temporal change (C (t) = 0) (step S104). -NO) Proceed to step S106.

ステップS105で、画像記憶手段104は、判定手段103からの判定フラグC(t)が「1」であるため、入力されたフレーム(入力フレーム)を記憶する。   In step S105, the image storage unit 104 stores the input frame (input frame) because the determination flag C (t) from the determination unit 103 is “1”.

ステップS106で、制御手段106は、過去所定フレーム数(継続時間e)以内に特徴変化(時間的変化)があるか否かを判定する。過去所定フレーム数以内に特徴変化があれば(ステップS106−YES)ステップS107に進み、過去所定フレーム数以内に特徴変化がなければ(ステップS106−NO)ステップS108に進む。   In step S106, the control means 106 determines whether or not there is a feature change (temporal change) within the past predetermined number of frames (duration e). If there is a feature change within the past predetermined number of frames (step S106-YES), the process proceeds to step S107, and if there is no feature change within the past predetermined number of frames (step S106-NO), the process proceeds to step S108.

ステップS107で、出力手段105は、制御手段106からの制御信号S(t)(S(t)=1)に基づいて、画像記憶手段104に記憶されたフレームを出力する。   In step S <b> 107, the output unit 105 outputs the frame stored in the image storage unit 104 based on the control signal S (t) (S (t) = 1) from the control unit 106.

ステップS108で、出力手段105は、制御手段106からの制御信号S(t)(S(t)=0)に基づいて、入力フレームを出力する。   In step S108, the output unit 105 outputs an input frame based on the control signal S (t) (S (t) = 0) from the control unit 106.

ステップS109で、画像処理装置1は、全映像の処理を終了したか否かを判定する。全映像の処理が終了していれば(ステップS109−YES)この画像処理を終了し、全映像の処理が終了していなければ(ステップS109−NO)ステップS101に戻る。   In step S109, the image processing apparatus 1 determines whether or not the processing of all the videos has been completed. If all the video processing has been completed (step S109—YES), this image processing is terminated. If all video processing has not been completed (step S109—NO), the processing returns to step S101.

以上、実施例1によれば、画像の特徴が変化する映像を強調することができる。例えば、画像の特徴が時間的に変化したフレームを特定し、このフレームを継続時間だけ連続させることで、このフレームを強調することができるようになる。よって、画像の状態が変化した決定的な瞬間の映像を継続的に出力することで、本装置の後段で非可逆の映像符号化が行なわれても、決定的な瞬間の映像の画質劣化を防ぐことができる。   As described above, according to the first embodiment, it is possible to emphasize a video in which the feature of an image changes. For example, it is possible to emphasize a frame by specifying a frame in which the feature of the image changes with time and continuing this frame for a duration. Therefore, by continuously outputting the video of the decisive moment when the state of the image has changed, even if irreversible video coding is performed in the subsequent stage of this device, the image quality of the decisive moment of the video is reduced. Can be prevented.

[実施例2]
次に、実施例2における画像処理装置について説明する。実施例2では、画像の特徴が変化したときのフレームと、その後続のフレームとを記憶し、継続したフレームの後に、記憶されたフレームを出力するようにする。これにより、同一フレームの継続出力によりずれた再生のタイミングについて、後続のフレームを用いてスムーズに入力フレームに切り替えることができるようになる。
[Example 2]
Next, an image processing apparatus according to the second embodiment will be described. In the second embodiment, the frame when the image characteristics change and the subsequent frame are stored, and the stored frame is output after the continued frame. This makes it possible to smoothly switch to the input frame using the subsequent frames for the playback timing shifted due to the continuous output of the same frame.

<構成>
実施例2における画像処理装置の構成は、実施例1における画像処理装置1の構成と同様であるため、同じ符号を用いて説明する。以下に説明する構成以外の構成は、実施例1の構成と同様である。
<Configuration>
Since the configuration of the image processing apparatus according to the second embodiment is the same as that of the image processing apparatus 1 according to the first embodiment, the description will be made using the same reference numerals. The configuration other than the configuration described below is the same as the configuration of the first embodiment.

画像記憶手段104は、画像の特徴の「時間的変化あり」となった時点のフレームと、このフレーム以降の所定数のフレーム(以下、後続フレームと呼ぶ)を記憶する。後続フレームは、変化があった時点のフレーム以降の所定数のフレームであってもよいし、変化があった時点のフレーム以降のフレームで連続していない(例えば飛び飛び)所定数のフレームであってもよい。   The image storage unit 104 stores a frame at the time when the feature of the image “changes with time” and a predetermined number of frames after this frame (hereinafter referred to as subsequent frames). The subsequent frames may be a predetermined number of frames after the frame at the time of the change, or a predetermined number of frames that are not continuous (for example, skipped) after the frame at the time of the change. Also good.

例えば、画像記憶手段104は、「時間的変化あり」と判定された時点をtとしたとき、フレームA(t)およびフレームA(t+2)を記憶する。 For example, the image storage unit 104 stores the frame A (t 1 ) and the frame A (t 1 +2), where t 1 is the time point when it is determined that “there is a temporal change”.

また、画像記憶手段104は、過去直近(現時点tを含む)に「時間的変化あり」と判定された時点(tとおく;t≦t)の映像フレームA(t)を、時点tおよび以降所定の継続時間e(eは1以上の整数)にわたってA(t)を出力する。 In addition, the image storage unit 104 sets the video frame A (t 1 ) at the time point (t 1 ; t 1 ≦ t) at which it is determined that “there is a temporal change” in the past (including the current time t) as the time point. A (t 1 ) is output over t 1 and a predetermined duration e (e is an integer equal to or greater than 1 ).

さらに、画像記憶手段104は、時点t+e+1から時点t+e+f(以下、fを後続フレーム数と呼ぶ;fは1以上の整数)まで、記憶した後続フレームを順次(飛び飛びのフレームとしてもよい)出力手段105に出力する。 Further, the image storage unit 104 may sequentially store the subsequent frames stored from the time point t 1 + e + 1 to the time point t 1 + e + f (hereinafter, f is referred to as the number of subsequent frames; f is an integer of 1 or more). ) Output to the output means 105.

後続フレーム数がf=1の場合、例えば、画像記憶手段104は、時点t+e+1において後続フレームA(t+2)を出力する。 When the number of subsequent frames is f = 1, for example, the image storage unit 104 outputs the subsequent frame A (t 1 +2) at the time point t 1 + e + 1.

このようにして、画像記憶手段104から時点tにおいて出力されるフレームをD(t)とおく。   In this way, the frame output from the image storage unit 104 at the time point t is set to D (t).

出力手段105は、入力映像の現フレームA(t)と、画像記憶手段104から出力されるフレームD(t)とのいずれか一方を出力する。出力手段105は、例えば後述する制御手段106からの制御信号S(t)に応じて選択し、選択されたフレームを出力映像Bの時刻tにおけるフレームB(t)として出力する(式(9))。   The output unit 105 outputs either the current frame A (t) of the input video or the frame D (t) output from the image storage unit 104. The output unit 105 selects, for example, according to a control signal S (t) from the control unit 106 described later, and outputs the selected frame as a frame B (t) at the time t of the output video B (formula (9)). ).

制御手段106は、継続時間eだけ、「時間的変化あり」のフレームを出力するよう制御し、その後のfフレーム分を画像記憶手段104に記憶された所定フレームを出力するよう制御する。 The control means 106 controls to output a “with time change” frame for the duration e, and outputs a predetermined frame stored in the image storage means 104 for the subsequent f frames.

制御手段106は、例えば、判定手段103により出力された判定フラグC(t)に基づき、出力手段105を制御するための制御信号S(t)を生成し、出力手段105に対して出力する。   For example, the control unit 106 generates a control signal S (t) for controlling the output unit 105 based on the determination flag C (t) output by the determination unit 103 and outputs the control signal S (t) to the output unit 105.

例えば、制御手段106は、判定手段103により出力された判定フラグC(t)が直近(現時点を含む)に1となってからe+f時点先までの間だけS(t)を1とする(式(10))。   For example, the control unit 106 sets S (t) to 1 only after the determination flag C (t) output by the determination unit 103 becomes 1 immediately (including the current time) until the e + f time point (expression) (10)).

以上の構成を有することで、画像の特徴に変換があったフレームを継続時間だけ連続して表示することが可能となり、このフレームを強調するとともに、記憶されたフレームから入力フレームへの切り替えをスムーズに行うことができるようになる。 With the above configuration, it is possible to continuously display frames whose image characteristics have been converted for the duration of time, and emphasize this frame and smoothly switch from the stored frame to the input frame. To be able to do that.

<具体例>
次に、実施例2における画像処理の具体例について説明する。この具体例では、例えば、継続時間e=2、f=1としたときの出力映像がどのようになるかについて説明する。
<Specific example>
Next, a specific example of image processing in the second embodiment will be described. In this specific example, for example, the output video when the duration time e = 2 and f = 1 will be described.

図4は、実施例2における画像処理の具体例を説明するための図である。図4に示す例では、入力映像を上段のフレーム群(fm11乃至fm18に示すA(1)乃至A(8))とし、出力映像を下段のフレーム群(fm31乃至fm38に示すB(1)乃至B(8))とする。   FIG. 4 is a diagram for explaining a specific example of image processing in the second embodiment. In the example shown in FIG. 4, the input video is the upper frame group (A (1) to A (8) shown in fm11 to fm18), and the output video is the lower frame group (B (1) to B (1) to fm31 to fm38). B (8)).

図4に示す入力映像においては、fm13に示す入力フレームA(3)がフラッシュの閃光によって明るく撮像されている。一方、他の入力フレーム群(fm11、fm12およびfm14乃至fm18に示すA(1)、A(2)およびA(4)乃至A(8))は暗く撮像されている。   In the input video shown in FIG. 4, the input frame A (3) indicated by fm13 is captured brightly by the flash of the flash. On the other hand, the other input frame groups (A (1), A (2) and A (4) to A (8) shown in fm11, fm12 and fm14 to fm18) are imaged darkly.

このとき、上述した判定手段103が、式(5)を用いて時間的変化を判定した場合、入力フレームA(2)と入力フレームA(3)との差分が第1の閾値θより大きいとし、時点t=3において判定フラグC(3)が1となる。   At this time, when the determination unit 103 described above determines a temporal change using the equation (5), it is assumed that the difference between the input frame A (2) and the input frame A (3) is larger than the first threshold θ. At time t = 3, the determination flag C (3) becomes 1.

また、判定手段103は、他の時点では、フレーム間の輝度値の総和の差分が第1の閾値θ以下と判定し、C(t)=0とする。よって、画像記憶手段104は、判定フラグC(3)に基づいて、t=3時点のフレームA(3)と、後続フレーム、例えば2フレーム後のフレームA(5)を記憶する。   In addition, the determination unit 103 determines that the difference in the sum of the luminance values between frames is equal to or less than the first threshold θ at other time points, and sets C (t) = 0. Therefore, the image storage unit 104 stores the frame A (3) at time t = 3 and the subsequent frame, for example, the frame A (5) after 2 frames, based on the determination flag C (3).

次に、制御手段106は、時点t=3より継続時間e=2だけ(すなわち、図4に示すfm33乃至fm35に示すt=3,4,5の間だけ)画像記憶手段104から出力されるD(t)=A(3)を出力するよう制御する。   Next, the control means 106 outputs from the image storage means 104 for a duration e = 2 from the time point t = 3 (that is, only between t = 3, 4, and 5 shown in fm33 to fm35 shown in FIG. 4). Control to output D (t) = A (3).

制御手段106は、その後のf=1フレームにわたって(すなわち、図4に示すfm36に示すt=6だけ)画像記憶手段104から出力されるD(t)=A(5)を出力するよう制御する。制御手段106は、その他の時点tにおいては、時点tにおける入力フレームA(t)を出力するよう制御する。   The control means 106 controls to output D (t) = A (5) output from the image storage means 104 over the subsequent f = 1 frame (that is, only t = 6 shown in fm36 shown in FIG. 4). . The control means 106 controls to output the input frame A (t) at the time point t at other time points t.

これにより、同一フレームの継続出力によりずれた再生のタイミングについて、後続のフレームを用いてスムーズに入力フレームに切り替えることができるようになる。   This makes it possible to smoothly switch to the input frame using the subsequent frames for the playback timing shifted due to the continuous output of the same frame.

<動作>
次に、実施例2における画像処理装置の動作について説明する。図5は、実施例2における画像処理装置の画像処理の一例を示すフローチャートである。図5に示すステップS201〜S203の処理は、図3に示すステップS101〜S103の処理と同様であるため、その説明を省略する。
<Operation>
Next, the operation of the image processing apparatus according to the second embodiment will be described. FIG. 5 is a flowchart illustrating an example of image processing of the image processing apparatus according to the second embodiment. The processing in steps S201 to S203 shown in FIG. 5 is the same as the processing in steps S101 to S103 shown in FIG.

ステップS204で、判定手段103は、比較の結果、過去第1のフレーム数以内に、画像特徴に時間的変化があったか否かを判定する。第1のフレームは、例えば、後続フレーム数である。   In step S <b> 204, the determination unit 103 determines whether or not there has been a temporal change in image characteristics within the past first number of frames as a result of the comparison. The first frame is, for example, the number of subsequent frames.

判定結果が時間的変化あり(C(t)=1)であれば(ステップS204−YES)ステップS205に進み、判定結果が時間的変化なし(C(t)=0)であれば(ステップS204−NO)ステップS206に進む。   If the determination result has a temporal change (C (t) = 1) (step S204-YES), the process proceeds to step S205, and if the determination result has no temporal change (C (t) = 0) (step S204). -NO) Proceed to step S206.

ステップS205で、画像記憶手段104は、判定手段103からの判定フラグC(t)が「1」であるため、入力されたフレーム(入力フレーム)を記憶する。   In step S205, the image storage unit 104 stores the input frame (input frame) because the determination flag C (t) from the determination unit 103 is “1”.

ステップS206で、制御手段106は、過去第2のフレーム数(継続時間e)以内に特徴変化(時間的変化)があるか否かを判定する。過去第2のフレーム数以内に特徴変化があれば(ステップS206−YES)ステップS207に進み、過去第2のフレーム数以内に特徴変化がなければ(ステップS206−NO)ステップS208に進む。   In step S206, the control means 106 determines whether or not there is a feature change (temporal change) within the past second number of frames (continuation time e). If there is a feature change within the past second number of frames (step S206—YES), the process proceeds to step S207, and if there is no feature change within the past second number of frames (step S206—NO), the process proceeds to step S208.

ステップS207で、出力手段105は、制御手段106からの制御信号S(t)(S(t)=1)に基づいて、画像記憶手段104に記憶されたフレーム(時間的変化があったフレーム)を出力する。   In step S207, the output unit 105 determines the frame stored in the image storage unit 104 based on the control signal S (t) (S (t) = 1) from the control unit 106 (a frame having a temporal change). Is output.

ステップS208で、制御手段106は、現フレームが時間的変化があったフレームから第3のフレーム数(e+f)以内であるか否かを判定する。第3のフレーム数以内であれば(ステップS208−YES)ステップS209に進み、第3のフレーム数以内でなければ(ステップS208−NO)ステップS210に進む。   In step S208, the control means 106 determines whether or not the current frame is within the third number of frames (e + f) from the frame that has changed over time. If it is within the third frame number (step S208—YES), the process proceeds to step S209, and if it is not within the third frame number (step S208—NO), the process proceeds to step S210.

ステップS209で、出力手段105は、制御手段106からの制御信号S(t)(S(t)=1)に基づいて、画像記憶手段104に記憶された後続フレームを出力する。   In step S209, the output unit 105 outputs the subsequent frame stored in the image storage unit 104 based on the control signal S (t) (S (t) = 1) from the control unit 106.

ステップS210で、出力手段105は、制御手段106からの制御信号S(t)(S(t)=0)に基づいて、入力フレームを出力する。   In step S210, the output unit 105 outputs an input frame based on the control signal S (t) (S (t) = 0) from the control unit 106.

ステップS211で、画像処理装置1は、全映像の処理を終了したか否かを判定する。全映像の処理が終了していれば(ステップS211−YES)この画像処理を終了し、全映像の処理が終了していなければ(ステップS211−NO)ステップS201に戻る。   In step S <b> 211, the image processing apparatus 1 determines whether or not the processing of all videos has been completed. If all the video processing has been completed (step S211—YES), this image processing is terminated. If all video processing has not been completed (step S211—NO), the processing returns to step S201.

以上、実施例2によれば、画像の特徴が変化する映像を強調することができる。例えば、画像の特徴が時間的に変化したフレームを特定し、このフレームを継続時間だけ連続させることで、このフレームを強調するとともに、同一フレームの継続出力によりずれた再生のタイミングについて、後続のフレームを用いてスムーズに入力フレームに切り替えることができる。   As described above, according to the second embodiment, it is possible to emphasize a video in which the feature of an image changes. For example, by specifying a frame in which the characteristics of the image have changed over time, and continuing this frame for the duration, this frame is emphasized, and at the same time, the subsequent frame is shifted with respect to the playback timing shifted by the continuous output of the same frame. Can be used to smoothly switch to the input frame.

[実施例3]
次に、実施例3における画像処理装置について説明する。実施例3では、本装置の後段に映像符号化が行われることを前提とし、GOP(Group Of Picture)構造の符号化順に従って、実施例1や実施例2の処理を行う。これにより、映像符号化におけるフレーム間予測の予測精度が向上するため、同一ビットレートにおいて画質を改善し、レート歪み特性を改善することができる。
[Example 3]
Next, an image processing apparatus according to the third embodiment will be described. In the third embodiment, assuming that video encoding is performed in the subsequent stage of the present apparatus, the processing of the first and second embodiments is performed according to the encoding order of the GOP (Group Of Picture) structure. Thereby, since the prediction accuracy of inter-frame prediction in video coding is improved, it is possible to improve image quality and rate distortion characteristics at the same bit rate.

<構成>
図6は、実施例3における画像処理装置3の構成の一例を示すブロック図である。図6に示す例では、画像処理装置3は、前処理手段301と、特徴抽出手段101と、遅延手段102と、判定手段103と、画像記憶手段104と、出力手段105と、制御手段106と、後処理手段302とを有する。
<Configuration>
FIG. 6 is a block diagram illustrating an example of the configuration of the image processing apparatus 3 according to the third embodiment. In the example illustrated in FIG. 6, the image processing apparatus 3 includes a preprocessing unit 301, a feature extraction unit 101, a delay unit 102, a determination unit 103, an image storage unit 104, an output unit 105, and a control unit 106. And post-processing means 302.

実施例3における画像処理装置3の構成で、実施例1や実施例2における構成と同様のものは同じ符号を付し、その説明を省略する。なお、後処理手段302は、本装置の後段で映像符号化処理が行われるので、必ずしも必要な構成ではない。   In the configuration of the image processing apparatus 3 in the third embodiment, the same components as those in the first and second embodiments are denoted by the same reference numerals, and the description thereof is omitted. Note that the post-processing unit 302 is not necessarily required because the video encoding process is performed in the subsequent stage of the present apparatus.

前処理部301は、入力された映像を、映像符号化技術におけるGOP構造を考慮して、符号化順に並べ替える。前処理部301は、並べ替えられた各フレームを入力映像として、特徴抽出手段101などに出力する。   The preprocessing unit 301 rearranges the input video in the encoding order in consideration of the GOP structure in the video encoding technique. The preprocessing unit 301 outputs each rearranged frame as an input video to the feature extraction unit 101 or the like.

特徴抽出手段101〜制御手段106の各構成は、実施例1や実施例2で説明した処理を実行する。   Each configuration of the feature extraction unit 101 to the control unit 106 executes the processing described in the first and second embodiments.

後処理手段302は、出力手段105により出力された映像の各フレームを、表示順に並べ替えて出力映像として出力する。なお、後段で映像符号化が行われることを考慮すると、後処理手段302は、必ずしも必要ではない。   The post-processing unit 302 rearranges the frames of the video output by the output unit 105 in the display order and outputs the rearranged video as an output video. Note that the post-processing unit 302 is not necessarily required in consideration of the video encoding performed in the subsequent stage.

後処理手段302を画像処理装置3に設けない場合、本装置の後段の映像符号化は、出力手段105により出力された順序で映像符号化を行うことができる。また、画像処理装置3は、映像符号化回路を含める構成にしてもよい。   When the post-processing unit 302 is not provided in the image processing apparatus 3, video encoding at the subsequent stage of the apparatus can be performed in the order output by the output unit 105. Further, the image processing device 3 may include a video encoding circuit.

映像符号化技術は、例えばMPEG(Moving Picture Experts Group)2や、H.264/AVC(Advanced Video Coding)などである。   Examples of video encoding techniques include MPEG (Moving Picture Experts Group) 2 and H.264. H.264 / AVC (Advanced Video Coding).

以上の構成を有することで、画像の特徴に変換があったフレームを、映像符号化を考慮して継続時間だけ連続して表示することが可能となり、このフレームを強調するとともに、画質を向上させることができるようになる。   With the above configuration, it is possible to continuously display frames whose image characteristics have been converted for a continuous time in consideration of video encoding. This frame is emphasized and image quality is improved. Will be able to.

<具体例>
次に、実施例3における画像処理の具体例について説明する。この具体例では、例えば継続時間e=2としたときであり、符号化順に並べ替えて処理した場合の出力映像がどのようになるかについて説明する。
<Specific example>
Next, a specific example of image processing in the third embodiment will be described. In this specific example, for example, when the duration e = 2, the output video when rearranged in the coding order and processed will be described.

図7は、実施例3における画像処理の具体例を説明するための図である。図7に示す例では、例えばfm11乃至fm19に示すような、IBPBPBPBPBPBPなるGOP構造とする。
I:イントラピクチャまたはスライス
P:前方向予測ピクチャまたはスライス
B:双方向予測ピクチャまたはスライス
この場合、前処理手段301は、入力されたフレーム順序ではなく、図7に示すfm41乃至fm49に示すような符号化の処理順序(IPBPBPBPB)に並べ替える。なお、図7に示す各フレーム内の番号は、入力順を示す。
FIG. 7 is a diagram for explaining a specific example of image processing in the third embodiment. In the example shown in FIG. 7, for example, a GOP structure as IBPBPBPBPBPBPBP as shown in fm11 to fm19 is adopted.
I: Intra picture or slice P: Forward prediction picture or slice B: Bidirectional prediction picture or slice In this case, the preprocessing means 301 is not the input frame order, but as shown in fm41 to fm49 shown in FIG. Rearrange to the encoding processing order (IPBPBPBPB). Note that the numbers in each frame shown in FIG. 7 indicate the input order.

特徴抽出手段101以降の各手段は、整順したフレーム順序において、例えば、実施例1で説明した画像処理を実行する。   Each unit after the feature extraction unit 101 executes, for example, the image processing described in the first embodiment in the ordered frame order.

図7に示すfm51乃至fm59は、実施例1で説明した画像処理を行った結果を示す。図7に示すように、fm52乃至fm54のフレームが同一のフレームとなる。   Reference numerals fm51 to fm59 shown in FIG. 7 indicate the results of performing the image processing described in the first embodiment. As shown in FIG. 7, the frames fm52 to fm54 are the same frame.

次に、後処理手段302は、図7に示すfm51乃至fm59を、入力映像の順序に並べ替えて、出力映像とする。後処理手段302による並べ替え後のフレーム群を、fm61乃至fm69に示す。   Next, the post-processing unit 302 rearranges fm51 to fm59 shown in FIG. 7 in the order of the input video to obtain an output video. Frame groups after rearrangement by the post-processing means 302 are shown as fm61 to fm69.

なお、フレームの並べ替えは、実際にフレーム順序を並べ替えるのではなく、画像処理装置3において、論理的に順序を並べ替えて処理を行ってもよい。   Note that the rearrangement of the frames may be performed by rearranging the logical order in the image processing apparatus 3 instead of actually rearranging the frame order.

<動作>
次に、実施例3における画像処理装置3の動作について説明する。図8は、実施例3における画像処理装置3の画像処理の一例を示すフローチャートである。図8に示す処理は、実施例1における画像処理を前提としているが、実施例2における画像処理を前提としてもよい。
<Operation>
Next, the operation of the image processing apparatus 3 in the third embodiment will be described. FIG. 8 is a flowchart illustrating an example of image processing of the image processing apparatus 3 according to the third embodiment. The processing shown in FIG. 8 is based on the image processing in the first embodiment, but may be based on the image processing in the second embodiment.

ステップS301で、前処理手段301は、入力された映像の各フレームを、映像符号化の符号化順に並べ替えて出力する。   In step S301, the preprocessing unit 301 rearranges the frames of the input video in the order of video encoding and outputs the images.

ステップS302〜S310の各処理は、図3に示すステップS101〜S109の各処理と同様である。   Each process of steps S302 to S310 is the same as each process of steps S101 to S109 shown in FIG.

ステップS311で、後処理手段302は、出力手段105から出力された映像の各フレームを、元の入力順に並べ替えて、出力映像として出力する。   In step S311, the post-processing unit 302 rearranges the frames of the video output from the output unit 105 in the original input order, and outputs the rearranged video as an output video.

以上、実施例3によれば、画像の特徴が変化する映像を強調することができる。例えば、画像の特徴が時間的に変化したフレームを特定し、このフレームを継続時間だけ連続させて強調するとともに、映像符号化におけるフレーム間予測の予測精度が向上するため、同一ビットレートにおいて画質を改善し、レート歪み特性を改善することができる。   As described above, according to the third embodiment, it is possible to emphasize a video in which the feature of an image changes. For example, a frame in which the characteristics of the image have changed over time is identified, this frame is continuously emphasized for the duration, and the prediction accuracy of inter-frame prediction in video coding is improved. And rate distortion characteristics can be improved.

[実施例4]
図9は、実施例4における画像処理装置4の構成の一例を示すブロック図である。図9に示す画像処理装置4は、上述した実施例1〜3で説明した各画像処理をソフトウェアで実装した装置の一例である。
[Example 4]
FIG. 9 is a block diagram illustrating an example of the configuration of the image processing device 4 according to the fourth embodiment. An image processing apparatus 4 shown in FIG. 9 is an example of an apparatus in which each image processing described in the first to third embodiments is implemented by software.

図9に示すように、画像処理装置4は、制御部401、主記憶部402、補助記憶部403、ドライブ装置404、ネットワークI/F部406、入力部407、表示部408を有する。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。   As illustrated in FIG. 9, the image processing apparatus 4 includes a control unit 401, a main storage unit 402, an auxiliary storage unit 403, a drive device 404, a network I / F unit 406, an input unit 407, and a display unit 408. These components are connected to each other via a bus so as to be able to transmit and receive data.

制御部401は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部401は、主記憶部402又は補助記憶部403に記憶された画像処理のプログラムを実行する演算装置である。制御部401は、入力部407や記憶装置からデータを受け取り、演算、加工した上で、表示部408や記憶装置などに出力する。   The control unit 401 is a CPU that controls each device, calculates data, and processes in a computer. The control unit 401 is an arithmetic device that executes an image processing program stored in the main storage unit 402 or the auxiliary storage unit 403. The control unit 401 receives data from the input unit 407 and the storage device, calculates and processes the data, and then outputs the data to the display unit 408 and the storage device.

制御部401は、上述した画像処理のプログラムを実行することで、各実施例で説明した処理を実現することができる。   The control unit 401 can realize the processing described in each embodiment by executing the above-described image processing program.

主記憶部402は、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部402は、制御部401が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。   The main storage unit 402 is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like. The main storage unit 402 is a storage device that stores or temporarily stores programs and data such as OS (Operating System) and application software that are basic software executed by the control unit 401.

補助記憶部403は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The auxiliary storage unit 403 is an HDD (Hard Disk Drive) or the like, and is a storage device that stores data related to application software or the like.

ドライブ装置404は、記録媒体405、例えばフレキシブルディスクからプログラムを読み出し、記憶部にインストールする。   The drive device 404 reads the program from the recording medium 405, for example, a flexible disk, and installs it in the storage unit.

また、記録媒体405に、所定のプログラムを格納し、この記録媒体405に格納されたプログラムはドライブ装置404を介して画像処理装置4にインストールされる。インストールされた所定のプログラムは、画像処理装置4により実行可能となる。   A predetermined program is stored in the recording medium 405, and the program stored in the recording medium 405 is installed in the image processing apparatus 4 through the drive device 404. The installed predetermined program can be executed by the image processing apparatus 4.

ネットワークI/F部406は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と画像処理装置4とのインターフェースである。   The network I / F unit 406 is a peripheral having a communication function connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network) constructed by a data transmission path such as a wired and / or wireless line. This is an interface between the device and the image processing apparatus 4.

入力部407は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部408の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部407は、ユーザが制御部401に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。   The input unit 407 includes a keyboard having cursor keys, numeric input, various function keys, and the like, and a mouse and a slice pad for performing key selection on the display screen of the display unit 408. The input unit 407 is a user interface for a user to give an operation instruction to the control unit 401 or input data.

表示部408は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成され、制御部401から入力される表示データに応じた表示が行われる。   The display unit 408 is configured by a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like, and performs display according to display data input from the control unit 401.

なお、実施例1〜3で説明した遅延手段や画像記憶手段は、例えば主記憶部402又は補助記憶部403により実現されうる。また、実施例1〜3で説明した遅延手段や画像記憶手段以外の構成は、例えば制御部401及びワークメモリとしての主記憶部402により実現されうる。   The delay unit and the image storage unit described in the first to third embodiments can be realized by the main storage unit 402 or the auxiliary storage unit 403, for example. The configuration other than the delay unit and the image storage unit described in the first to third embodiments can be realized by the control unit 401 and the main storage unit 402 as a work memory, for example.

画像処理装置4で実行されるプログラムは、実施例1〜3で説明した各手段を含むモジュール構成となっている。実際のハードウェアとしては、制御部401が補助記憶部403からプログラムを読み出して実行することにより上記各手段のうち1又は複数の各手段が主記憶部402上にロードされ、1又は複数の各部が主記憶部402上に生成されるようになっている。   The program executed by the image processing apparatus 4 has a module configuration including each unit described in the first to third embodiments. As actual hardware, when the control unit 401 reads out and executes a program from the auxiliary storage unit 403, one or more of the above-described units are loaded onto the main storage unit 402, and one or more of the respective units are loaded. Are generated on the main storage unit 402.

このように、上述した実施例1〜3で説明した各画像処理(映像強調処理)は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、各実施例で説明した処理を実現することができる。   As described above, each image processing (video enhancement processing) described in the first to third embodiments may be realized as a program for causing a computer to execute. The processing described in each embodiment can be realized by installing this program from a server or the like and causing the computer to execute the program.

また、このプログラムを記録媒体405に記録し、このプログラムが記録された記録媒体405をコンピュータや携帯端末に読み取らせて、前述した画像処理を実現させることも可能である。なお、記録媒体405は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   It is also possible to record the program in the recording medium 405 and cause the computer or portable terminal to read the recording medium 405 on which the program is recorded, thereby realizing the above-described image processing. The recording medium 405 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, a magneto-optical disk, etc. Various types of recording media such as a semiconductor memory for recording can be used.

なお、上述した実施例1〜3で説明した各手段は、各種の集積回路や電子回路を採用できる。また、実施例1〜3で説明した各手段の一部を別の集積回路や電子回路とすることもできる。例えば、集積回路としては、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)が挙げられる。また、電子回路としては、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などが挙げられる。   Note that each of the means described in the first to third embodiments can employ various integrated circuits and electronic circuits. Moreover, a part of each means demonstrated in Examples 1-3 can also be made into another integrated circuit and an electronic circuit. For example, examples of the integrated circuit include ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array). Examples of the electronic circuit include a central processing unit (CPU) and a micro processing unit (MPU).

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、上記変形例以外にも種々の変形及び変更が可能である。   Each embodiment has been described in detail above. However, the present invention is not limited to the specific embodiment, and various modifications and changes other than the above-described modification are possible within the scope described in the claims. .

1、3、4 画像処理装置
101 特徴抽出手段
102 遅延手段
103 判定手段
104 画像記憶手段
105 出力手段
106 制御手段
301 前処理手段
302 後処理手段
1, 3, 4 Image processing apparatus 101 Feature extraction means 102 Delay means 103 Determination means 104 Image storage means 105 Output means 106 Control means 301 Preprocessing means 302 Postprocessing means

Claims (6)

映像に含まれるフレームを入力し、該フレーム毎に画像特徴を抽出する抽出手段と、
前記抽出手段により抽出された画像特徴を記憶して遅延させる遅延手段と、
前記抽出手段により抽出された画像特徴と、前記遅延手段により遅延された画像特徴とを比較し、画像特徴の変化を判定する判定手段と、
前記判定手段により画像特徴が変化したと判定された場合、画像特徴が変化したフレームを記憶する記憶手段と、
前記入力されたフレームと、前記記憶手段に記憶されたフレームとのいずれかを出力する出力手段と、
前記判定手段により画像特徴が変化したと判定された場合、前記記憶手段に記憶されたフレームを連続して所定数出力するよう前記出力手段を制御する制御手段と、
を備える画像処理装置。
Extracting means for inputting a frame included in the video and extracting an image feature for each frame;
Delay means for storing and delaying the image features extracted by the extraction means;
A determination unit that compares the image feature extracted by the extraction unit with the image feature delayed by the delay unit and determines a change in the image feature;
A storage unit that stores a frame in which the image feature has changed when the determination unit determines that the image feature has changed;
Output means for outputting either the input frame or the frame stored in the storage means;
Control means for controlling the output means so as to continuously output a predetermined number of frames stored in the storage means when it is determined by the determination means that the image characteristics have changed;
An image processing apparatus comprising:
前記記憶手段は、
前記画像特徴が変化したフレーム以降の所定数のフレームを記憶し、
前記制御手段は、
前記記憶手段に記憶された前記画像特徴が変化したフレームを連続して出力した後、前記記憶手段に記憶された前記所定数のフレームを出力するよう制御する請求項1記載の画像処理装置。
The storage means
Storing a predetermined number of frames after the frame in which the image feature has changed,
The control means includes
The image processing apparatus according to claim 1, wherein after the frames with the changed image characteristics stored in the storage unit are continuously output, the predetermined number of frames stored in the storage unit are controlled to be output.
前記所定数のフレームは、前記画像特徴が変化したフレーム以降のフレームであり、不連続のフレームである請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the predetermined number of frames is a frame after the frame in which the image feature has changed, and is a discontinuous frame. 前記入力された各フレームを映像符号化順に並べ替えて、並べ替えられた各フレームを前記抽出手段に出力する前処理手段をさらに備える請求項1乃至3いずれか一項に記載の画像処理装置。   4. The image processing apparatus according to claim 1, further comprising a preprocessing unit that rearranges the input frames in the order of video encoding and outputs the rearranged frames to the extraction unit. 5. 前記画像特徴は、輝度値に関する値である請求項1乃至4いずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image feature is a value related to a luminance value. 映像に含まれるフレームを入力し、該フレーム毎に画像特徴を抽出する抽出ステップと、
前記抽出された画像特徴をバッファリングして遅延させる遅延ステップと、
前記抽出された画像特徴と、前記遅延された画像特徴とを比較し、画像特徴の変化を判定する判定ステップと、
画像特徴が変化したと判定された場合、画像特徴が変化したフレームを記憶手段に記憶する記憶ステップと、
前記入力されたフレームと、前記記憶手段に記憶されたフレームとのいずれかを出力する出力ステップと、
画像特徴が変化したと判定された場合、前記記憶手段に記憶されたフレームを連続して所定数出力するよう制御する制御ステップと、
コンピュータに実行させるためのプログラム。
An extraction step of inputting a frame included in the video and extracting an image feature for each frame;
A delay step of buffering and delaying the extracted image features;
A determination step of comparing the extracted image feature with the delayed image feature to determine a change in the image feature;
If it is determined that the image feature has changed, a storage step of storing in the storage means the frame in which the image feature has changed;
An output step of outputting either the input frame or the frame stored in the storage means;
A control step for controlling to output a predetermined number of frames stored in the storage means continuously when it is determined that the image feature has changed;
A program that causes a computer to execute.
JP2012035334A 2012-02-21 2012-02-21 Image processing apparatus and program Expired - Fee Related JP5886075B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012035334A JP5886075B2 (en) 2012-02-21 2012-02-21 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012035334A JP5886075B2 (en) 2012-02-21 2012-02-21 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2013172321A true JP2013172321A (en) 2013-09-02
JP5886075B2 JP5886075B2 (en) 2016-03-16

Family

ID=49265993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012035334A Expired - Fee Related JP5886075B2 (en) 2012-02-21 2012-02-21 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5886075B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050483A (en) * 2004-08-09 2006-02-16 Ricoh Co Ltd Video analysis device, video analysis method, content preparing device, program, and recording medium
JP2006217466A (en) * 2005-02-07 2006-08-17 Fuji Photo Film Co Ltd Photographing device and photographing system
JP2006261892A (en) * 2005-03-16 2006-09-28 Sharp Corp Television receiving set and its program reproducing method
JP2009195343A (en) * 2008-02-19 2009-09-03 Olympus Corp Image processor and image processing program
US20100092091A1 (en) * 2007-06-21 2010-04-15 Olympus Corporation Image display appartus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050483A (en) * 2004-08-09 2006-02-16 Ricoh Co Ltd Video analysis device, video analysis method, content preparing device, program, and recording medium
JP2006217466A (en) * 2005-02-07 2006-08-17 Fuji Photo Film Co Ltd Photographing device and photographing system
JP2006261892A (en) * 2005-03-16 2006-09-28 Sharp Corp Television receiving set and its program reproducing method
US20100092091A1 (en) * 2007-06-21 2010-04-15 Olympus Corporation Image display appartus
JP2009195343A (en) * 2008-02-19 2009-09-03 Olympus Corp Image processor and image processing program

Also Published As

Publication number Publication date
JP5886075B2 (en) 2016-03-16

Similar Documents

Publication Publication Date Title
US9916518B2 (en) Image processing apparatus, image processing method, program and imaging apparatus
US9769377B2 (en) Imaging apparatus and control method for handling a raw image of a moving image or a still image
US10082723B2 (en) Image capturing apparatus for generating a high dynamic range video frame from multiple image frames with different characteristics
US8995792B2 (en) Image processor, image processing method, and digital camera
US9460493B2 (en) Automatic video quality enhancement with temporal smoothing and user override
US20130169834A1 (en) Photo extraction from video
JP6574878B2 (en) Image processing apparatus, image processing method, imaging apparatus, program, and storage medium
US20170289434A1 (en) Method and system for image processing to detect salient objects in image
JP2009171318A (en) Image processor, image processing method, and imaging device
CN110855958B (en) Image adjusting method and device, electronic equipment and storage medium
US20190102870A1 (en) Image processing device, imaging device, image processing method, and program
US8830359B2 (en) Image processing apparatus, imaging apparatus, and computer readable medium
US20170280066A1 (en) Image processing method by image processing apparatus
JP5655668B2 (en) Imaging apparatus, image processing method, and program
JP2017224939A (en) Imaging apparatus
JP4612845B2 (en) Image processing apparatus and method
US7796827B2 (en) Face enhancement in a digital video
US8891833B2 (en) Image processing apparatus and image processing method
JP6450107B2 (en) Image processing apparatus, image processing method, program, and storage medium
CN112437237A (en) Shooting method and device
JP5886075B2 (en) Image processing apparatus and program
JP6582994B2 (en) Image processing apparatus, image processing method, and program
US9432650B2 (en) Image display apparatus, image capturing apparatus, and method of controlling image display apparatus
US20160373713A1 (en) Image processing apparatus, image processing method, and program
KR100487374B1 (en) Apparatus for generating thumbnail image of digital video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160210

R150 Certificate of patent or registration of utility model

Ref document number: 5886075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees