[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2007281946A - Photograph image processing apparatus, image processing method, and program - Google Patents

Photograph image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2007281946A
JP2007281946A JP2006106500A JP2006106500A JP2007281946A JP 2007281946 A JP2007281946 A JP 2007281946A JP 2006106500 A JP2006106500 A JP 2006106500A JP 2006106500 A JP2006106500 A JP 2006106500A JP 2007281946 A JP2007281946 A JP 2007281946A
Authority
JP
Japan
Prior art keywords
image
processing
unit
image processing
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006106500A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Endo
吉之 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006106500A priority Critical patent/JP2007281946A/en
Publication of JP2007281946A publication Critical patent/JP2007281946A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem nonconformity, wherein when there are a plurality of image processing requests from a network, an output of encoded data is interrupted, a frame rate is lowered, and block noise occurs, as a result of increased processed loads. <P>SOLUTION: The present invention includes a reading method of imaging element data, in response to image processing requested from a network; an image data output method of a development processing part; and a system or the like, capable of network outputting of stabilized encoded data by providing means for making selectable a proper image processing method, in response to a switching system thereof. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ネットワークを有する撮像画像処理装置等に関するものである。   The present invention relates to a captured image processing apparatus having a network.

撮像素子の読出し方法と後段の画像処理部の動作周波数を関連付けた発明として、例えば、特許文献1に開示されているものが挙げられる。   As an invention in which the readout method of the image sensor is associated with the operating frequency of the image processing unit in the subsequent stage, for example, the one disclosed in Patent Document 1 can be cited.

これは、いわゆる高画素撮像素子を用いたデジタルスチルカメラにおいて、ファインダ動作時には全画素取り込み時よりも画素読出しクロックを高速にすることで、ファインダ表示のフレームレートを向上させるという特徴がある。   This is characterized in that in a digital still camera using a so-called high pixel image sensor, the frame rate of the finder display is improved by making the pixel readout clock faster during the finder operation than when all the pixels are captured.

また、必要とされる画像サイズや画質に応じて撮像素子の読出し方法と連動して後段の画像処理部の動作を切替える処理を行う例として、例えば、特許文献2に開示されているものが挙げられる。   Further, as an example of performing a process of switching the operation of the subsequent image processing unit in conjunction with the readout method of the image sensor in accordance with the required image size and image quality, for example, the one disclosed in Patent Document 2 is given. It is done.

これは、デジタルスチルカメラにおいてサムネイル画像や保存画像ごとに画質処理と適用する読出し画像を関連付けることを特徴としているものである。   This is characterized in that a digital still camera associates image quality processing with a read image to be applied for each thumbnail image or saved image.

特開2002−142149号公報(第13頁、第7図)JP 2002-142149 A (page 13, FIG. 7) 特開2003−102026号公報(第8頁、第1図)Japanese Patent Laid-Open No. 2003-102026 (page 8, FIG. 1)

しかしながら、特許文献1に開示される発明のように、ファインダモードにおける処理能力の向上の為の解決策として動作周波数を上げるという処理を行った場合、必然的に消費電力が上昇してしまうという問題があった。   However, as in the invention disclosed in Patent Document 1, when the process of increasing the operating frequency is performed as a solution for improving the processing capability in the finder mode, the power consumption inevitably increases. was there.

さらに、特許文献1に開示される発明においては、ファインダモードにおける画像データの出力先は表示装置1つに限られており、異なる表示手段に複数の画像を出力するようなケースについては想定されておらず、その際には単に動作周波数を上昇させるだけでは対処することは不可能になると思われる。   Furthermore, in the invention disclosed in Patent Document 1, the output destination of image data in the finder mode is limited to one display device, and a case where a plurality of images are output to different display means is assumed. In that case, it would be impossible to deal with it simply by increasing the operating frequency.

さらに、特許文献1に開示される発明においては、撮像素子の読出し方法を切替えるのは、保存用の静止画として全画素読出しとファインダ表示の間引き読出しという機能的に異なる画素数のデータが必要な場合に行われる処理であり、機器としての処理能力に起因するものではない。   Furthermore, in the invention disclosed in Patent Document 1, switching the readout method of the image sensor requires data of different numbers of pixels such as all pixel readout and finder display thinning readout as a still image for storage. This is a process performed in a case, not due to the processing capability of the device.

さらに、特許文献2に開示される発明のように、要求される画像サイズや画質に応じて画像処理部の動作を切替えるという場合においては、確かにサムネイル画像に対してはフィールド画像のみを使用することで画像処理部の処理帯域は低減するが、本来ならば全画素画像を縮小して作成するものであるところのサムネイル画像を、全画像から縮小画像を作成するには処理負荷が大きく全体処理速度が低下してしまう、という理由で希望する画像と異なるタイミング及び読出し方法で出力された画像を用いてしまう為、動きの早い画像では全画素画像とサムネイル画像が異なるという問題が発生する。   Further, as in the invention disclosed in Patent Document 2, when the operation of the image processing unit is switched according to the required image size and image quality, only the field image is certainly used for the thumbnail image. Although the processing bandwidth of the image processing unit is reduced, the processing load is large to create thumbnail images that are originally created by reducing all pixel images, and reducing the image from all images. Since an image output at a timing and a reading method different from a desired image is used because the speed is reduced, there is a problem that all pixel images and thumbnail images are different in a fast-moving image.

そこで、本発明の目的は、処理能力を越える処理を実行してネットワーク出力の停止、フレームレートが低下することによる表示装置における画像更新の停滞、ブロックノイズの発生、等を未然に防止し、安定して視聴可能なネットワークカメラシステムを提供することにある。   Therefore, an object of the present invention is to prevent processing from stopping network output by performing processing exceeding the processing capacity, image update stagnation due to a decrease in frame rate, occurrence of block noise, etc. It is to provide a network camera system that can be viewed.

本発明の撮像画像処理装置は、複数の出力方式を備えた撮像手段と、画像処理手段と、符号化手段と、ネットワーク通信手段と、ネットワークを介した接続相手の符号化処理に対する要求を判断する要求判断手段と、前記画像処理手段及び前記符号化手段の処理負荷を判断する処理負荷判断手段とを備え、前記要求判断部の判断に応じて前記処理負荷判断手段が前記撮像手段の出力方式を切替えるように前記撮像手段及び前記画像処理手段に対し指示を出すことを特徴とする。
本発明の画像処理方法は、複数の出力方式を備えた撮像手段と、画像処理手段と、符号化手段と、ネットワーク通信手段と、ネットワークを介した接続相手の符号化処理に対する要求を判断する要求判断手段と、前記画像処理手段及び前記符号化手段の処理負荷を判断する処理負荷判断手段とを備えた撮像画像処理装置における処理方法であって、前記要求判断手段の判断に応じて前記処理負荷判断手段が前記撮像手段の出力方式を切替える工程と、これに基づいて前記撮像手段及び画像処理手段に対し指示を出す工程とを備えたことを特徴とする。
The captured image processing apparatus of the present invention determines a request for an encoding process of a plurality of output methods, an image processing unit, an encoding unit, a network communication unit, and an encoding process of a connection partner via a network. A request determination unit; and a processing load determination unit that determines a processing load of the image processing unit and the encoding unit. The processing load determination unit determines an output method of the imaging unit according to the determination of the request determination unit. An instruction is given to the imaging unit and the image processing unit so as to be switched.
The image processing method of the present invention includes an imaging unit having a plurality of output methods, an image processing unit, an encoding unit, a network communication unit, and a request for determining a request for encoding processing of a connection partner via a network. A processing method in a captured image processing apparatus, comprising: a determination unit; and a processing load determination unit that determines a processing load of the image processing unit and the encoding unit, wherein the processing load is determined according to the determination of the request determination unit The judging means includes a step of switching the output method of the image pickup means, and a step of issuing an instruction to the image pickup means and the image processing means based on the step.

本発明においては、ネットワークに対する画像出力を途切れさせること無く符号化データを出力し続けられるように、ネットワーク制御部がネットワークから要求される画像処理に応じて撮像素子データの読出し方法、現像処理部の画像データ出力方法、さらにその切替え方式に応じた適切な画像処理方法を選択可能にしている。従って、本発明によれば、処理能力を越える処理を実行してネットワーク出力の停止、フレームレートが低下することによる表示装置における画像更新の停滞、ブロックノイズの発生、等を未然に防止することが可能になり、安定して視聴可能なネットワークカメラシステムを提供することが可能になる。   In the present invention, in order to continue outputting encoded data without interrupting image output to the network, the network controller reads the image sensor data according to the image processing required from the network, and the development processor It is possible to select an image data output method and an appropriate image processing method according to the switching method. Therefore, according to the present invention, it is possible to prevent the network output from being stopped, the image update from being delayed in the display device due to the decrease in the frame rate, the occurrence of block noise, and the like by executing processing exceeding the processing capability. It becomes possible to provide a network camera system that can be viewed stably.

また、本発明においては、ネットワークに対する画像出力を途切れさせること無く圧縮データを出力し続けられるように、ネットワーク制御部がネットワークから要求される圧縮処理に応じて撮像素子データの読出し方法、現像処理部の画像データ出力方法、その切替え方式に応じた画像処理部における処理方法、さらにネットワークから要求される圧縮方式を選択可能にしている。従って、本発明によれば、安定して視聴可能なネットワークカメラシステムを提供することが可能になる。   In the present invention, the image pickup device data reading method and the development processing unit according to the compression processing required by the network so that the network control unit can continue to output the compressed data without interrupting the image output to the network. The image data output method, the processing method in the image processing unit corresponding to the switching method, and the compression method required from the network can be selected. Therefore, according to the present invention, it is possible to provide a network camera system that can be viewed stably.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る撮像装置を表す図である。
図1において、撮像装置200には、G増処理手段としての覆い焼き処理部101、符号化手段であるところの圧縮処理部205、出力方式の切替え可能な撮像手段であるところの撮像部201、及びネットワーク通信手段であるところの通信部206の大きく分けて4つの構成要素が存在する。
(First embodiment)
FIG. 1 is a diagram illustrating an imaging apparatus according to the first embodiment of the present invention.
In FIG. 1, an imaging apparatus 200 includes a dodging processing unit 101 serving as a G increase processing unit, a compression processing unit 205 serving as an encoding unit, an imaging unit 201 serving as an imaging unit capable of switching an output method, The communication unit 206, which is a network communication means, is roughly divided into four components.

撮像部201は、映像が入射されるレンズ202、レンズで集められた光を電気信号に変換する、撮像手段であるところの撮像素子203、撮像素子203から得られる信号を現像する、現像手段であるところの現像処理部204からなる。
なお、本実施形態における上記撮像素子203の解像度はいわゆるVGAサイズ(640×480画素)で説明を行う。
The imaging unit 201 is a developing unit that develops a lens 202 on which an image is incident, an imaging element 203 that is an imaging unit that converts light collected by the lens into an electrical signal, and a signal obtained from the imaging element 203. It consists of a certain development processing unit 204.
Note that the resolution of the image sensor 203 in the present embodiment will be described using a so-called VGA size (640 × 480 pixels).

上記撮像素子203は原色フィルタを備えた場合RGBGデータを出力し、フィールド読出しとフレーム読出しの切替え機能を備え、ネットワーク制御部207からの指示により、読出し方式を切替える仕組みを持つ。   When the image sensor 203 includes a primary color filter, the image sensor 203 outputs RGBG data, has a function of switching between field readout and frame readout, and has a mechanism for switching the readout method in accordance with an instruction from the network control unit 207.

フィールド読出しは通常1秒間に640×240画素の画像を60回出力し、フレーム読出しは1秒間に640×480画素の画像を30回出力するものであり、ネットワーク制御部207からの指示により撮像方式切替部214が上記2通りの読出し方式を切替える仕組みを持つ。   Field readout normally outputs an image of 640 × 240 pixels 60 times per second, and frame readout outputs an image of 640 × 480 pixels 30 times per second, and an imaging method in accordance with an instruction from the network control unit 207 The switching unit 214 has a mechanism for switching between the two reading methods.

上記現像処理部204は上記撮像素子203から出力される素子データを現像処理しながら所定の形式の画像データに変換し出力する。   The development processing unit 204 converts the element data output from the image sensor 203 into image data of a predetermined format while performing development processing, and outputs the image data.

画像出力の方式としては、撮像素子203からの出力がフィールド読出しの場合には同じくフィールド出力(640×240画素60フィールド出力)を行い、撮像素子203からの出力がフレーム読出しの場合、奇数ラインの画像のみで構成されるODD画像と偶数ラインの画像のみで構成されるEVEN画像を交互に出力するインタレース出力と、フレーム画像をそのまま出力するプログレッシブ出力の、3通りの出力方式を兼ね備え、ネットワーク制御部207からの指示により撮像方式切替部214が上記3通りの出力方式を切替える仕組みを持つ。   As an image output method, when the output from the image sensor 203 is field readout, the same field output (640 × 240 pixels 60 field output) is performed. When the output from the image sensor 203 is frame readout, odd lines are output. Network control with three output methods: interlaced output that alternately outputs ODD images consisting of only images and EVEN images consisting of only even-line images, and progressive output that outputs frame images as they are The imaging method switching unit 214 has a mechanism for switching the three output methods in accordance with an instruction from the unit 207.

現像された信号は画像データとして覆い焼き処理部101に与えられ、そこで覆い焼き処理を経た後、圧縮処理部205で符号化され、次に通信部206に符号化データとして与えられる。   The developed signal is provided as image data to the dodging processor 101, and after undergoing dodging processing, the encoded signal is encoded by the compression processor 205, and then supplied to the communication unit 206 as encoded data.

上記圧縮処理部205には、内部に覆い焼き処理部101から出力される画像をバッファ処理し、ネットワーク処理部207から指示されるJPEGやMPEGやH.264やJPEG2000などの符号化方式にしたがって符号化処理を行う。   The compression processing unit 205 internally buffers the image output from the dodging processing unit 101 and encodes it according to an encoding method such as JPEG, MPEG, H.264, or JPEG2000 specified by the network processing unit 207. Process.

ネットワーク通信手段であるところの通信部206では、接続された表示装置241からの撮像装置200に対する要求がネットワーク制御部207によって判断され、処理情報が覆い焼き処理部101や撮像部201や圧縮処理部205や撮像方式切替部214に対して伝えられる。   In the communication unit 206 serving as a network communication unit, a request for the imaging device 200 from the connected display device 241 is determined by the network control unit 207, and the processing information is the dodging processing unit 101, the imaging unit 201, and the compression processing unit. 205 and the imaging method switching unit 214.

なお、これらの処理は基本的にネットワーク制御部207内の処理判断部であり処理負荷判断部であるところのCPU210上で動作するソフトウエアによって処理される。   Note that these processes are basically processed by software operating on the CPU 210 which is a process determination unit and a processing load determination unit in the network control unit 207.

前記処理情報により表示装置用に符号化された動画像データがネットワーク制御部207を経由してストレージ部208に入力され、ネットワーク制御部207がストレージ部208に入力された動画像符号化データを、送出するネットワークの形態に応じてパケット化するなどの処理を行い、ネットワークインタフェース部209に対して送信用データとして受け渡す。   The moving image data encoded for the display device by the processing information is input to the storage unit 208 via the network control unit 207, and the moving image encoded data input to the storage unit 208 by the network control unit 207 is Processing such as packetization is performed according to the form of the network to be transmitted, and the data is transferred to the network interface unit 209 as transmission data.

ネットワークインタフェース部209はネットワーク網240に対して、そのネットワークの形態に応じた形でデータを送出する。   The network interface unit 209 sends data to the network 240 in a form corresponding to the network form.

また、ストレージ部208にはカメラから出力される動画像、もしくは任意のユーザに配信する動画像も蓄積される。なお、ネットワーク網240はEthernet(登録商標)等の有線LAN、IEEE802.11b等に代表される形式の無線LAN、もしくはISDN等の公衆回線網などを代表的なものとして想定することができる。   The storage unit 208 also stores a moving image output from the camera or a moving image distributed to any user. Note that the network 240 can be assumed to be representative of a wired LAN such as Ethernet (registered trademark), a wireless LAN represented by IEEE 802.11b, or a public line network such as ISDN.

なお、ストレージ部208ハードディスクドライブやDVD−RAM等のディスクドライブ系メモリだけでなく内蔵RAMや内蔵DRAMやIC外部に接続されたDRAMで構成されていることが考えられる。   Note that the storage unit 208 may be composed of not only a disk drive type memory such as a hard disk drive or a DVD-RAM but also a built-in RAM, a built-in DRAM, or a DRAM connected to the outside of the IC.

なお、本実施形態では図1において覆い焼き処理部101、圧縮処理部205、撮像部201、通信部206、撮像方式切替部214はそれぞれ別のブロックとして記述しているが、本実施形態を実ハードウェアで構成する際には、これらのブロックをそれぞれ別のICとして実現する、もしくは各部のいくつかの部分(例えば現像処理部204と撮像方式切替部214と覆い焼き処理部1と圧縮処理部205とネットワーク制御部206)をまとめて1チップ上に実現するなどの様々な実現形態が可能であり、その形態は本実施形態において制限されるものではない。   In the present embodiment, the dodging processing unit 101, the compression processing unit 205, the imaging unit 201, the communication unit 206, and the imaging method switching unit 214 are described as separate blocks in FIG. When configured by hardware, these blocks are realized as separate ICs, or some parts of each part (for example, the development processing unit 204, the imaging method switching unit 214, the dodging processing unit 1, and the compression processing unit) 205 and the network control unit 206) can be realized in various ways, for example, on a single chip, and the form is not limited in this embodiment.

図2は、第1の実施形態における撮像装置の覆い焼き処理部101の内部構成を表すブロック図である。
図2において、101は前記覆い焼き処理部である。102は、撮像部201から出力される画像データと、画素サンプリングクロックや水平/垂直同期信号などの制御信号を表す入力信号である。
FIG. 2 is a block diagram illustrating an internal configuration of the dodging processing unit 101 of the imaging apparatus according to the first embodiment.
In FIG. 2, 101 is the dodging processor. An input signal 102 represents image data output from the imaging unit 201 and control signals such as a pixel sampling clock and a horizontal / vertical synchronization signal.

103は、入力画像102を輝度データと色差データに分離する輝度・色差分離部である。なお、この輝度・色差分離部103に入力される入力画像102のデータ形式として、RGBであってもYC(4:2:2や4:4:4を問わず)であっても、同じように輝度データと色差データに分離する物である。   A luminance / color difference separating unit 103 separates the input image 102 into luminance data and color difference data. The data format of the input image 102 input to the luminance / color difference separation unit 103 is the same regardless of whether it is RGB or YC (regardless of 4: 2: 2 or 4: 4: 4). In other words, the data is separated into luminance data and color difference data.

104は、輝度・色差分離部3から出力される色差データと輝度データを一時蓄え、覆い焼き制御部119の指示により出力するバッファ処理部である。   A buffer processing unit 104 temporarily stores the color difference data and luminance data output from the luminance / color difference separation unit 3 and outputs them according to an instruction from the dodging control unit 119.

106は、輝度・色差分離部103から出力される輝度データを所望の比率で縮小する画像縮小部である。   An image reduction unit 106 reduces the luminance data output from the luminance / color difference separation unit 103 at a desired ratio.

109は、画像縮小部106から出力される縮小画像に対し、ガウシアンフィルタなどのローパスフィルタを掛けて空間フィルタ処理された画像を作成する空間フィルタ処理部である。   Reference numeral 109 denotes a spatial filter processing unit that creates a spatially filtered image by applying a low-pass filter such as a Gaussian filter to the reduced image output from the image reduction unit 106.

110は、空間フィルタ処理部109から出力される空間フィルタ処理画像を一時的に蓄積し、覆い焼き制御部119の指示により出力するフィルタ画像バッファ処理部である。   A filter image buffer processing unit 110 temporarily accumulates the spatial filter processed image output from the spatial filter processing unit 109 and outputs the image according to an instruction from the dodging control unit 119.

112は、フィルタ画像バッファ処理部110から読み出した空間フィルタ処理画像を入力画像2と同じ解像度まで拡大する画像拡大部である。   Reference numeral 112 denotes an image enlargement unit that enlarges the spatial filter processed image read from the filter image buffer processing unit 110 to the same resolution as the input image 2.

113は、画像拡大部から出力される入力画像2と同じ解像度の輝度データを入力し、覆い焼き制御部119から指示されたルックアップテーブル(以下、LUTと称す)に基づいて演算処理されるLUT演算処理部である。   An LUT 113 receives luminance data having the same resolution as that of the input image 2 output from the image enlargement unit, and performs arithmetic processing based on a look-up table (hereinafter referred to as LUT) instructed from the dodging control unit 119. An arithmetic processing unit.

114は、バッファ処理部104から色差データと輝度データに分離された入力画像102を読み出し、LUT演算処理部113から出力される画像データと所定の演算式に基づいて合成処理を行い出力する画像合成部である。   114 reads the input image 102 separated into the color difference data and the luminance data from the buffer processing unit 104, performs the synthesis process based on the image data output from the LUT arithmetic processing unit 113 and a predetermined arithmetic expression, and outputs the image composition Part.

118は画像合成部114から出力される覆い焼き処理された画像データである。   Reference numeral 118 denotes image data subjected to dodging processing output from the image composition unit 114.

119は、ネットワーク制御部207から指示されるパラメータにより覆い焼き処理部1内部の各ブロックに対し適切な指示を行ったり、入力信号を入力して各処理部の動作タイミングを制御したりする制御部である。   Reference numeral 119 denotes a control unit that gives appropriate instructions to each block in the dodging processing unit 1 according to parameters instructed by the network control unit 207, and controls the operation timing of each processing unit by inputting an input signal. It is.

なお、図2においては図示されていないが、覆い焼き処理部1内の全ての処理部は覆い焼き制御部119によってコントロールされる為の信号が接続されている。   Although not shown in FIG. 2, all the processing units in the dodging processing unit 1 are connected to signals for being controlled by the dodging control unit 119.

なお、各処理部にはタイミング調整用のバッファとなるFIFOやRAMが設けられている。また、バッファ処理部104は内蔵RAMや内蔵DRAMやIC外部に接続されたDRAMで構成されていることが考えられる。   Each processing unit is provided with a FIFO and a RAM that serve as a timing adjustment buffer. In addition, the buffer processing unit 104 may be configured by a built-in RAM, a built-in DRAM, or a DRAM connected to the outside of the IC.

図3は、本実施形態における表示装置241の動作を表したフローチャートである。
図4は、本実施形態におけるネットワーク制御部207内のCPU210の動作を表したフローチャートである。
図5は、本実施形態における撮像素子203の読み出し方法(501)と現像処理部204の出力方法(502)と覆い焼き処理時における画像の読出し方法(503)と覆い焼き処理後の画質比較(504)とバッファ処理部104とフィルタ画像バッファ処理部110に蓄積される画像データ(505)と、これらすべての組み合わせにそれぞれモード番号(506)を付けたことを示す図である。
図6は、モード番号1においてネットワーク制御部207及び覆い焼き制御部119が制御する各処理部の動作を示すシーケンスチャートである。
FIG. 3 is a flowchart showing the operation of the display device 241 in the present embodiment.
FIG. 4 is a flowchart showing the operation of the CPU 210 in the network control unit 207 in the present embodiment.
FIG. 5 shows a comparison between the image reading method (501) of the image sensor 203, the output method (502) of the development processing unit 204, the image reading method (503) during the dodging process, and the image quality after the dodging process in this embodiment ( 504), the image data (505) stored in the buffer processing unit 104 and the filter image buffer processing unit 110, and a mode number (506) assigned to all of these combinations.
FIG. 6 is a sequence chart showing the operation of each processing unit controlled by the network control unit 207 and the dodging control unit 119 in mode number 1.

モード番号1における設定では、撮像素子203の読出し(601)はフィールド読出し、現像処理部204の出力(602)も同じくフィールド出力となり、覆い焼き処理部101においては、入力画像102をそのままバッファ処理部104に蓄積(604)し、その入力画像102の輝度データに対して行われる縮小処理と空間フィルタ処理(605)により作成される空間フィルタ処理画像がフィルタ画像バッファ処理部110に蓄積(606)される。   In the setting of mode number 1, reading (601) of the image sensor 203 is field reading, and output (602) of the development processing unit 204 is also field output. In the dodging processing unit 101, the input image 102 is directly used as a buffer processing unit. The spatial filter processed image is stored in the filtered image buffer processing unit 110 (606). The spatial filtered image generated by the reduction processing and the spatial filtering processing (605) performed on the luminance data of the input image 102 is stored (606). The

覆い焼き制御部119は空間フィルタ処理画像の作成完了後、バッファ処理部104から蓄積しておいた入力画像102を読出し(604)すると同時にフィルタ画像バッファ処理部110から空間フィルタ処理画像を読出し(606)、空間フィルタ処理画像に対し画像拡大部112における拡大処理、LUT演算処理部におけるγ処理を行った後、読み出した入力画像102に対し画像合成部114における合成処理を実行(607)することで出力画像118が出力される。   After the creation of the spatial filter processed image is completed, the dodging control unit 119 reads the input image 102 accumulated from the buffer processing unit 104 (604) and simultaneously reads the spatial filter processed image from the filter image buffer processing unit 110 (606). ) After performing the enlargement process in the image enlargement unit 112 and the γ process in the LUT calculation processing unit on the spatial filter processed image, the synthesis process in the image synthesis unit 114 is executed on the read input image 102 (607). An output image 118 is output.

出力画像118は圧縮処理部205に入力され、MPEG2やMPEG4やH.264等のストリーム系の符号化処理(608)が行われる。   The output image 118 is input to the compression processing unit 205, and MPEG2, MPEG4, H.264, and so on. H.264 or the like stream system encoding processing (608) is performed.

図7はモード番号7においてネットワーク制御部207及び覆い焼き制御部119が制御する各処理部の動作を示すシーケンスチャートである。   FIG. 7 is a sequence chart showing the operation of each processing unit controlled by the network control unit 207 and the dodging control unit 119 in the mode number 7.

モード番号7における設定では、撮像素子203の読出し(701)はフレーム読出し、現像処理部204の出力(702)はインタレース出力となる。   With the setting in mode number 7, the readout (701) of the image sensor 203 is a frame readout, and the output (702) of the development processing unit 204 is an interlaced output.

覆い焼き処理部101においては、入力画像102のODDデータのみをバッファ処理部104に蓄積(704)し、その入力画像102の輝度データに対して行われる縮小処理と空間フィルタ処理(705)により作成される空間フィルタ処理画像がフィルタ画像バッファ処理部110に蓄積(706)される。   In the dodging processing unit 101, only the ODD data of the input image 102 is accumulated in the buffer processing unit 104 (704), and is created by reduction processing and spatial filter processing (705) performed on the luminance data of the input image 102. The spatial filter processed image is accumulated (706) in the filtered image buffer processing unit 110.

覆い焼き制御部119は空間フィルタ処理画像の作成完了後、バッファ処理部104から蓄積しておいた入力画像102を読出し(704)すると同時にフィルタ画像バッファ処理部110からODDデータで作成された空間フィルタ処理画像を読出し(706)、空間フィルタ処理画像に対し画像拡大部112における拡大処理、LUT演算処理部におけるγ処理を行なう。   After the creation of the spatial filter processed image is completed, the dodging control unit 119 reads (704) the input image 102 accumulated from the buffer processing unit 104, and at the same time, the spatial filter created by the ODD data from the filter image buffer processing unit 110 The processed image is read (706), and the enlargement process in the image enlargement unit 112 and the γ process in the LUT calculation processing unit are performed on the spatial filter process image.

その後、読み出した入力画像102に対し画像合成部114における合成処理を実行(707)する事で出力画像118が出力される。出力画像118は圧縮処理部205に入力され、MPEG2やMPEG4やH.264等のストリーム系の符号化処理(708)が行われる。   Thereafter, the output image 118 is output by executing (707) the combining process in the image combining unit 114 on the read input image 102. The output image 118 is input to the compression processing unit 205, and MPEG2, MPEG4, H.264, and so on. H.264 or the like stream system encoding processing (708) is performed.

モード番号7においては、ODDデータで作成された空間フィルタ処理画像をEVENデータに対しても適用することで、フィルタ画像バッファ処理部110に蓄積する処理706がモード1に対して省かれている。   In mode number 7, the process 706 stored in the filter image buffer processing unit 110 is omitted from the mode 1 by applying the spatial filter processed image created with the ODD data to the EVEN data.

図8はモード番号2においてネットワーク制御部207及び覆い焼き制御部119が制御する各処理部の動作を示すシーケンスチャートである。   FIG. 8 is a sequence chart showing the operation of each processing unit controlled by the network control unit 207 and the dodging control unit 119 in mode number 2.

モード番号2における設定では、撮像素子203の読出し601はフィールド読出し、現像処理部204の出力(602)も同じくフィールド出力となり、覆い焼き処理部101においては、入力画像102はバッファ処理部104に蓄積(604)せず、入力画像102の輝度データに対して行われる縮小処理と空間フィルタ処理(605)により作成される空間フィルタ処理画像がフィルタ画像バッファ処理部110に蓄積(606)される。   In the setting of mode number 2, the readout 601 of the image sensor 203 is a field readout, and the output (602) of the development processing unit 204 is also a field output. In the dodging processing unit 101, the input image 102 is stored in the buffer processing unit 104. Without performing (604), the filtered image buffer processing unit 110 accumulates (606) the spatially filtered image created by the reduction processing performed on the luminance data of the input image 102 and the spatial filtering (605).

覆い焼き制御部119は空間フィルタ処理画像の作成完了後、バッファ処理部104に蓄積されずに出力される入力画像102に合わせてフィルタ画像バッファ処理部110から空間フィルタ処理画像を読出す(606)。   After completing the creation of the spatial filter processed image, the dodging control unit 119 reads the spatial filtered image from the filtered image buffer processing unit 110 in accordance with the input image 102 output without being stored in the buffer processing unit 104 (606). .

空間フィルタ処理画像に対し画像拡大部112における拡大処理、LUT演算処理部におけるγ処理を行った後、読み出した入力画像102に対し画像合成部114における合成処理を実行607することで出力画像118が出力される。   After the enlargement process in the image enlargement unit 112 and the γ process in the LUT calculation processing unit are performed on the spatial filter processing image, the synthesis process in the image synthesis unit 114 is performed 607 on the read input image 102, whereby the output image 118 is obtained. Is output.

出力画像118は圧縮処理部205に入力され、MPEG2やMPEG4やH.264等のストリーム系の符号化処理(608)が行われる。   The output image 118 is input to the compression processing unit 205, and MPEG2, MPEG4, H.264, and so on. H.264 or the like stream system encoding processing (608) is performed.

モード番号2においては、入力画像102をバッファ処理せずに、空間フィルタ処理を行った画像を次のフィールド画像に対して合成処理を行う為、入力画像102のバッファ処理部104への入出力処理(604)が省かれている。   In mode number 2, the input image 102 is not subjected to buffer processing, and the image subjected to spatial filter processing is combined with the next field image, so that input / output processing of the input image 102 to the buffer processing unit 104 is performed. (604) is omitted.

図1、図2、図3、図4、図5、図6、図7及び図8を用いて、本発明の第1の実施形態における動画系の符号化方式による圧縮を行う場合における撮像装置200の動作について説明する。   Image pickup apparatus in the case of performing compression by the moving image type encoding method in the first embodiment of the present invention using FIG. 1, FIG. 2, FIG. 3, FIG. 4, FIG. The operation 200 will be described.

ある表示装置241が撮像装置200に対してアクセス(ステップS301)して通信が確立した場合、ネットワーク制御部207が撮像部201を起動(ステップS401)し各初期設定項目を設定(ステップS402)すると、撮像部201は画像処理を開始する。   When a certain display device 241 accesses the imaging device 200 (step S301) and establishes communication, the network control unit 207 activates the imaging unit 201 (step S401) and sets each initial setting item (step S402). The imaging unit 201 starts image processing.

起動時の各初期設定項目の設定(ステップS402)においては、まず図6に表されるモード番号1における設定で各処理部が動作を開始する。モード1においては図5に示されるようにバッファ処理部104とフィルタ画像バッファ処理部110に書き込まれる画像がフィールド入力画像102とフィールド空間フィルタ処理画像になる。   In the setting of each initial setting item at the time of startup (step S402), first, each processing unit starts operation with the setting in mode number 1 shown in FIG. In mode 1, as shown in FIG. 5, the images written in the buffer processing unit 104 and the filtered image buffer processing unit 110 become the field input image 102 and the field space filtered image.

モード1の動作で符号化処理(608)された符号化データはネットワークI/F209からネットワーク網240に対して出力(ステップS403)される。   The encoded data subjected to the encoding process (608) in the mode 1 operation is output from the network I / F 209 to the network 240 (step S403).

この出力画像をネットワーク網240経由で画像受信(ステップS302)した表示装置241は、符号化された画像データを復元し、表示手段上に表示(ステップS303)する。   The display device 241 that has received the output image via the network 240 (step S302) restores the encoded image data and displays it on the display means (step S303).

操作者は撮像装置200の撮影画像を見ながら、表示装置上に存在する何らかの制御手段により、撮像装置200を制御する為のモードを選択(ステップS304)する事で、撮像装置200をコントロールすることが可能になる。   The operator controls the imaging device 200 by selecting a mode for controlling the imaging device 200 by some control means existing on the display device while viewing the captured image of the imaging device 200 (step S304). Is possible.

表示装置241においては、操作者の入力するコマンドを判断(ステップS305)し、そのコマンドが覆い焼き処理を起動するためのコマンドならば覆い焼き処理を開始もしくは停止するコマンドをセット(ステップS312)し、そのコマンドが覆い焼き処理以外のその他の処理に関するコマンドならばそのコマンドをセット(ステップS313)した後に、撮像装置200に対してコマンドを送信(ステップS315)する。   The display device 241 determines a command input by the operator (step S305). If the command is a command for starting the dodging process, a command for starting or stopping the dodging process is set (step S312). If the command is a command related to processing other than the dodging process, the command is set (step S313), and then the command is transmitted to the imaging apparatus 200 (step S315).

なお、このその他の処理のコマンドというのは、撮影停止・開始や撮影画像全体の輝度レベルの変更やZOOMなどの撮像装置200の制御一般に関するものを指している。   The other processing commands refer to general control of the imaging apparatus 200 such as stop / start of shooting, change of the luminance level of the entire shot image, and ZOOM.

表示装置241からのコマンド送信を受信した撮像装置200はネットワーク制御部207においてそのコマンドを判断(ステップS405)し、そのコマンドが覆い焼きや符号化方式に関するもの以外の場合には、その指示された処理を行う(ステップS406)。   The imaging device 200 that has received the command transmission from the display device 241 determines the command in the network control unit 207 (step S405), and if the command is not related to dodging or encoding, the instruction is given. Processing is performed (step S406).

もしそのコマンドが覆い焼きや符号化方式に関するものであると判断された場合、ネットワーク制御部207はネットワークからの要求符号化方式種類及び要求符号化量を判断(ステップS407)し、さらにその要求がどの表示装置からのものかを判断(ステップS408)することで、撮像装置200の処理負荷を推測する判断(ステップS409)を行う。   If it is determined that the command is related to dodging or the encoding method, the network control unit 207 determines the required encoding method type and the required encoding amount from the network (step S407), and the request is further determined. By determining which display device the device is from (Step S408), a determination is made to estimate the processing load of the imaging device 200 (Step S409).

表示装置241からの要求が動画系の符号化方式であるMPEG2やMPEG4やH.264のような方式であり、且つ他の表示装置からの要求がない場合、ネットワーク制御部207はモード番号1のまま出力を続けるが、異なる表示装置242からの画像出力要求が発生し、さらにその画像出力において同じ符号化方式ではあるものの、異なる圧縮効率の画像出力が要求されていると判断(ステップS408)された場合、処理負荷を推測する判断(ステップS409)において、圧縮処理部206で増加する処理量に見合う各読出し方式の変更した場合の覆い焼き処理部101における減少される処理量を判断(ステップS411)する。各読出し方式の変更が必要であると判断(ステップS411)された場合、ネットワーク制御部207はモード番号7の方式に切替えるように各処理部へ指示を出す(ステップS412)。   The request from the display device 241 is MPEG2, MPEG4, H.264, which is a moving image encoding system. 264, and when there is no request from another display device, the network control unit 207 continues output with mode number 1, but an image output request from a different display device 242 is generated, and Although it is the same encoding method for image output, if it is determined that an image output with a different compression efficiency is requested (step S408), the compression processing unit 206 increases the processing load in the determination to estimate the processing load (step S409). The amount of processing to be reduced in the dodging processing unit 101 when each reading method is changed in accordance with the amount of processing to be performed is determined (step S411). If it is determined that each reading method needs to be changed (step S411), the network control unit 207 instructs each processing unit to switch to the mode number 7 method (step S412).

指示を出された各処理部はモード番号7の指示に合わせて処理動作を切替える(ステップS413)。   Each processing unit that has received the instruction switches the processing operation in accordance with the instruction of mode number 7 (step S413).

モード番号1とモード番号7においては、空間フィルタ処理画像のフィルタ画像バッファ処理部110への蓄積と読出しが1フィールド分少ない為、撮像装置200の処理負荷が少なくなり、その処理負荷の減少分を表示装置242に対する異なる符号化処理へ割り当てることが出来る。   In the mode number 1 and the mode number 7, since the accumulation and reading of the spatial filter processed image in the filter image buffer processing unit 110 are reduced by one field, the processing load of the imaging apparatus 200 is reduced, and the reduction in the processing load is reduced. Different encoding processes for the display device 242 can be assigned.

しかしながら、画質504の面では、動画系の符号化方式である部分を考慮すると、撮像素子203の読出しにおいてフィールド読出し方式がフレーム読出しに対して出力期間が短い分、滑らかな動画像が得られると考えられる。
従って、動画像画質504という面では、モード番号1のほうが優れていると考えられる。
However, in terms of the image quality 504, considering a portion that is a moving image encoding method, when the field reading method in reading of the image sensor 203 has a shorter output period than frame reading, a smooth moving image can be obtained. Conceivable.
Therefore, mode number 1 is considered to be superior in terms of moving image quality 504.

表示装置241からの単独要求の場合にはモード番号1、表示装置242からの要求が重なった場合にはモード番号7の方式で動作している撮像装置200に対し、さらに異なる表示装置243からの画像出力要求が発生し、さらにその画像出力において同じ符号化方式ではあるものの、異なる圧縮効率の画像出力が要求されていると判断(ステップS408)された場合、再度処理負荷を推測する判断(ステップS409)を行い、各読出し方式の変更が必要であると判断(ステップS411)された場合、ネットワーク制御部207はモード番号2の方式に切替えるように各処理部へ指示を出す(ステップS412)。   In the case of a single request from the display device 241, when the request from the display device 242 overlaps, the imaging device 200 operating in the mode number 7 method is further different from the display device 243. If an image output request is generated and it is determined that an image output with a different compression efficiency is requested (step S408), although the same encoding method is used for the image output, a determination to again estimate the processing load (step S408) In step S409, when it is determined that each reading method needs to be changed (step S411), the network control unit 207 instructs each processing unit to switch to the mode number 2 method (step S412).

指示を出された各処理部はモード番号2の指示に合わせて処理動作を切替える(ステップS413)。   Each processing unit that has received the instruction switches the processing operation in accordance with the instruction of mode number 2 (step S413).

モード番号2においては、入力画像102のバッファ処理部104への蓄積と読出しがない為、撮像装置200の処理負荷がモード番号7の場合と比較してもさらに少なくなり、その処理負荷の減少分を表示装置243に対する異なる符号化処理へ割り当てることが出来る。   In mode number 2, since the input image 102 is not stored in and read from the buffer processing unit 104, the processing load of the imaging apparatus 200 is further reduced as compared with the case of mode number 7, and the reduction in the processing load. Can be assigned to different encoding processes for the display device 243.

しかしながら、画質504の面では、動画系の符号化方式である部分を考慮すると、撮像素子203の読出しはモード番号1と同じフィールド読出し方式であるものの、空間フィルタ処理を行った画像と合成する画像が約60分の1秒時間的にずれている為、覆い焼き処理画像としてはモード番号1のほうが優れている。   However, in terms of the image quality 504, considering the portion that is a moving image encoding method, the image sensor 203 reads the image using the same field reading method as mode number 1, but the image combined with the image subjected to the spatial filter processing Therefore, mode number 1 is superior as the dodging processing image.

さらにモード番号7と比較しても同様に時間のずれが画質に与える影響は、撮像素子203の読出し方式の違いが画質に与える影響よりも大きいと考えられる。
従って、動画像画質504という面では、モード番号1やモード番号7のほうが優れていると考えられる。
Further, even when compared with mode number 7, it is considered that the influence of the time lag on the image quality is larger than the influence of the difference in the reading method of the image sensor 203 on the image quality.
Accordingly, it is considered that mode number 1 and mode number 7 are superior in terms of moving image quality 504.

以上説明したように、本実施形態においてはネットワークから要求される処理に対する撮像装置200自体の処理負荷を判断し、圧縮処理の増加分に対してバッファ処理の減少分をもって相殺する様に各処理部の読出し・処理方式を能動的に切替えることによって、処理能力を越える処理を実行してネットワーク出力の停止、フレームレートが低下することによる表示装置における画像更新の停滞、ブロックノイズの発生、等を未然に防止することが可能になる。   As described above, in this embodiment, each processing unit determines the processing load of the imaging apparatus 200 itself for processing requested from the network, and cancels out the increase in compression processing with the decrease in buffer processing. By actively switching the reading and processing method, the processing exceeding the processing capacity is executed to stop the network output, the image update stagnation due to the decrease in the frame rate, the occurrence of block noise, etc. It becomes possible to prevent.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
第1の実施形態においては、表示装置241側からの動画系の符号化方式による圧縮を行う場合における撮像装置200の動作について説明したが、本実施形態では、表示装置241側からJPEGなどの静止画系符号化方式の要求がある場合にも、同様の効果が期待することが可能になる。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
In the first embodiment, the operation of the imaging device 200 when performing compression using the moving image encoding method from the display device 241 side has been described. However, in the present embodiment, a stationary operation such as JPEG is performed from the display device 241 side. The same effect can be expected even when there is a request for an image encoding method.

図9はモード番号5においてネットワーク制御部207及び覆い焼き制御部119が制御する各処理部の動作シーケンスである。   FIG. 9 shows an operation sequence of each processing unit controlled by the network control unit 207 and the dodging control unit 119 in the mode number 5.

モード番号5における設定では、撮像素子203の読出し(901)はフレーム読出し、現像処理部204の出力(902)はプログレッシブ出力となる。   With the setting in mode number 5, readout of the image sensor 203 (901) is frame readout, and the output (902) of the development processing unit 204 is progressive output.

覆い焼き処理部101においては、入力画像102をバッファ処理部104に蓄積(904)し、その入力画像102の輝度データに対して行われる縮小処理と空間フィルタ処理(905)により作成される空間フィルタ処理画像がフィルタ画像バッファ処理部110に蓄積(906)される。   In the dodging processing unit 101, the input image 102 is accumulated in the buffer processing unit 104 (904), and a spatial filter created by reduction processing and spatial filter processing (905) performed on the luminance data of the input image 102. The processed image is accumulated (906) in the filter image buffer processing unit 110.

覆い焼き制御部119は空間フィルタ処理画像の作成完了後、バッファ処理部104から蓄積しておいた入力画像102を読出し(904)すると同時にフィルタ画像バッファ処理部110から空間フィルタ処理画像を読出し(906)、空間フィルタ処理画像に対し画像拡大部112における拡大処理、LUT演算処理部におけるγ処理を行なう。   After the creation of the spatial filter processed image is completed, the dodging control unit 119 reads the input image 102 accumulated from the buffer processing unit 104 (904) and simultaneously reads the spatial filter processed image from the filter image buffer processing unit 110 (906). ), An enlargement process in the image enlargement unit 112 and a γ process in the LUT calculation processing unit are performed on the spatial filter processed image.

その後、読み出した入力画像102に対し画像合成部114における合成処理を実行(907)する事で出力画像118が出力される。   Thereafter, the output image 118 is output by executing (907) the combining process in the image combining unit 114 on the read input image 102.

出力画像118は圧縮処理部205に入力され、MJPEG等の静止画系の符号化処理(908)が行われる。   The output image 118 is input to the compression processing unit 205, and a still image type encoding process (908) such as MJPEG is performed.

図10はモード番号6においてネットワーク制御部207及び覆い焼き制御部119が制御する各処理部の動作を示すシーケンスチャートである。   FIG. 10 is a sequence chart showing the operation of each processing unit controlled by the network control unit 207 and the dodging control unit 119 in mode number 6.

モード番号6における設定では、撮像素子203の読出し(1001)はフレーム読出し、現像処理部204の出力(1002)はプログレッシブ出力となり、覆い焼き処理部101においては、入力画像102のバッファ処理部104に対する蓄積(1004)は行われず、入力画像102の輝度データに対して行われる縮小処理と空間フィルタ処理(1005)により作成される空間フィルタ処理画像がフィルタ画像バッファ処理部110に蓄積(1006)される。   In the setting of mode number 6, reading (1001) of the image sensor 203 is frame reading, output (1002) of the development processing unit 204 is progressive output, and the dodging processing unit 101 outputs the input image 102 to the buffer processing unit 104. The accumulation (1004) is not performed, and the spatial filter processed image created by the reduction process and the spatial filter process (1005) performed on the luminance data of the input image 102 is accumulated (1006) in the filter image buffer processing unit 110. .

覆い焼き制御部119は空間フィルタ処理画像の作成完了後、空間フィルタ処理を行った画像の次のプログレッシブ出力画像の入力に合わせて、フィルタ画像バッファ処理部110から空間フィルタ処理画像を読出し(1006)、空間フィルタ処理画像に対し画像拡大部112における拡大処理、LUT演算処理部におけるγ処理を行った後、読み出した入力画像102に対し画像合成部114における合成処理を実行(1007)する事で出力画像118が出力される。出力画像118は圧縮処理部205に入力され、MJPEG等の静止画系の符号化処理(1008)が行われる。   After the creation of the spatial filter processed image, the dodging control unit 119 reads out the spatial filtered image from the filtered image buffer processing unit 110 in accordance with the input of the next progressive output image after the spatial filtered image (1006). After the enlargement process in the image enlargement unit 112 and the γ process in the LUT calculation processing unit are performed on the spatial filter processed image, the synthesis process in the image synthesis unit 114 is executed on the read input image 102 (1007). An image 118 is output. The output image 118 is input to the compression processing unit 205, and still image type encoding processing (1008) such as MJPEG is performed.

図11はモード番号8においてネットワーク制御部207及び覆い焼き制御部119が制御する各処理部の動作シーケンスである。   FIG. 11 shows an operation sequence of each processing unit controlled by the network control unit 207 and the dodging control unit 119 in the mode number 8.

モード番号8における設定では、撮像素子203の読出し(1101)はフレーム読出し、現像処理部204の出力(1102)はインタレース出力となり、覆い焼き処理部101においては、入力画像102のバッファ処理部104に対する蓄積(1104)は行われず、現像処理部204から出力されるODDデータの輝度データに対して行われる縮小処理と空間フィルタ処理(1105)により作成される空間フィルタ処理画像がフィルタ画像バッファ処理部110に蓄積(1106)される。   In the setting of mode number 8, reading (1101) of the image sensor 203 is frame reading, output (1102) of the development processing unit 204 is interlaced output, and the dodging processing unit 101 is a buffer processing unit 104 for the input image 102. Is not stored (1104), and the spatial filter processed image created by the reduction processing and spatial filter processing (1105) performed on the luminance data of the ODD data output from the development processing unit 204 is the filter image buffer processing unit. 110 is accumulated (1106).

覆い焼き制御部119はODDデータの空間フィルタ処理画像の作成完了後、空間フィルタ処理を行ったODDデータ画像の次のODDデータ画像の入力に合わせて、フィルタ画像バッファ処理部110から空間フィルタ処理画像を読出し(1006)、空間フィルタ処理画像に対し画像拡大部112における拡大処理、LUT演算処理部におけるγ処理を行った後、読み出した入力画像102に対し画像合成部114における合成処理を実行(1007)する事で出力画像118が出力される。   After the creation of the ODD data spatial filter processed image, the dodging control unit 119 performs the spatial filter processed image from the filter image buffer processing unit 110 in accordance with the input of the ODD data image next to the ODD data image subjected to the spatial filter processing. (1006), the spatial filter processing image is subjected to the enlargement process in the image enlargement unit 112 and the γ process in the LUT calculation processing unit, and then the synthesis process in the image composition unit 114 is performed on the read input image 102 (1007). ), The output image 118 is output.

さらにEVENデータに対しても同様にODDデータによる空間フィルタ処理画像を適用し、同様の処理を行う事になる。   Further, the spatial filter processing image by ODD data is similarly applied to EVEN data, and the same processing is performed.

出力画像118は圧縮処理部205に入力され、再度ODDデータ合成画像とEVENデータ合成画像をプログレッシブ化する処理を行った後、MJPEG等の静止画系の符号化処理(1008)が行われる。   The output image 118 is input to the compression processing unit 205, and after the process of progressively converting the ODD data composite image and the EVEN data composite image is performed again, still image system encoding processing (1008) such as MJPEG is performed.

図1、図2、図3、図4、図5、図7、図9、図10及び図11を用いて、第2の実施形態における静止画系の符号化方式による圧縮を行う場合における撮像装置200の動作について説明する。   Imaging in the case of performing compression by the still image system encoding method in the second embodiment with reference to FIGS. 1, 2, 3, 4, 5, 7, 9, 10, and 11. The operation of the apparatus 200 will be described.

第1の実施形態と同様、表示装置241からの要求が静止画系の符号化方式であるJPEGのような方式であり、且つ他の表示装置からの要求がない場合、撮像装置200は、まずモード番号5の状態で各処理部の初期設定を行い、ネットワーク制御部207はモード番号5のまま出力を続けるが、異なる表示装置242からの画像出力要求が発生し、さらにその画像出力において同じ符号化方式ではあるものの、異なる圧縮効率の画像出力が要求されていると判断(ステップS408)された場合、再度処理負荷を推測する判断(ステップS409)を行い、各読出し方式の変更が必要であると判断(ステップS411)された場合、ネットワーク制御部207はモード番号7の方式に切替えるように各処理部へ指示を出す(ステップS412)。   As in the first embodiment, when the request from the display device 241 is a method such as JPEG, which is a still image encoding method, and there is no request from another display device, the imaging device 200 The initial setting of each processing unit is performed in the state of mode number 5, and the network control unit 207 continues output with mode number 5, but an image output request from a different display device 242 is generated, and the same code is output in the image output. However, if it is determined that an image output with a different compression efficiency is required (step S408), the determination of the processing load is again performed (step S409), and each reading method needs to be changed. Is determined (step S411), the network control unit 207 instructs each processing unit to switch to the mode number 7 method (step S4). 2).

指示を出された各処理部はモード番号7の指示に合わせて処理動作を切替える(ステップS413)。   Each processing unit that has received the instruction switches the processing operation in accordance with the instruction of mode number 7 (step S413).

モード番号5とモード番号7を比較した場合、処理負荷の面においてはフィルタ画像バッファ処理部110における空間フィルタ処理画像の蓄積処理が2分の1になる為、上記変更により処理負荷は減少すると考えられる。   When the mode number 5 and the mode number 7 are compared, in terms of processing load, the accumulation processing of the spatial filter processing image in the filter image buffer processing unit 110 is halved. It is done.

画質504の面においてはほとんど遜色はないと判断されるが、プログレッシブ画像に対して覆い焼き処理を行い符号化する場合と、ODDとEVENに対して覆い焼き処理をおこない、圧縮処理部にてプログレッシブ化して覆い焼き処理をおこなった場合を比較すると、前者のほうが画質的には良いと考えられる。   Although it is determined that there is almost no fading in terms of the image quality 504, when the dodging process is applied to the progressive image and the encoding is performed, the dodging process is performed on the ODD and EVEN, and the progressive processing is performed in the compression processing unit. Comparing the case where the dodging process is performed, it is considered that the former is better in terms of image quality.

さらに異なる表示装置243からの画像出力要求が発生し、さらにその画像出力において同じ符号化方式ではあるものの、異なる圧縮効率の画像出力が要求されていると判断(ステップS408)された場合、再度処理負荷を推測する判断(ステップS409)を行い、各読出し方式の変更が必要であると判断(ステップS411)された場合、ネットワーク制御部207はモード番号6の方式に切替えるように各処理部へ指示を出す(ステップS412)。   Further, when an image output request from a different display device 243 is generated, and it is determined that an image output with a different compression efficiency is requested even though the image output is the same encoding method (step S408), the processing is performed again. When the load estimation is determined (step S409) and it is determined that each reading method needs to be changed (step S411), the network control unit 207 instructs each processing unit to switch to the mode number 6 method. (Step S412).

指示を出された各処理部はモード番号6の指示に合わせて処理動作を切替える(ステップS413)。   Each processing unit that has received the instruction switches the processing operation in accordance with the instruction of mode number 6 (step S413).

モード番号7とモード番号6を比較した場合、処理負荷の面においてはバッファ処理部104に対する入力画像102の蓄積・読出し処理(1004)が無い分、処理負荷は減少すると考えられる。   When the mode number 7 and the mode number 6 are compared, in terms of processing load, it is considered that the processing load is reduced by the absence of the storage / reading process (1004) of the input image 102 for the buffer processing unit 104.

画質504の面から比較しても、空間フィルタ処理を行った画像と合成する画像が約30分の1秒時間的にずれている為、覆い焼き処理画像としてはモード番号7のほうが優れている。   Even when compared in terms of image quality 504, mode number 7 is superior as the dodging processed image because the image to be synthesized and the image to be combined are shifted by about 1/30 second in time. .

したがって、モード番号7からモード番号6への変更により、撮像装置200の処理負荷が少なくなり、その処理負荷の減少分を表示装置243に対する異なる符号化処理へ割り当てることが出来る。   Therefore, by changing from mode number 7 to mode number 6, the processing load of the imaging apparatus 200 is reduced, and a decrease in the processing load can be assigned to different encoding processes for the display device 243.

さらに異なる表示装置からの画像出力要求が発生したり、モード番号6への変更だけではネットワーク出力が停止してしまうと判断(ステップS411)された場合、ネットワーク制御部207はモード番号8の方式に切替えるように各処理部へ指示を出す(ステップS412)。   Further, when an image output request from a different display device is generated, or when it is determined that the network output is stopped only by changing to mode number 6 (step S411), the network control unit 207 adopts the mode number 8 method. An instruction is given to each processing unit to switch (step S412).

指示を出された各処理部はモード番号8の指示に合わせて処理動作を切替える(ステップS413)。   Each processing unit that has received the instruction switches the processing operation in accordance with the instruction of mode number 8 (step S413).

モード番号6とモード番号8を比較した場合、処理負荷の面においてはフィルタ画像バッファ処理部110における空間フィルタ処理画像の蓄積処理が2分の1になる為、上記変更により処理負荷は減少すると考えられる。   When the mode number 6 and the mode number 8 are compared, in terms of processing load, the accumulation processing of the spatial filter processing image in the filter image buffer processing unit 110 is halved. It is done.

画質504の面においてはほとんど遜色はないと判断されるが、プログレッシブ画像に対して覆い焼き処理を行い符号化する場合と、ODDとEVENに対して覆い焼き処理をおこない、圧縮処理部にてプログレッシブ化して覆い焼き処理を行った場合を比較すると、前者のほうが画質的には良いと考えられる。   Although it is determined that there is almost no fading in terms of the image quality 504, when the dodging process is applied to the progressive image and the encoding is performed, the dodging process is performed on the ODD and EVEN, and the progressive processing is performed in the compression processing unit. When the dodging process is performed, the former is considered better in terms of image quality.

したがって、モード番号6からモード番号8への変更により、撮像装置200の処理負荷が少なくなり、その処理負荷の減少分を撮像装置200の処理量増加分に割り当てることが出来る。   Therefore, by changing from mode number 6 to mode number 8, the processing load of the imaging apparatus 200 is reduced, and a decrease in the processing load can be allocated to an increase in the processing amount of the imaging apparatus 200.

以上説明したように、第2の実施形態においてもネットワークから要求される処理に対する撮像装置200自体の処理負荷を判断し、圧縮処理の増加分に対してバッファ処理の減少分をもって相殺する様に各処理部の読出し・処理方式を能動的に切替えることによって、処理能力を越える処理を実行してネットワーク出力の停止、フレームレートが低下することによる表示装置における画像更新の停滞、ブロックノイズの発生、等を未然に防止することが可能になる。   As described above, also in the second embodiment, the processing load of the imaging apparatus 200 itself for the processing required from the network is determined, and each amount is set so as to cancel out the increase in the compression processing with the decrease in the buffer processing. By actively switching the reading and processing method of the processing unit, processing exceeding the processing capacity is executed to stop network output, image update stagnation due to a decrease in frame rate, occurrence of block noise, etc. Can be prevented in advance.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に供給し、そのシステム等のコンピュータが記憶媒体からプログラムコードを読み出し実行することによっても達成される。   Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and a computer such as the system reads and executes the program codes from the storage medium. Is also achieved.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。   In addition, the case where the functions of the above-described embodiment are realized by performing part or all of the actual processing by an OS or the like running on the computer based on the instruction of the program code read by the computer. It is.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに接続された機能拡張ユニット等に備わるメモリに書込まれた後、そのプログラムコードの指示に基づきCPU等が実際の処理を行い、前述した実施形態の機能が実現される場合も含まれる。   Further, after the program code read from the storage medium is written in a memory provided in a function expansion unit connected to the computer, the CPU or the like performs actual processing based on the instruction of the program code, and the above-described processing is performed. The case where the functions of the embodiment are realized is also included.

本発明の第1の実施形態に係る撮像装置を表す図である。It is a figure showing the imaging device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態における撮像装置の覆い焼き処理部の内部構成を表すブロック図である。It is a block diagram showing the internal structure of the dodging process part of the imaging device in the 1st Embodiment of this invention. 本発明の第1の実施形態における表示装置の動作を表したフローチャートである。It is a flowchart showing operation | movement of the display apparatus in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるネットワーク制御部内のCPUの動作を表したフローチャートである。It is a flowchart showing operation | movement of CPU in the network control part in the 1st Embodiment of this invention. 本発明の第1の実施形態における撮像素子の読み出し方法と現像処理部の出力方法と覆い焼き処理時における画像の読出し方法と覆い焼き処理後の画質比較とバッファ処理部とフィルタ画像バッファ処理部に蓄積される画像データと、これらすべての組み合わせにそれぞれモード番号を付けたことを示す図である。Image sensor reading method, development processing unit output method, image reading method during dodging processing, image quality comparison after dodging processing, buffer processing unit, and filter image buffer processing unit in the first embodiment of the present invention It is a figure which shows having added the mode number to the image data accumulate | stored and all these combinations, respectively. モード番号1においてネットワーク制御部及び覆い焼き制御部が制御する各処理部の動作を示すシーケンスチャートである。It is a sequence chart which shows operation | movement of each process part which a network control part and a dodging control part control in mode number 1. モード番号7においてネットワーク制御部及び覆い焼き制御部が制御する各処理部の動作を示すシーケンスチャートである。It is a sequence chart which shows operation | movement of each process part which a network control part and a dodging control part control in mode number 7. モード番号2においてネットワーク制御部及び覆い焼き制御部が制御する各処理部の動作を示すシーケンスチャートである。It is a sequence chart which shows operation | movement of each process part which a network control part and a dodging control part control in mode number 2. モード番号5においてネットワーク制御部及び覆い焼き制御部が制御する各処理部の動作を示すシーケンスチャートである。10 is a sequence chart showing the operation of each processing unit controlled by a network control unit and a dodging control unit in mode number 5; モード番号6においてネットワーク制御部及び覆い焼き制御部が制御する各処理部の動作を示すシーケンスチャートである。It is a sequence chart which shows operation | movement of each process part which a network control part and a dodging control part control in mode number 6. モード番号8においてネットワーク制御部及び覆い焼き制御部が制御する各処理部の動作を示すシーケンスチャートである。It is a sequence chart which shows operation | movement of each process part which a network control part and a dodging control part control in the mode number 8.

符号の説明Explanation of symbols

101 覆い焼き処理部
200 撮像装置
201 撮像部
202 レンズ
203 撮像装置
204 現像処理部
205 圧縮処理部
206 通信部
207 ネットワーク制御部
208 ストレージ
209 ネットワークインタフェース
210 CPU
214 撮像方式切替部
240 ネットワーク
241 表示装置
DESCRIPTION OF SYMBOLS 101 Dodge processing part 200 Imaging device 201 Imaging part 202 Lens 203 Imaging device 204 Development processing part 205 Compression processing part 206 Communication part 207 Network control part 208 Storage 209 Network interface 210 CPU
214 Imaging Method Switching Unit 240 Network 241 Display Device

Claims (7)

複数の出力方式を備えた撮像手段と、
画像処理手段と、
符号化手段と、
ネットワーク通信手段と、
ネットワークを介した接続相手の符号化処理に対する要求を判断する要求判断手段と、
前記画像処理手段及び前記符号化手段の処理負荷を判断する処理負荷判断手段とを備え、
前記要求判断部の判断に応じて前記処理負荷判断手段が前記撮像手段の出力方式を切替えるように前記撮像手段及び前記画像処理手段に対し指示を出すことを特徴とする撮像画像処理装置。
Imaging means having a plurality of output methods;
Image processing means;
Encoding means;
Network communication means;
Request determination means for determining a request for encoding processing of a connection partner via a network;
Processing load determination means for determining the processing load of the image processing means and the encoding means,
The captured image processing apparatus, wherein the processing load determination unit issues an instruction to the imaging unit and the image processing unit to switch the output method of the imaging unit in accordance with the determination of the request determination unit.
前記処理負荷判断手段内には、前記符号化手段の符号化方式に応じて異なる処理負荷の判断を行うことを特徴とする請求項1に記載の撮像画像処理装置。   The captured image processing apparatus according to claim 1, wherein the processing load determination unit determines a different processing load depending on an encoding method of the encoding unit. 前記撮像手段内には撮像素子が含まれており、前記撮像素子は同一期間内に同一画素数を読み出せる複数の異なる読出し方式を備えていること特徴とする請求項1に記載の撮像画像処理装置。   2. The captured image processing according to claim 1, wherein an imaging device is included in the imaging unit, and the imaging device includes a plurality of different readout methods capable of reading the same number of pixels within the same period. apparatus. 前記撮像手段内には現像処理部が含まれており、前記現像処理部においては同一期間内に同一画素数を出力できる複数の異なる出力方式を備えていること特徴とする請求項1に記載の撮像画像処理装置。   The image pickup means includes a development processing unit, and the development processing unit includes a plurality of different output methods capable of outputting the same number of pixels within the same period. Captured image processing apparatus. 前記画像処理手段内には前記撮像素子の読出しと前記現像処理の読み方式に対応した複数の異なる処理手段を備えていることを特徴とする請求項1に記載の撮像画像処理装置。   The captured image processing apparatus according to claim 1, wherein the image processing unit includes a plurality of different processing units corresponding to the reading method of the image sensor and the reading method of the development process. 複数の出力方式を備えた撮像手段と、画像処理手段と、符号化手段と、ネットワーク通信手段と、ネットワークを介した接続相手の符号化処理に対する要求を判断する要求判断手段と、前記画像処理手段及び前記符号化手段の処理負荷を判断する処理負荷判断手段とを備えた撮像画像処理装置における処理方法であって、
前記要求判断手段の判断に応じて前記処理負荷判断手段が前記撮像手段の出力方式を切替える工程と、
これに基づいて前記撮像手段及び画像処理手段に対し指示を出す工程とを備えたことを特徴とする画像処理方法。
Imaging means having a plurality of output methods, image processing means, encoding means, network communication means, request determination means for determining a request for encoding processing of a connection partner via a network, and the image processing means And a processing load determination unit that determines a processing load of the encoding unit, and a processing method in the captured image processing apparatus,
The process load determining means switching the output method of the imaging means in accordance with the determination of the request determining means;
An image processing method comprising: a step of issuing an instruction to the image pickup means and the image processing means based on this.
請求項6に記載の画像処理方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 6.
JP2006106500A 2006-04-07 2006-04-07 Photograph image processing apparatus, image processing method, and program Pending JP2007281946A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006106500A JP2007281946A (en) 2006-04-07 2006-04-07 Photograph image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006106500A JP2007281946A (en) 2006-04-07 2006-04-07 Photograph image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2007281946A true JP2007281946A (en) 2007-10-25

Family

ID=38682938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006106500A Pending JP2007281946A (en) 2006-04-07 2006-04-07 Photograph image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2007281946A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108733030A (en) * 2018-06-05 2018-11-02 长春工业大学 A kind of network-based switching time lag system centre estimator design method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108733030A (en) * 2018-06-05 2018-11-02 长春工业大学 A kind of network-based switching time lag system centre estimator design method

Similar Documents

Publication Publication Date Title
US7733389B2 (en) Image capturing apparatus having electronic zoom function
US9185302B2 (en) Image processing apparatus and method for previewing still and motion images
US20130258136A1 (en) Image processing apparatus and method of camera device
JP2010273035A (en) Imaging device
JP5938655B2 (en) Playback device, imaging device, and program
CN111510629A (en) Data display method, image processor, photographing device and electronic equipment
JP5820720B2 (en) Imaging device
JP5959194B2 (en) Imaging device
US20100135644A1 (en) Photographing apparatus and method of controlling the same
US10785415B2 (en) Display control device and display control method
US8610792B2 (en) Imaging apparatus and imaging method
JP2007202050A (en) Image generating apparatus and program
JP6300651B2 (en) Movie recording / playback device
US8842193B2 (en) Imaging apparatus
EP1422659A1 (en) Image processing device
JPWO2017187508A1 (en) Display processing apparatus and imaging apparatus
JP2007281946A (en) Photograph image processing apparatus, image processing method, and program
EP3544292B1 (en) Image processing device, image processing method, and program
JP4987800B2 (en) Imaging device
JP2007135102A (en) Image pickup device
JP6223295B2 (en) IMAGING ELEMENT, CONTROL METHOD THEREOF, COMPUTER PROGRAM, AND IMAGING DEVICE
JP4211572B2 (en) Imaging device
JP2004078075A (en) On-screen display device
JP2009055131A (en) Image recording device
JP2009210928A (en) Image display device