JP7039208B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP7039208B2 JP7039208B2 JP2017150018A JP2017150018A JP7039208B2 JP 7039208 B2 JP7039208 B2 JP 7039208B2 JP 2017150018 A JP2017150018 A JP 2017150018A JP 2017150018 A JP2017150018 A JP 2017150018A JP 7039208 B2 JP7039208 B2 JP 7039208B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- background
- area
- processing
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
Description
CPU11は、システムバス14に接続された各種デバイスの制御を行う。
ROM12は、BIOSのプログラムやブートプログラムを記憶する。
RAM13は、CPU11の主記憶装置として使用される。
キーボードコントローラ(KBC)15は、マウス等のポインティングデバイス(PD)109や、キーボード(KB)20からの情報等の入力に係る処理を行う。
表示制御部(CRTC)16は、内部にビデオメモリを有し、CPU11からの指示に従ってそのビデオメモリに描画すると共に、ビデオメモリに描画されたイメージデータをビデオ信号としてCRT21に出力する。なお、図1において表示装置としてCRT21を例示しているが、液晶表示装置等、その表示装置の種類は問わない。
ディスクコントローラ(DKC)17は、ハードディスク(HDD)22へのアクセスを行う。
ネットワークインタフェースカード(NIC)18は、ネットワークに接続し、ネットワークを介しての情報通信を行うものである。
なお、HDD22には、OSのプログラムやOS上で動作する各種アプリケーションのプログラム等が格納される。HDD22は、記憶領域の一例である。
上記構成において、画像処理装置100の電源がONになると、CPU11は、ROM12に格納されたブートプログラムに従って、HDD22からOSのプログラムをRAM13に読み込み、処理を実行することによって、各装置の機能を実現する。
画像処理装置100のCPU11がROM12又はHDD22に記憶されているプログラムに基づき処理を実行することによって、後述する図2、図7、図9の画像処理装置100のソフトウェア構成及び後述する図3のフローチャートの処理が実現される。
実施形態1では、入力画像及び背景画像の物体領域を除いた部分同士の類似度から背景画像を選択し、マスク領域のマスク画像と合成し、合成画像(以下、プライバシー保護画像という)を生成することで、人物を抽象化する画像処理装置100の情報処理について説明をする。
図2は、実施形態1の画像処理装置100のソフトウェア構成の一例を示す図である。画像処理装置100は、画像取得部101と、マスク領域抽出部102と、物体抽出部103と、背景管理部104と、画像合成部(抽象化処理部)105と、出力部106と、を含む。
画像取得部101は、レンズ、センサを備えたカメラ等の撮像部から所定の間隔で画像(撮像画像)を順次取得して、マスク領域抽出部102と状況取得部203とに提供する。撮像部は、画像処理装置100が有していてもよいし、画像処理装置100とネットワーク等を介して通信可能に接続されていてもよい。
マスク領域抽出部102は、プライバシー保護対象である被写体のマスク領域を抽出する処理を行う。マスク領域抽出部102は、画像処理装置の撮影領域における被写体が存在しないマスク領域抽出用の背景画像と画像取得部101で取得した画像との差分からマスク領域を抽出する。ここで、マスク領域抽出用の背景画像とマスク領域の抽出方法について詳細を記載する。まず、マスク領域抽出用の背景画像は、画像取得部101が取得する画像と同じ画角で撮影したプライバシー保護対象が映らない画像である。マスク領域抽出部102は、画像処理装置100が処理を開始した時点から画像保存部(不図示)に画像取得部101から取得した画像を保存する。そして、画像保存部に所定の枚数(例えば100枚)が保存された段階で、画像保存部に保存された画像の各画素値を平均することでマスク領域抽出用の背景画像を作成する。また、マスク領域抽出用の背景画像を作成した以後、画像取得部101から画像を取得する度に、画像保存部に画像を保存し画像保存部に保存された最も古い画像を削除した上で、画像保存部に保存された画像の各画素値を平均することでマスク領域抽出用の背景画像を更新する。つまり、画像取得部101から画像を取得した時点から所定の枚数(例えば100枚)を使用して作成した平均画像をマスク領域抽出用の背景画像として使用する。又は、別途物体認識手法を用いて画像取得部101から取得した画像から物体領域を取得して、物体領域を除いた領域の画素値を合成することでマスク領域抽出用の背景画像を作成する等、プライバシーを保護する対象である人が含まれない様な画像を作成する方法であればよい。なお、マスク領域抽出部102に記載したマスク領域抽出用の背景画像は背景管理部104に記載する背景画像とは異なる。次に、マスク領域の抽出は、画像取得部101から取得した画像とマスク領域抽出用の背景画像との輝度値の差分が閾値(例えば、10%以上)を超える画素をマスクとすることで作成する。なお、マスク領域抽出部102は、画像処理によりプライバシー保護対象の領域(被写体領域)を抽出することができる処理であればよい。例えば、保存した過去の画像と画像取得部101から取得した最新の画像との差分領域を取得し、差分領域について人の特徴(形状や色)を探索する処理(パターンマッチング処理)を行い、人の特徴があれば、その差分領域を被写体領域として抽出する。
物体抽出部103は、画像取得部101から取得した最新の画像から物体領域を抽出する。物体抽出部103は、画像取得部101から得られた過去の画像を保存し、保存した過去の画像と画像取得部101から取得した最新の画像との差分領域を計算することで物体領域を抽出する。物体抽出部103は、最新の画像と抽出した物体領域の物体領域情報とを背景管理部104に送付する。なお、物体抽出部103は、背景差分法やテンプレートマッチングといった物体領域を抽出できる処理であればどのような抽出方法で物体領域を抽出してもよく、上述の記載の方法に限定されるものではない。
背景管理部104は、複数の背景画像を管理する。背景画像は、画像取得部101が取得する画像と同じ場所、同じ画角で撮影した時間帯や画角内の状況が異なる1枚以上の画像である。店舗入り口を例とすると、朝、昼、夕方、夜等、時間帯が異なる画像であり、店舗入り口のシャッターが閉まっている状態、シャッターが開いた状態、ドアが閉じた状態、開いた状態等、画角内の状況が異なる1枚以上の画像である。背景管理部104は、これら背景画像を画像ファイルとして画像保存部(不図示)に保管する。また、背景管理部104は、物体抽出部103が処理した最新画像と最も近しい背景画像を、最新画像と背景画像とから物体抽出部103が抽出した物体領域を除いた領域(以下、判定領域とする)の類似度を用いて選定する。例えば、物体抽出部103が画像の右半分の領域を物体として抽出した場合、最新画像の左半分の領域と背景画像の左半分の領域との類似度が最も高い背景画像を選定する。選定は、最新画像と背景画像の判定領域からSURF等を用いて判定領域内の輝度変化量が大きな場所を特徴点として位置と特徴ベクトルを抽出する。次に、最新画像と背景画像との特徴ベクトル間のユークリッド距離を測り、距離が最小となるよう最新画像と背景画像との特徴ベクトルを対応付ける。そして、対応する特徴ベクトルの距離の総和と対応する位置の色差成分差の総和との合計を類似度として、類似度が最小となる背景画像を最も近しい背景画像として選定する。このように、判定領域の類似度を比較することで最新の撮影環境の状況と近しいは時間帯、状況の背景画像を選定することができる。なお、特徴点の抽出はSURFに限定されるものではなく、FAST等のコーナー特徴等、特徴点を抽出する方法であればよい。また、類似度の判定は画像の対応点の特徴を比較する方法に限定されるものではなく、類似画像を判定する方式であればよい。
画像合成部105は、背景管理部104で選定された背景画像の各画素のうち、マスク領域抽出部102で抽出されたマスク領域に該当する画素を所定の色(例えば青)に変更することでプライバシー保護画像を生成する。又は、マスク領域抽出部102で抽出されたマスク領域を所定の色(例えば青)、マスク領域外を第二の所定の色(例えば白)にしたマスク画像を作成し、背景管理部104で選定された背景画像に前記マスク画像をαブレンドする方法でプライバシー保護画像を作成してもよい。
出力部106は、画像合成部105で生成されたプライバシー保護画像を有線又は無線を介して画像処理装置100と接続された外部装置等に出力する。また、出力部106は、プライバシー保護画像をHDD22やCRT21等に出力するようにしてもよい。
図3は、連続して入力される画像から保護画像を生成して出力する画像処理装置100の情報処理の一例を示すフローチャートである。
処理開始後、S101において、画像取得部101は、画像を取得する。画像取得部101は、取得した画像を、RAM13又はHDD22等のメモリに記憶する。画像取得部101によって取得された画像の一例を図4に示す。
S102において、マスク領域抽出部102は、画像取得部101が取得した画像から被写体のマスク領域を抽出する。マスク領域抽出部102によって抽出された被写体のマスク領域の一例を図5に示す。
S103において、物体抽出部103は、画像取得部101が取得した画像から物体領域を抽出する。
S104において、背景管理部104は、画像取得部101が取得した画像に近い背景画像を選定する。
S105において、画像合成部105は、背景管理部104が選定した背景画像とマスク領域抽出部102が抽出したマスク領域のマスク画像とを合成し、プライバシー保護画像を生成する。画像合成部105によって生成されたプライバシー保護画像の一例を図6に示す。
S106において、出力部106は、プライバシー保護画像を外部装置等に出力する。
S107において、出力部106は、PD19やKB20等から終了指示を受け取ったか否かを判定する。出力部106は、終了指示を受け取ったと判定した場合(S107においてYES)、図3に示すフローチャートの処理を終了し、終了指示を受け取っていないと判定した場合(S107においてNO)、S101に処理を戻す。
実施形態2では、撮影状況を用いて背景画像を選択しプライバシー保護画像を生成する画像処理装置100の情報処理について説明をする。
図7は、実施形態2の画像処理装置100のソフトウェア構成の一例を示す図である。上述した実施形態と同様の構成は同一の符号を付し、説明を省略する。以下の図においても同様である。
状況取得部203は、画像取得部101から取得した画像から撮影状況を推定する。撮影状況とは、各種設定から得られる撮影情報と画像を解析して特定の物体を検出することで推定可能な撮影情報との何れか、又は両方から決まる撮影画角内の状況である。各種設定から得られる撮影情報とは、撮影時間帯、季節、照度条件等、撮像部の時刻設定や撮像部設定等である。撮影時間帯は、AM6:00からAM10:00を朝、AM10:00からPM5:00を昼、PM5:00からPM7:00を夕方、PM7:00からAM6:00を夜と定義し、画像取得部101と接続された撮像部から取得した撮影時間に基づき状況取得部203が朝、昼、夕方、夜の何れかに決定する。また、季節は、春夏秋冬の各季節に対応付く日付を定義し、撮像部から取得した日時に基づき状況取得部203が春夏秋冬の何れかを決定する。照度条件は、画像取得部101から取得した画像全体の輝度値のヒストグラムとゲイン値とからルール判定により推定して状況取得部203が取得する。ここでルール判定とは、ヒストグラムとゲイン値を判定する条件の組み合わせである。例えば、輝度のレンジが0から255まで、ゲイン値は0から7までの8段階として、ヒストグラムの最頻値が128以上、かつ、ゲイン値が3以下の場合は十分照度、ヒストグラムの最頻値が64以下かつゲイン値が4以上の場合は低照度、のように決定する。撮像部設定は、撮像時のホワイトバランス設定、露出設定、露光時間設定、から状況取得部203が取得する。また、画像を解析して特定の物体を検出することで推定可能な撮影情報は、画像から雨粒や雪を検出して天候を推定することで状況取得部203が取得する。天候は、晴れ、雨、雪と定義し、雨、雪を検出しない場合は晴れ、雨粒を検出した場合は雨、降雪を検出した場合は雪とする。状況取得の処理は、これらの処理に限定されるものではない。状況取得の処理は、撮影画像から撮影状況を推定することができる処理であればどのような処理でもよい。
背景管理部204は、複数の背景画像と各背景画像の撮影状況とを管理する。背景画像は、画像取得部101が取得する画像と同じ場所、同じ画角で撮影した時間帯や画角内の状況が異なる1枚以上の画像である。背景画像の種類は実施形態1の記載と同じである。背景管理部204は、これら背景画像を画像ファイルとして、撮影状況をメタデータファイルとして画像保存部(不図示)に保管する。また、背景管理部204は、状況取得部203から得られる撮影状況に最も近しい背景画像を複数の背景画像からルール判定により選定する。図8は、ホワイトバランスと照度を使った背景画像の選定の一例を示す図である。ここでのルール判定の条件は、状況取得部203から取得した撮影状況と背景画像のホワイトバランス値の差分が最も小さい、かつ、照度条件が同じ、である。図8(a)では画像取得部101が取得した最新の画像と状況取得部203が取得した撮影状況を示している。図8(b)、(c)では設定された背景画像と背景画像の撮影状況とを示している。背景管理部204は、最新の画像の撮影状況と背景画像に設定された撮影状況とをルールに従い判定し背景画像を選定する。図8の例では、背景管理部204は、ルールに合致する図8の(b)を背景画像として選定する。図8の例では、ホワイトバランス、照度条件に基づき背景画像選定を行ったが、ルール判定の条件に他項目、例えば、撮影時間帯が同一、天候が同一、等、撮影情報の項目を条件として加えてもよい。また、ルール判定は各条件の論理積だけでなく、論理和としてもよい。例えば、ホワイトバランス値の差分が最も小さい、又は、撮影時間帯が同一の何れかを満たす背景画像を選定する。
情報処理の流れは実施形態1と同様のため説明を省略する。
実施形態3では、実施形態2に加えセンサを使用して撮影状況を推定する画像処理装置100の情報処理について説明をする。
図9は、実施形態3の画像処理装置100のソフトウェア構成の一例を示す図である。
センサ部301は、撮像部が設置された環境の温度、湿度、照度等のセンサ情報を取得して、状況取得部203に送付する。
状況取得部302は、画像取得部101から取得した画像とセンサ部301から取得したセンサ情報とから撮影状況を推定する。
背景管理部303は、複数の背景画像と各背景画像の撮影状況とを管理し、状況取得部302から得られる撮影状況と最も類似度が高い背景画像を最も近しい背景画像として複数の背景画像から選定する。
実施形態4では、実施形態1に加えマスク領域抽出用背景画像にマスク画像を合成することで作成したプライバシー保護画像を使用した画像処理装置100について説明する。本実施形態では実施形態1との違いについて記載する。
まず、第一のプライバシー保護画像は、実施形態1に記載した予め用意した背景画像にマスク画像を合成して作成した画像、第二のプライバシー保護画像は、本実施形態に記載するマスク領域抽出用背景画像にマスク画像を合成して作成した画像とする。
第一のプライバシー保護画像と第二のプライバシー保護画像にはそれぞれ利点と欠点とがある。第一のプライバシー保護画像は、プライバシー保護対象の被写体が映っていない背景画像にプライバシー保護対象である被写体のマスク領域を合成するため、利点は被写体の形状や動きを視認可能としながらも被写体が露出することはない点である。しかしながら、予め用意した背景画像から入力画像に最も近い画像を選択するため、欠点は被写体の背景は入力画像に似ているが最新の背景状況を表現するものではない点である。一方で、第二のプライバシー保護画像は、最新の入力画像を用いて作成するため、第一のプライバシー保護画像に比べ被写体の背景が最新の背景状況に比較的忠実に表現するという利点がある。しかしながら、マスク領域抽出用背景画像に被写体が露出した場合は被写体のプライバシーが保護されていない画像が作成され、プライバシー保護の目的が達成されない可能性があるという欠点がある。なお、被写体が露出する場合とは、平均画像を作成するために必要な保存画像のすべてで被写体が同じ位置で動かず存在する場合、物体認識手法が被写体の検出に失敗する場合が想定できる。
前記の利点及び欠点より、それぞれの利点を活かしてプライバシー保護画像を切り替えることでより好適にプライバシー保護の目的と監視者への実世界の情報提供を両立することができる。
そこで本実施形態では、画像合成部105は顔検出手段(不図示)を更に持ち、マスク領域抽出用背景画像に顔検出処理を実施して、顔を検出した場合には第一のプライバシー保護画像を作成し、顔を検出しない場合には第二のプライバシー保護画像を作成する。なお、顔検出手段に限らず、マスク領域抽出用背景画像からプライバシー保護の対象の被写体を抽出する方法であればよく、人物検出手段等他の検出手段でもよい。
本実施形態の情報処理によれば、画像処理装置100は、プライバシー保護の目的と監視者への実世界の情報提供とを両立することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、画像処理装置100のソフトウェア構成の一部、又は全ては、ハードウェア構成として画像処理装置100に実装されてもよい。また、画像処理装置100のハードウェア構成は一例であって、PD19、KB20、CRT21、HDD22等は画像処理装置100の外付けのハードウェアであってもよい。
100 画像処理装置
Claims (5)
- 撮像画像を取得する取得手段と、
前記撮像画像から所定の被写体に対応する被写体領域を抽出する抽出手段と、
複数の背景画像の中から処理に用いる背景画像を選択する選択手段と、
前記選択手段により選択した背景画像について、前記抽出手段により抽出した被写体領域を抽象化する処理を実施する処理手段と、
前記撮像画像から取得された物体領域を除去することによって判定領域を取得する取得手段と、を有し、
前記選択手段は、前記撮像画像の判定領域と前記複数の背景画像の前記判定領域に対応する領域との類似度に基づいて、類似度が最も高い前記背景画像を選択する
ことを特徴とする画像処理装置。 - 前記処理手段は、
マスク画像を合成するマスク領域を抽出する抽出手段と、
前記マスク領域のマスク画像と前記選択された背景画像とから保護画像を生成する生成手段と
を有することを特徴とする請求項1記載の画像処理装置。 - 前記保護画像を出力する出力手段を更に有することを特徴とする請求項2記載の画像処理装置。
- 撮像画像を取得する取得ステップと、
前記撮像画像から所定の被写体に対応する被写体領域を抽出する抽出ステップと、
複数の背景画像の中から処理に用いる背景画像を選択する選択ステップと、
前記選択ステップにおいて選択した背景画像について、前記抽出ステップにおいて抽出した被写体領域を抽象化する処理を実施する処理ステップと、
前記撮像画像から取得された物体領域を除去することによって判定領域を取得する取得ステップと、を有し、
前記選択ステップは、前記撮像画像の判定領域と前記複数の背景画像の前記判定領域に対応する領域との類似度に基づいて、類似度が最も高い前記背景画像を選択する
ことを特徴とする画像処理方法。 - コンピュータを、
撮像画像を取得する取得手段と、
前記撮像画像から所定の被写体に対応する被写体領域を抽出する抽出手段と、
複数の背景画像の中から処理に用いる背景画像を選択する選択手段と、
前記選択手段により選択した背景画像について、前記抽出手段により抽出した被写体領域を抽象化する処理を実施する処理手段と、
前記撮像画像から取得された物体領域を除去することによって判定領域を取得する取得手段として機能させ、
前記選択手段は、前記撮像画像の判定領域と前記複数の背景画像の前記判定領域に対応する領域との類似度に基づいて、類似度が最も高い前記背景画像を選択する
ことを特徴とするプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/793,327 US10970896B2 (en) | 2016-11-02 | 2017-10-25 | Image processing apparatus, image processing method, and storage medium |
EP17199674.7A EP3319045B1 (en) | 2016-11-02 | 2017-11-02 | Image processing apparatus, image processing method, and storage medium |
EP19178972.6A EP3582186A1 (en) | 2016-11-02 | 2017-11-02 | Image processing apparatus, image processing method, and storage medium |
CN201711066028.5A CN108010105B (zh) | 2016-11-02 | 2017-11-02 | 图像处理设备、图像处理方法和存储介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215302 | 2016-11-02 | ||
JP2016215302 | 2016-11-02 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018078540A JP2018078540A (ja) | 2018-05-17 |
JP2018078540A5 JP2018078540A5 (ja) | 2020-08-27 |
JP7039208B2 true JP7039208B2 (ja) | 2022-03-22 |
Family
ID=62151063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017150018A Active JP7039208B2 (ja) | 2016-11-02 | 2017-08-02 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7039208B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160068B (zh) * | 2018-11-07 | 2024-01-26 | 杭州海康威视数字技术股份有限公司 | 目标图片生成方法、装置及电子设备 |
JP2020087171A (ja) * | 2018-11-29 | 2020-06-04 | 富士通株式会社 | 画像処理プログラム、画像処理方法、および画像処理装置 |
JP7370769B2 (ja) * | 2019-08-30 | 2023-10-30 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002157598A (ja) | 2000-11-16 | 2002-05-31 | Japan Radio Co Ltd | 侵入者検知システム |
JP2003125289A (ja) | 2002-08-22 | 2003-04-25 | Fuji Photo Film Co Ltd | 画像合成装置 |
JP2005079776A (ja) | 2003-08-29 | 2005-03-24 | Fuji Photo Film Co Ltd | 画像生成装置、画像生成方法、及びプログラム |
JP2008191884A (ja) | 2007-02-05 | 2008-08-21 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理方法、画像処理装置、画像処理プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2011060167A (ja) | 2009-09-14 | 2011-03-24 | Secom Co Ltd | 移動物体追跡装置 |
JP2015149558A (ja) | 2014-02-05 | 2015-08-20 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
-
2017
- 2017-08-02 JP JP2017150018A patent/JP7039208B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002157598A (ja) | 2000-11-16 | 2002-05-31 | Japan Radio Co Ltd | 侵入者検知システム |
JP2003125289A (ja) | 2002-08-22 | 2003-04-25 | Fuji Photo Film Co Ltd | 画像合成装置 |
JP2005079776A (ja) | 2003-08-29 | 2005-03-24 | Fuji Photo Film Co Ltd | 画像生成装置、画像生成方法、及びプログラム |
JP2008191884A (ja) | 2007-02-05 | 2008-08-21 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理方法、画像処理装置、画像処理プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2011060167A (ja) | 2009-09-14 | 2011-03-24 | Secom Co Ltd | 移動物体追跡装置 |
JP2015149558A (ja) | 2014-02-05 | 2015-08-20 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2018078540A (ja) | 2018-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3319045B1 (en) | Image processing apparatus, image processing method, and storage medium | |
Davis et al. | Background-subtraction in thermal imagery using contour saliency | |
TWI686774B (zh) | 人臉活體檢測方法和裝置 | |
JP4648981B2 (ja) | 非動作検出方法 | |
JP5567853B2 (ja) | 画像認識装置および方法 | |
Davis et al. | Robust Background-Subtraction for Person Detection in Thermal Imagery. | |
JP6587435B2 (ja) | 画像処理装置、情報処理方法及びプログラム | |
JP4708343B2 (ja) | 背景領域および前景領域をモデリングする方法 | |
JP6482195B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
TWI660326B (zh) | 用於更新背景模型之方法及裝置 | |
US20190199898A1 (en) | Image capturing apparatus, image processing apparatus, control method, and storage medium | |
US20130162867A1 (en) | Method and system for robust scene modelling in an image sequence | |
TWI701609B (zh) | 影像物件追蹤方法及其系統與電腦可讀取儲存媒體 | |
CN106682620A (zh) | 人脸图像采集方法及装置 | |
JP2017005389A (ja) | 画像認識装置、画像認識方法及びプログラム | |
JP2008192131A (ja) | 特徴レベル・セグメンテーションを実行するシステムおよび方法 | |
CN111383168A (zh) | 隐私保护摄影机 | |
JP7039208B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US8818096B2 (en) | Apparatus and method for detecting subject from image | |
Apewokin et al. | Multimodal mean adaptive backgrounding for embedded real-time video surveillance | |
WO2015186347A1 (ja) | 検出システム、検出方法及びプログラム記憶媒体 | |
CN108229281B (zh) | 神经网络的生成方法和人脸检测方法、装置及电子设备 | |
JP6798609B2 (ja) | 映像解析装置、映像解析方法およびプログラム | |
Chu et al. | A content-adaptive method for single image dehazing | |
Apewokin et al. | Embedded real-time surveillance using multimodal mean background modeling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200715 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220309 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7039208 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |