[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2023167630A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2023167630A
JP2023167630A JP2022078951A JP2022078951A JP2023167630A JP 2023167630 A JP2023167630 A JP 2023167630A JP 2022078951 A JP2022078951 A JP 2022078951A JP 2022078951 A JP2022078951 A JP 2022078951A JP 2023167630 A JP2023167630 A JP 2023167630A
Authority
JP
Japan
Prior art keywords
frame
image processing
image
background image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022078951A
Other languages
English (en)
Inventor
州吾 樋口
Shugo Higuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022078951A priority Critical patent/JP2023167630A/ja
Priority to US18/309,862 priority patent/US20230368396A1/en
Publication of JP2023167630A publication Critical patent/JP2023167630A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】 前景によって隠蔽された背景に更新があっても該背景の内容を出力可能な技術を提供すること。【解決手段】 バッファリング済みのフレーム群における着目フレームの背景画像において該着目フレームの前景領域に対応する対応領域と、該バッファリング済みのフレーム群において該着目フレームより後のフレームの背景画像において該前景領域に対応する対応領域と、の差分に基づいて、該フレームの背景画像のうち表示対象の背景画像を特定する。表示対象の背景画像を出力する。【選択図】 図3

Description

本開示は、画像処理技術に関するものである。
近年、インターネット技術の発展により、教育現場において、講義のリアルタイム配信やオンデマンド配信によるeラーニングシステムの導入が進んでいる。eラーニングシステムでは、PCでスライドを表示したり、電子ホワイトボードで板書をデジタル化したりしたコンテンツもあるが、一般的な黒板での講義をカメラで撮影しただけのコンテンツも多く含まれている。また、一般的な黒板での講義でも、板書の内容を視覚しやすいように表示する技術が開示されている。
例えば、特許文献1に開示の技術では、映像から抽出した板書領域からベクトルデータを作成し、それを別々のウィンドウに合成表示することにより、板書情報を見やすくしている。
また、非特許文献1に開示の技術では、既に書かれた文字や図形を抽出し、それらをオーバーレイ表示することにより、講師に遮蔽されて見えなくなってしまった板書情報を見えるようにしている。
特開2006-162692号公報
[令和4年4月26日検索]、インターネット<URL:https://www.sony.com/ja/SonyInfo/News/Press/201905/19-041>
しかしながら、これらの先行技術では、講師が板書する際に、講師の頭や体の一部によって書いている文字が遮蔽されてしまう状況では、板書の内容を視覚しやすいように表示することはできない。講師がその場に留まっていたり、話しながら板書したりしている場合、板書の内容を視覚できるようになるのは、少し時間が経過したあとになる。そのため、板書の内容が視覚できたときには講師の話が先に進んでいて、視聴者が講義の内容を理解する妨げの要因の一つとなっている。本開示では、前景によって隠蔽された背景に更新があっても該背景の内容を出力可能な技術を提供する。
本開示の一様態は、バッファリング済みのフレーム群における着目フレームの背景画像において該着目フレームの前景領域に対応する対応領域と、該バッファリング済みのフレーム群において該着目フレームより後のフレームの背景画像において該前景領域に対応する対応領域と、の差分に基づいて、該フレームの背景画像のうち表示対象の背景画像を特定する特定手段と、前記表示対象の背景画像を出力する出力手段とを備えることを特徴とする。
本開示によれば、前景によって隠蔽された背景に更新があっても該背景の内容を出力可能な技術を提供することができる。
システムの構成例を示す図。 システムのハードウェア構成例を示すブロック図。 画像処理装置103の機能構成例を示すブロック図。 画像処理装置103がカメラ101により撮像されたフレームを取得した場合に行う処理のフローチャート。 メインメモリ202にバッファリングされているフレーム群における再生対象のフレームを再生するために画像処理装置103が行う処理のフローチャート。 フレーム群の一例を示す図。 比較部305における具体的な比較動作の一例を示す図。 合成フレームの一例を示す図。 メインメモリ202にバッファリングされているフレーム群における再生対象のフレームを再生するために画像処理装置103が行う処理のフローチャート。 合成フレームの一例を示す図。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本開示を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが本開示に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
本実施形態では、eラーニングシステムに適用したシステムについて説明する。本実施形態に係るシステムでは、図1に示す如く、カメラ101は、黒板104の手前側(カメラ101から見て手前側)に位置する講師105が黒板104を用いて講義を行う様子を撮像する。カメラ101は、撮像した各フレーム(撮像画像)を有線もしくは無線のネットワーク102を介して画像処理装置103に対して送信する。画像処理装置103は、ネットワーク102を介してカメラ101から受信した各フレームを表示する。その際、画像処理装置103は、再生対象のフレームにおいて前景(講師105)で隠蔽された背景について、再生対象のフレーム以降の後段フレームにおいて該前景に対応する領域に差異が生じた場合には、該後段フレームを表示する。
なお、図1に示した構成は一例であり、本システムはこのような構成に限らない。例えば、カメラ101の台数は1に限らず、2以上であっても良い。また、システムは、カメラ101の操作や画像送信の制御を行うサーバ装置や、データ通信を中継する装置、等の装置を含んでもよい。
次に、本実施形態に係るシステムのハードウェア構成例について、図2のブロック図を用いて説明する。本実施形態では具体的な説明を行うために、図2に示す如く、カメラ101と画像処理装置103とはネットワーク102の一例であるLAN/WANに接続されているものとする。しかし、カメラ101と画像処理装置103との間のネットワーク構成については特定のネットワーク構成に限らない。
先ず、カメラ101について説明する。カメラ101は図1に示す如く、講師105が黒板104を用いて講義を行っている様子を撮像する。カメラ101は該様子の動画像を撮像する装置であっても良いし、該様子を定期的若しくは不定期的に撮像する装置であっても良い。前者の場合、カメラ101は、撮像した動画像における各フレームをネットワーク102を介して画像処理装置103に対して送信する。後者の場合、カメラ101は、定期的若しくは不定期的に撮像した静止画像をフレームとしてネットワーク102を介して画像処理装置103に対して送信する。
次に、画像処理装置103について説明する。画像処理装置103には、例えば、PC(パーソナルコンピュータ)、スマートフォン、タブレット端末装置などのコンピュータ装置が適用可能である。
CPU201は、メインメモリ202に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU201は、画像処理装置103全体の動作制御を行うと共に、画像処理装置103が行うものとして説明する各種の処理を実行もしくは制御する。
メインメモリ202は、記憶部203からロードされたコンピュータプログラムやデータを格納するためのエリア、通信部206を介してカメラ101から受信したフレームを格納(バッファリング)するためのエリア、を有する。さらにメインメモリ202は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにメインメモリ202は、各種のエリアを適宜提供することができる。
記憶部203は、ハードディスクドライブなどの大容量情報記憶装置である。記憶部203には、OS(オペレーティングシステム)、画像処理装置103が行うものとして説明する各種の処理をCPU201に実行もしくは制御させるためのコンピュータプログラムやデータ、などが保存されている。記憶部203に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜メインメモリ202にロードされ、CPU201による処理対象となる。記憶部203には、例えば、シリコンディスク等の不揮発性メモリを適用することができる。
操作部204は、キーボード、マウス、ボタン、モードダイヤル、スイッチ、レバー、タッチパネル画面などのユーザインターフェースであり、ユーザが操作することで各種の指示をCPU201に対して入力することができる。
表示部205は、液晶画面やタッチパネル画面を有する装置であり、CPU201による処理結果を画像や文字などでもって表示することができる。なお、表示部205がタッチパネル画面を有する場合には、ユーザが該タッチパネル画面を操作することで入力した各種の指示はCPU201に通知される。なお、表示部205は、画像や文字などを投影するプロジェクタなどの投影装置であっても良い。
通信部206は、イーサネットやIEEE802.11等の通信規格に準拠したデバイスであり、画像処理装置103をネットワーク102に接続するためのデバイスである。画像処理装置103は通信部206を介してネットワーク102上のカメラ101との間のデータ通信を行うことができる。
CPU201、メインメモリ202、記憶部203、操作部204、表示部205、通信部206、はいずれもバス207に接続されている。
本実施形態に係る画像処理装置103の機能構成例を図3のブロック図に示す。図3に示した各機能部はいずれもソフトウェア(コンピュータプログラム)で実装されているものとする。以下では、図3の機能部を処理の主体として説明するが、実際には、該機能部に対応するコンピュータプログラムをCPU201が実行することで、該機能部の機能が実現される。なお、図3に示した機能部のうち1以上をハードウェアで実装しても良い。
先ず、画像処理装置103がカメラ101により撮像されたフレームを取得した場合に行う処理について、図4のフローチャートに従って説明する。
ステップS401では、取得部301は、カメラ101により撮像されたフレームを取得し、該取得したフレームをメインメモリ202に格納(バッファリング)する。取得部301は該フレームをカメラ101からネットワーク102および通信部206を介して取得しても良いし、カメラ101により撮像されたフレームを保持しているサーバ装置などの外部装置から取得しても良い。つまり、フレームの取得方法は特定の取得方法に限らない。また、取得部301は、符号化された動画像を復号して得られるそれぞれのフレームを取得するようにしても良いし、定期的若しくは不定期的に撮像された静止画像をフレームとして取得するようにしても良い。
以下では一例として、図6に示す如く、フレーム601~604をフレーム601,602,603,604の順に取得するケースについて説明する。フレーム601,602,603,604はそれぞれ、撮像時刻t1,t2,t3,t4で撮像されたフレームであり、撮像時刻t1が最も過去の撮像時刻であり、撮像時刻t4が最近の撮像時刻である。フレーム601,602,603,604は、何も書かれていない黒板104に対して講師105が文字「AB」を書いていくシーンを撮像したフレームである。
次に、ステップS402では、抽出部302は、ステップS401で取得したフレームにおける前景領域を抽出(特定)する。前景領域とは、フレームにおいて背景を遮蔽する前景(被写体)の領域であり、本実施形態では、抽出部302は、黒板104を遮蔽する講師105の領域を前景領域として抽出する。フレームから前景領域を抽出する方法は、基準となる背景画像とフレームとで差分がある領域(差分領域)を背景領域として抽出する背景差分法などが良く知られている。また、基準となる背景画像は、連続して撮像された画像から画素毎の時間平均を算出するなどの方法で生成したり、被写体が存在しない画像を予め撮像したりすることにより取得できる。また、背景画像は、前景を含まない撮像画像であってもよい。また、人物の顔や体など特定の領域を検出する検出器を用いて前景領域を抽出したり、位相差方式の焦点検出が可能な撮像素子を用いて、任意の画素における位相差情報(デフォーカス量)に基づいて前景領域を抽出したりしてもよい。
本実施形態では、前フレーム(前回取得したフレーム)の背景画像を基準として背景差分法により前景領域を抽出する。前フレームの背景画像が存在しない場合は、予め撮像された背景画像を用いるものとする。また、フレームにおける前景領域のヒストグラムや形状などの画像特徴量を算出し、クラスタリング処理することにより、ノイズの少ない前景領域を抽出することができる。しかし、ステップS402に適用可能な前景領域の抽出方法は特定の抽出方法に限らない。
次に、ステップS403では、生成部303は、ステップS401で取得したフレームにおける前景領域を加工して該フレームから前景を取り除いた加工フレームを背景画像として生成し、該生成した背景画像をメインメモリ202に格納する。例えば、生成部303は、ステップS401で取得したフレームにおける前景領域内の画素の画素値を他の画素値に置き換えた加工フレームを背景画像として生成する。「他の画素値」は、例えば、ステップS401で取得したフレームにおいて前景領域の周辺に位置する画素の画素値の平均値であっても良い。また、「他の画素値」は、例えば、別の画像(例えば、被写体が存在しない背景を予め撮像した背景画像)において該前景領域に対応する対応領域内の画素の画素値の平均値であっても良い。本実施形態では、ステップS401で取得したフレームにおける前景領域内の部分画像を、前回取得したフレームにおいて該前景領域に対応する対応領域内の部分画像に置き換える。しかし、ステップS401で取得したフレームから前景を取り除いた加工フレームを背景画像として生成する方法には様々な方法があり、特定の方法に限らない。
このように、画像処理装置103は、フレームを取得すると、該フレームに対応する背景画像を生成してメインメモリ202に格納する。よって、画像処理装置103は、メインメモリ202にバッファリングされたそれぞれのフレームについて、対応する背景画像を生成してメインメモリ202に格納することになる。
次に、メインメモリ202にバッファリングされているフレーム群における再生対象のフレームを再生するために画像処理装置103が行う処理について、図5のフローチャートに従って説明する。図5のフローチャートに従った処理は1フレーム分のフレームの再生に係る処理を示したものである。CPU201は図5のフローチャートに従った処理を繰り返し実行することで、複数フレームの再生を可能にする。
本実施形態では、CPU201は、ネットワーク102および通信部206を介してフレームを受信すると、該受信したフレームをメインメモリ202に格納(バッファリング)する。そしてCPU201は、バッファリングを開始してから予め定められた時間が経過すると、フレーム再生指示が入力可能である旨を表示部205に表示させる。なお、CPU201は、バッファリングを開始してから予め定められたフレーム数のフレームがメインメモリ202に格納されると、フレーム再生指示が入力可能である旨を表示部205に表示させるようにしても良い。そしてCPU201は、ユーザが操作部204を操作してフレーム再生指示を入力したことを検知すると、図5のフローチャートに従った処理を開始する。なお、CPU201は、バッファリングを開始してから予め定められた時間が経過すると、またはバッファリングを開始してから予め定められたフレーム数のフレームがメインメモリ202に格納されると、ユーザからのフレーム再生指示を受け付けること無しに、図5のフローチャートに従った処理を開始しても良い。
いずれにせよ、本実施形態では、メインメモリ202に格納されているフレームを再生する際には、メインメモリ202には、該再生するフレームよりも後のフレーム(該再生するフレームよりも撮像時刻が新しいフレーム)が1以上格納されているものとする。
ステップS501では、取得部301は、メインメモリ202にバッファリングされているフレーム群(バッファリング済みフレーム群)から再生対象のフレームを取得する。再生対象のフレームは、ユーザが操作部204を操作してバッファリング済みフレーム群から指定したフレームであっても良いし、CPU201が適当な基準でバッファリング済みフレーム群から選択したフレームであっても良い。また、再生対象のフレームは、バッファリング済みフレーム群において最も過去のフレームであっても良い。
ステップS502では、抽出部302は、ステップS501で取得した再生対象のフレームにおける前景領域を遮蔽領域(背景を遮蔽する被写体の領域)として、上記のステップS402と同様の方法でもって抽出する。
ステップS503では、取得部304は、ステップS501で取得した再生対象のフレームに対応する背景画像(該再生対象のフレームついて図4のフローチャートに従った処理で生成した背景画像)をメインメモリ202から取得する。
ステップS504では、比較部305は、「バッファリング済みフレーム群において再生対象のフレームよりも後の後段フレーム(該再生対象のフレームよりも撮像時刻が新しいフレーム)のうち選択フレームとして選択していない後段フレームが残っている」か否かを判断する。なお、後段フレームは、バッファリング済みフレーム群において再生対象のフレームよりも後のN(Nは自然数)フレーム数分のフレーム(該再生対象のフレームよりも撮像時刻が新しいNフレーム数分のフレーム)としても良い。
このような判断の結果、「バッファリング済みフレーム群において再生対象のフレームよりも後の後段フレームのうち選択フレームとして選択していない後段フレームが残っている」場合には、処理はステップS505に進む。一方、「バッファリング済みフレーム群において再生対象のフレームよりも後の後段フレームは全て選択フレームとして選択した」場合には、処理はステップS508に進む。
ステップS505では、比較部305は、バッファリング済みフレーム群において再生対象のフレームよりも後の未選択の後段フレームのうち撮像時刻が最も過去の後段フレームを選択フレームとして選択し、該選択フレームについて図4のフローチャートに従った処理で生成した背景画像を取得する。
ステップS506では、比較部305は、ステップS503で取得した背景画像において上記の遮蔽領域に対応する第1対応領域と、ステップS505で取得した背景画像において上記の遮蔽領域に対応する第2対応領域と、の差分を求める。比較部305は、第1対応領域と第2対応領域との差分として、例えば、第1対応領域と第2対応領域とで位置的に対応する画素間の画素値の差分値(絶対値)の総和を求める。第1対応領域と第2対応領域との差分は、第1対応領域と第2対応領域との差異の大小を定量化した値であれば、他の方法で求めた値であっても良い。
そして比較部305は、求めた差分が閾値以上であれば、第1対応領域と第2対応領域とには差異があるものと判断し、処理はステップS507に進む。一方、比較部305は、求めた差分が閾値未満であれば、第1対応領域と第2対応領域とには差異はないものと判断し、処理はステップS504に進む。第1対応領域と第2対応領域との差分をどのように用いて第1対応領域と第2対応領域とに差異があるか否かを判断するのか、については特定の判断方法に限らない。
ステップS507では、表示制御部306は、ステップS505で取得した背景画像(第1対応領域と第2対応領域とに差異があると判断された背景画像)を表示対象の背景画像として特定し、該特定した背景画像を表示部205に表示させる。ステップS505で取得した背景画像の表示方法には様々な表示方法が考えられる。
例えば、表示制御部306は、図8に示す如く、ステップS501で取得した再生対象のフレームに、ステップS505で取得した背景画像を半透明で重畳させた(例えば背景画像のα値を制御して半透明の画像に加工し、該加工した画像を再生対象のフレームに重畳させた)合成フレーム801を生成し、該生成した合成フレームを表示部205に表示させても良い。その際、表示制御部306は、合成フレームにおいて、遮蔽領域に対応する対応領域と該対応領域以外の領域と、を異なる表示方法で表示しても良い。例えば、表示制御部306は、遮蔽領域に対応する対応領域と該対応領域以外の領域とで明るさや色調を変えても良いし、エッジをシャープに表示させたりして、遮蔽領域に対応する対応領域を目立ち易くしてもよい。また、遮蔽領域の差分をPinP(PictureInPucture)表示したり、別の画面に表示したりしても構わない。これにより、フレーム間で遮蔽領域が更新される場合には、バッファリングしている先の時刻のフレームから該更新された遮蔽領域を取得し、再生対象のフレームに付与して表示することができる。また表示制御部306は、再生対象のフレーム、ステップS505で取得した背景画像、のそれぞれを表示部205の表示画面における別個の表示領域に表示させても良い。
一方、ステップS508では、表示制御部306は、ステップS501で取得した再生対象のフレームを表示部205に表示させる。ステップS508では、背景画像は表示されない。
比較部305における具体的な比較動作について、図7を例に取り説明する。背景画像701は撮像時刻t1で撮像されたフレーム601の背景画像であり、背景画像702は撮像時刻t2で撮像されたフレーム602の背景画像である。また、背景画像703は撮像時刻t3で撮像されたフレーム603の背景画像であり、背景画像704は撮像時刻t4で撮像されたフレーム604の背景画像である。以下では、フレーム601~604がメインメモリ202にバッファリングされている状態においてフレーム601を再生対象のフレームとして再生するケースについて説明する。
背景画像701内の点線で示した領域705は、フレーム601における遮蔽領域に対応する対応領域である。背景画像702内の点線で示した領域706は、フレーム601における遮蔽領域に対応する対応領域である。背景画像703内の点線で示した領域707は、フレーム601における遮蔽領域に対応する対応領域である。背景画像704内の点線で示した領域708は、フレーム601における遮蔽領域に対応する対応領域である。
この場合、先ず比較部305は、領域705と領域706とに差異があるか否かを判断する。図7では、領域705と領域706とには差異はないため、次に、比較部305は、領域705と領域707とに差異があるか否かを判断する。図7では、領域705と領域707とに差異があるため、背景画像703を表示対象として選択する。図8では、再生対象のフレーム601に、背景画像703を半透明で重畳させた(例えば背景画像703のα値を制御して半透明の画像に加工し、該加工した画像を再生対象のフレーム601に重畳させた)合成フレーム801の一例を示している。
このように、本実施形態によれば、黒板に書いている文字が講師の頭や体の一部などの被写体によって遮蔽されてしまうような状況であっても、板書を視覚しやすいように表示することができる。これにより、講師の発話と同期して板書が表示されるため、視聴者が講義を理解しやすくなる。
なお、本実施形態では、ステップS505で取得した背景画像を表示部205に表示させる形態について説明したが、該背景画像の出力先は表示部205に限らない。例えば、該背景画像や、該背景画像を半透明で再生対象のフレームに合成した合成フレームを、通信部206およびネットワーク102を介して外部の装置に対して送信しても良い。
[第2の実施形態]
本実施形態では、第1の実施形態との差分について説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。
図6に示したケースにおいて、講師が図面や数式や文章など、まとまりのある一つの情報を板書している場合には、そのまとまりを全部表示したほうが、視聴者にとって都合がよい場合もある。そこで、本実施形態では、差異のある領域の集合を後段フレームから取得し、再生対象のフレームに合成して表示する構成について説明する。
メインメモリ202にバッファリングされているフレーム群における再生対象のフレームを再生するために画像処理装置103が行う処理について、図9のフローチャートに従って説明する。図9において、図5に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
ステップS901では、比較部305は、「遮蔽領域の差分がまとまりとして完了したか否か」を判断する。ここで、「遮蔽領域の差分がまとまりとして完了したか否か」を判断するための判断方法について説明する。
例えば、比較部305は、フレーム中の講師の顔の向きに基づいて「遮蔽領域の差分がまとまりとして完了したか否か」の判断を行っても良い。例えば、講師が黒板に板書する際はカメラ101に背を向けているため、後頭部しか映っていない場合が多い。また、講師は板書が完了した際にはカメラ101の方向に視線を戻すため、正面を向く場合が多い。そのため、比較部305は、バッファリング済みフレーム群において再生対象のフレームよりも後の後段フレームで顔が正面を向いている(カメラ101の方を向いている)と判断した時点で「遮蔽領域の差分がまとまりとして完了した」と判断する。フレーム中の人の顔の向きを判断する技術については周知の技術であるため、これに係る説明は省略する。
また、比較部305は、講師の音声の認識結果に基づいて「遮蔽領域の差分がまとまりとして完了したか否か」の判断を行っても良い。例えば、講師が説明をしながら板書する際は、音声の内容と板書の内容が一致しているため、音声の内容のまとまりごとに遮蔽領域の差分を表示したほうが好ましい。そのため、比較部305は、画像処理装置103が有するマイクなどの音声収集装置を介して収集した講師の音声を認識して文章の終わりや単語の切れ目を検知すると、「遮蔽領域の差分がまとまりとして完了した」と判断する。
また、比較部305は、講師のジェスチャー等の動きの検知結果に基づいて「遮蔽領域の差分がまとまりとして完了したか否か」の判断を行っても良い。例えば、講師が板書する際にはチョークを手に持ち、板書が完了した際にはチョークを元の位置に戻す動作を行う。そのため、比較部305は、バッファリング済みフレーム群における再生対象のフレームよりも後のフレームにおいて腕を下す動作をしたと判断した時点で「遮蔽領域の差分がまとまりとして完了した」と判断する。フレーム中の人の動作を判断する技術については周知の技術であるため、これに係る説明は省略する。
また、「遮蔽領域の差分がまとまりとして完了した」旨の音声や動作を予め記憶部203に登録し、講師がその音声を発したり動作を行ったりしたことを検知した時点で比較部305は「遮蔽領域の差分がまとまりとして完了した」と判断するようにしても良い。これにより、まとまりとして表示したい区切りを講師がコントロールすることができるため、講師にとっても伝えたい板書のまとまりを視聴者に通知することができる。また、黒板を消すなどの動作があった場合には、次の板書が開始されるまでの期間、消される前の板書を表示し続けるなど、視聴者にとって都合のよい表示を提供することができる。
そしてこのような判断の結果、「遮蔽領域の差分がまとまりとして完了した」と判断した場合には、処理はステップS507に進み、「遮蔽領域の差分がまとまりとして完了した」と判断していない場合には、処理はステップS504に進む。
ステップS507では、表示制御部306は、最近のステップS505で取得した背景画像を表示部205に表示させる。なお、「最近のステップS505で取得した背景画像」は、「遮蔽領域の差分がまとまりとして完了した」と判断したタイミングに対応する撮像時刻のフレームの背景画像である。「遮蔽領域の差分がまとまりとして完了した」と判断したタイミングに対応する撮像時刻のフレームの背景画像は例えば「遮蔽領域の差分がまとまりとして完了した」と判断したタイミングより後かつ該タイミングに最も近い撮像時刻のフレームの背景画像である。
図7の例では、領域705と領域706とには差異はないため、次に、比較部305は、領域705と領域707とに差異があるか否かを判断する。図7では、領域705と領域707とに差異があるが、この時点では講師が正面を向いていないなど、「遮蔽領域の差分がまとまりとして完了した」と判断されていないので、次に、比較部305は、領域705と領域708とに差異があるか否かを判断する。図7では、領域705と領域708とに差異があり、この時点で講師が正面を向いたなど、「遮蔽領域の差分がまとまりとして完了した」と判断されたので、背景画像704を表示対象として選択する。
図10は、再生対象のフレーム601に、背景画像704を半透明で重畳させた(例えば背景画像704のα値を制御して半透明の画像に加工し、該加工した画像を再生対象のフレーム601に重畳させた)合成フレーム1001の一例を示している。
このように、本実施形態によれば、講師が図面や数式や文章など、まとまりのある一つの情報を板書している場合には、そのまとまりを全部表示することができるため、視聴者が講義をより理解しやすくなる。つまり画像処理装置103は、特定のイベントの発生を検知した場合には、ステップS505で取得した背景画像のうち、該検知のタイミングに対応する撮像時刻のフレームの背景画像を出力する。
なお、第1の実施形態および第2の実施形態では、講師が黒板を使って講義を行っている様子を撮像したフレームを表示するケースを例に取り説明したが、このようなケースに限らない。
また、上記の各実施形態で使用した数値、処理タイミング、処理順、処理の主体、データ(情報)の送信先/送信元/格納場所などは、具体的な説明を行うために一例として挙げたもので、このような一例に限定することを意図したものではない。
また、以上説明した各実施形態の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。
(その他の実施形態)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本明細書の開示は、以下の画像処理装置、画像処理方法、コンピュータプログラムを含む。
(項目1)
バッファリング済みのフレーム群における着目フレームの背景画像において該着目フレームの前景領域に対応する対応領域と、該バッファリング済みのフレーム群において該着目フレームより後のフレームの背景画像において該前景領域に対応する対応領域と、の差分に基づいて、該フレームの背景画像のうち表示対象の背景画像を特定する特定手段と、
前記表示対象の背景画像を出力する出力手段と
を備えることを特徴とする画像処理装置。
(項目2)
前記特定手段は、前記バッファリング済みのフレーム群において前記着目フレームより後のフレームの背景画像について、より過去のフレームの背景画像から順に前記差分を求め、該求めた差分が閾値以上となった背景画像を表示対象の背景画像として特定することを特徴とする項目1に記載の画像処理装置。
(項目3)
さらに、
バッファリングしたフレームにおいて前景を含まない背景画像を生成する生成手段を備えることを特徴とする項目1または2に記載の画像処理装置。
(項目4)
前記生成手段は、バッファリングしたフレームにおける前景領域内の画素の画素値を他の画素値に置き換えた加工フレームを背景画像として生成することを特徴とする項目3に記載の画像処理装置。
(項目5)
前記他の画素値は、バッファリングしたフレームにおいて前景領域の周辺に位置する画素の画素値の平均値であることを特徴とする項目4に記載の画像処理装置。
(項目6)
前記他の画素値は、被写体が存在しない背景を予め撮像した背景画像において前記バッファリングしたフレームの前景領域に対応する対応領域内の画素の画素値の平均値であることを特徴とする項目4に記載の画像処理装置。
(項目7)
前記生成手段は、バッファリングしたフレームにおける前景領域内の部分画像を、前回取得したフレームにおいて該前景領域に対応する対応領域内の部分画像に置き換えた加工フレームを背景画像として生成することを特徴とする項目3に記載の画像処理装置。
(項目8)
前記出力手段は、前記表示対象の背景画像を半透明で前記着目フレームに合成した合成フレームを出力することを特徴とする項目1ないし7のいずれか1項目に記載の画像処理装置。
(項目9)
前記出力手段は、前記合成フレームにおいて前記前景領域に対応する対応領域と該対応領域以外の領域を、互いに異なる表示方法で表示することを特徴とする項目8に記載の画像処理装置。
(項目10)
さらに、
特定のイベントの発生を検知する検知手段を備え、
前記出力手段は、前記特定手段が特定した表示対象の背景画像うち、前記検知手段が特定のイベントを検知したタイミングに対応する撮像時刻のフレームの背景画像を出力することを特徴とする項目1ないし7のいずれか1項目に記載の画像処理装置。
(項目11)
前記出力手段は、前記バッファリング済みのフレーム群における前記着目フレームよりも後のフレームにおいて人物の顔が正面を向いていることを前記検知手段が検知したタイミングに対応する撮像時刻のフレームの背景画像を出力することを特徴とする項目10に記載の画像処理装置。
(項目12)
前記出力手段は、音声の認識結果において文章の終わりまたは単語の切れ目を前記検知手段が検知したタイミングに対応する撮像時刻のフレームの背景画像を出力することを特徴とする項目10に記載の画像処理装置。
(項目13)
前記出力手段は、特定の音声を前記検知手段が検知したタイミングに対応する撮像時刻のフレームの背景画像を出力することを特徴とする項目10に記載の画像処理装置。
(項目14)
前記出力手段は、特定の動作を前記検知手段が検知したタイミングに対応する撮像時刻のフレームの背景画像を出力することを特徴とする項目10に記載の画像処理装置。
(項目15)
画像処理装置が行う画像処理方法であって、
前記画像処理装置の特定手段が、バッファリング済みのフレーム群における着目フレームの背景画像において該着目フレームの前景領域に対応する対応領域と、該バッファリング済みのフレーム群において該着目フレームより後のフレームの背景画像において該前景領域に対応する対応領域と、の差分に基づいて、該フレームの背景画像のうち表示対象の背景画像を特定する特定工程と、
前記画像処理装置の出力手段が、前記表示対象の背景画像を出力する出力工程と
を備えることを特徴とする画像処理方法。
(項目16)
コンピュータを、項目1乃至14のいずれか1項目に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
本開示は上記実施形態に制限されるものではなく、本開示の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本開示の範囲を公にするために請求項を添付する。
301:取得部 302:抽出部 303:生成部 304:取得部 305:比較部 306:表示制御部

Claims (16)

  1. バッファリング済みのフレーム群における着目フレームの背景画像において該着目フレームの前景領域に対応する対応領域と、該バッファリング済みのフレーム群において該着目フレームより後のフレームの背景画像において該前景領域に対応する対応領域と、の差分に基づいて、該フレームの背景画像のうち表示対象の背景画像を特定する特定手段と、
    前記表示対象の背景画像を出力する出力手段と
    を備えることを特徴とする画像処理装置。
  2. 前記特定手段は、前記バッファリング済みのフレーム群において前記着目フレームより後のフレームの背景画像について、より過去のフレームの背景画像から順に前記差分を求め、該求めた差分が閾値以上となった背景画像を表示対象の背景画像として特定することを特徴とする請求項1に記載の画像処理装置。
  3. さらに、
    バッファリングしたフレームにおいて前景を含まない背景画像を生成する生成手段を備えることを特徴とする請求項1に記載の画像処理装置。
  4. 前記生成手段は、バッファリングしたフレームにおける前景領域内の画素の画素値を他の画素値に置き換えた加工フレームを背景画像として生成することを特徴とする請求項3に記載の画像処理装置。
  5. 前記他の画素値は、バッファリングしたフレームにおいて前景領域の周辺に位置する画素の画素値の平均値であることを特徴とする請求項4に記載の画像処理装置。
  6. 前記他の画素値は、被写体が存在しない背景を予め撮像した背景画像において前記バッファリングしたフレームの前景領域に対応する対応領域内の画素の画素値の平均値であることを特徴とする請求項4に記載の画像処理装置。
  7. 前記生成手段は、バッファリングしたフレームにおける前景領域内の部分画像を、前回取得したフレームにおいて該前景領域に対応する対応領域内の部分画像に置き換えた加工フレームを背景画像として生成することを特徴とする請求項3に記載の画像処理装置。
  8. 前記出力手段は、前記表示対象の背景画像を半透明で前記着目フレームに合成した合成フレームを出力することを特徴とする請求項1に記載の画像処理装置。
  9. 前記出力手段は、前記合成フレームにおいて前記前景領域に対応する対応領域と該対応領域以外の領域を、互いに異なる表示方法で表示することを特徴とする請求項8に記載の画像処理装置。
  10. さらに、
    特定のイベントの発生を検知する検知手段を備え、
    前記出力手段は、前記特定手段が特定した表示対象の背景画像うち、前記検知手段が特定のイベントを検知したタイミングに対応する撮像時刻のフレームの背景画像を出力することを特徴とする請求項1に記載の画像処理装置。
  11. 前記出力手段は、前記バッファリング済みのフレーム群における前記着目フレームよりも後のフレームにおいて人物の顔が正面を向いていることを前記検知手段が検知したタイミングに対応する撮像時刻のフレームの背景画像を出力することを特徴とする請求項10に記載の画像処理装置。
  12. 前記出力手段は、音声の認識結果において文章の終わりまたは単語の切れ目を前記検知手段が検知したタイミングに対応する撮像時刻のフレームの背景画像を出力することを特徴とする請求項10に記載の画像処理装置。
  13. 前記出力手段は、特定の音声を前記検知手段が検知したタイミングに対応する撮像時刻のフレームの背景画像を出力することを特徴とする請求項10に記載の画像処理装置。
  14. 前記出力手段は、特定の動作を前記検知手段が検知したタイミングに対応する撮像時刻のフレームの背景画像を出力することを特徴とする請求項10に記載の画像処理装置。
  15. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の特定手段が、バッファリング済みのフレーム群における着目フレームの背景画像において該着目フレームの前景領域に対応する対応領域と、該バッファリング済みのフレーム群において該着目フレームより後のフレームの背景画像において該前景領域に対応する対応領域と、の差分に基づいて、該フレームの背景画像のうち表示対象の背景画像を特定する特定工程と、
    前記画像処理装置の出力手段が、前記表示対象の背景画像を出力する出力工程と
    を備えることを特徴とする画像処理方法。
  16. コンピュータを、請求項1乃至14のいずれか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2022078951A 2022-05-12 2022-05-12 画像処理装置、画像処理方法 Pending JP2023167630A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022078951A JP2023167630A (ja) 2022-05-12 2022-05-12 画像処理装置、画像処理方法
US18/309,862 US20230368396A1 (en) 2022-05-12 2023-05-01 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022078951A JP2023167630A (ja) 2022-05-12 2022-05-12 画像処理装置、画像処理方法

Publications (1)

Publication Number Publication Date
JP2023167630A true JP2023167630A (ja) 2023-11-24

Family

ID=88699220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022078951A Pending JP2023167630A (ja) 2022-05-12 2022-05-12 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US20230368396A1 (ja)
JP (1) JP2023167630A (ja)

Also Published As

Publication number Publication date
US20230368396A1 (en) 2023-11-16

Similar Documents

Publication Publication Date Title
CN107168674B (zh) 投屏批注方法和系统
CN107909022B (zh) 一种视频处理方法、装置、终端设备和存储介质
CN107430629B (zh) 计算机呈现中的视觉内容的分优先级显示
CN102780893B (zh) 图像处理设备及其控制方法
US20150381925A1 (en) Smart pause for neutral facial expression
CN111131876B (zh) 视频直播的控制方法、装置、终端及计算机可读存储介质
US9129657B2 (en) Video image display apparatus, video image display method, non-transitory computer readable medium, and video image processing/display system for video images of an object shot from multiple angles
WO2013123499A1 (en) Systems and methods for combining educational content
JP5243365B2 (ja) コンテンツ生成装置,コンテンツ生成方法およびコンテンツ生成プログラム
KR101647969B1 (ko) 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
JP2008271237A (ja) 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム
US20090094534A1 (en) Server apparatus and control method of server apparatus
CN113852757B (zh) 视频处理方法、装置、设备和存储介质
CN112243505A (zh) 信息处理装置、信息处理方法和程序
US11818498B2 (en) Screen recording method and apparatus, and electronic device
JP2023167630A (ja) 画像処理装置、画像処理方法
CN114245193A (zh) 显示控制方法、装置和电子设备
US20200075025A1 (en) Information processing apparatus and facilitation support method
EP3598742B1 (en) Recording device and recording method
JP7582342B2 (ja) グラフィック表示制御装置、グラフィック表示制御方法、及びプログラム
JP2016213675A (ja) 遠隔コミュニケーションシステム、その制御方法、及びプログラム
CN117041645A (zh) 基于数字人的视频播放方法、装置、电子设备及存储介质
US20240127508A1 (en) Graphic display control apparatus, graphic display control method and program
DE102019100093A1 (de) Elektronische Vorrichtung und Steuerverfahren für diese
JP2005301479A (ja) 投影された提示者の動作による命令入力装置