[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4640515B2 - サムネイル生成装置、サムネイル生成方法、及びサムネイル生成プログラム - Google Patents

サムネイル生成装置、サムネイル生成方法、及びサムネイル生成プログラム Download PDF

Info

Publication number
JP4640515B2
JP4640515B2 JP2009073345A JP2009073345A JP4640515B2 JP 4640515 B2 JP4640515 B2 JP 4640515B2 JP 2009073345 A JP2009073345 A JP 2009073345A JP 2009073345 A JP2009073345 A JP 2009073345A JP 4640515 B2 JP4640515 B2 JP 4640515B2
Authority
JP
Japan
Prior art keywords
moving image
thumbnail
face
area
face detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009073345A
Other languages
English (en)
Other versions
JP2010226572A (ja
Inventor
大作 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2009073345A priority Critical patent/JP4640515B2/ja
Priority to CN201080013004.3A priority patent/CN102362491B/zh
Priority to US13/259,685 priority patent/US8849093B2/en
Priority to KR1020117024660A priority patent/KR101296152B1/ko
Priority to PCT/JP2010/051100 priority patent/WO2010109943A1/ja
Priority to EP10755744.9A priority patent/EP2413597B1/en
Publication of JP2010226572A publication Critical patent/JP2010226572A/ja
Application granted granted Critical
Publication of JP4640515B2 publication Critical patent/JP4640515B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/44029Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、再生装置で再生される動画像の内容をユーザに把握させるための動画サムネイルを生成するサムネイル生成装置サムネイル生成方法、及びサムネイル生成プログラムに関する。
撮影、記録した動画像を構成する複数のフレーム又はフィールドのうちの任意の1枚を抽出して縮小した静止画サムネイルを、記録されている動画像毎や、これらの動画像における所定の区切り(チャプタ)毎に生成し、これら生成した複数の静止画サムネイルを、本体に具備するモニター用の液晶パネルにサムネイル一覧画面として表示させる静止画サムネイル表示機能を有するビデオカメラがよく知られている。
また、静止画サムネイルに対応した画像の内容をユーザに把握させやすくするための技術として、例えば、特許文献1には、撮影した静止画像から人物の顔を検出し、その検出した人物の顔に合わせて、撮影した静止画像を所定のサイズに縮小した静止画サムネイルを生成する画像処理装置が提案されている。
しかしながら、特許文献1に記載の技術は、通常の静止画サムネイル表示機能に比較すれば、静止画サムネイルに対応した画像の内容をユーザに把握させやすくなるものの、表示されるサムネイルは静止画であるので、その静止画サムネイルに対応した画像が動画像の場合、利用者は、その動画像の内容を把握できない場合があった。
一方、HDD(Hard Disk Drive)レコーダーやDVD(Digital Versatile Disk)レコーダーでは、サムネイル一覧画面において、ユーザ操作等によって1つの静止画サムネイルにフォーカス(ハイライト枠)があてられたとき、その静止画サムネイルに換えて動画サムネイルを表示するモーションサムネイル機能を有していることが多い。このモーションサムネイル機能は、選択された静止画サムネイルに対応する所定期間の動画像を再生し、この再生した動画像を静止画サムネイルと同じサイズに縮小させた動画サムネイルを生成し、この生成した動画サムネイルを、静止画サムネイル一覧画面において対応する静止画サムネイルの領域に表示する機能である。利用者はこのモーションサムネイル機能によって表示された動画サムネイルを見ることにより、動画像の内容を把握し易くなる。
特開2005−269563号公報
ここで、ビデオカメラにも、このモーションサムネイル機能を適用することが考えられる。
しかしながら、ビデオカメラにモーションサムネイル機能を適用した場合、本体に具備するモニター用の液晶パネルの画面は比較的小さいので、サムネイル一覧画面に表示される動画サムネイルも小さくなってしまう。従って、利用者はその動画サムネイルの内容、つまりその動画サムネイルに対応する動画像の内容を把握することが困難であった。
本発明は、上記課題に鑑みてなされたものであり、その目的は、利用者に、記録再生装置に記録されている動画像の内容を把握させやすい動画サムネイルを生成し表示するサムネイル生成装置サムネイル生成方法、及びサムネイル生成プログラムを提供することにある。
上記目的を達成するため、本発明に係るサムネイル生成装置の第1の特徴は、動画像の第1の所定期間内において、前記第1の所定期間よりも短い第2の所定期間毎に、前記動画像を構成する各画像を抽出する動画像抽出手段と、抽出された各画像に含まれる人物の顔の領域を積分し、この積分された顔の領域を囲むように顔表示領域を決定し、この決定された顔表示領域のサイズが、予め動画サムネイルを表示するために定められた所定の表示領域のサイズと同一となるように、前記動画像の縮小拡大率を算出する縮小拡大率算出手段と、算出された前記縮小拡大率に基づいて、前記動画像を縮小または拡大し、前記動画サムネイルを生成する動画サムネイル生成手段とを備えたことにある。
上記目的を達成するため、本発明に係るサムネイル生成装置の第2の特徴は、前記動画像抽出手段によって抽出された各画像のうち、人物の顔の領域が存在する画像の連続する数に基づいて、前記第1の所定期間を1つ以上決定するサムネイル区間決定手段を更に備えることを特徴としたことにある。
上記目的を達成するため、本発明に係るサムネイル生成装置の第3の特徴は、前記縮小拡大率算出手段は、前記顔表示領域の面積の値を分母とし、前記顔の領域の合計面積の値を分子として求めた比の値が、所定の閾値より小さい場合、前記顔の領域のうち中心に近くかつ面積が最も大きい顔の領域を代表領域として、この代表領域のサイズが前記表示領域のサイズと同一となるように、前記縮小拡大率を算出することを特徴としたことにある。
上記目的を達成するため、本発明に係るサムネイル生成装置の第4の特徴は、人物の顔を一意に識別可能な顔の特徴を顔特徴情報として記憶する顔特徴情報記憶手段と、を更に備え、前記縮小拡大率算出手段は、前記顔の領域内に存在する顔の特徴が、前記顔特徴情報記憶手段に記憶されている顔特徴情報が示す顔の特徴と一致又は近似しているか否かを判定し、一致又は近似していると判定された場合に、この一致又は近似している顔の特徴に対応する前記顔の領域のサイズを前記表示領域のサイズと同一となるように、前記縮小拡大率を算出することにある。
上記目的を達成するため、本発明に係るサムネイル生成方法の第1の特徴は、動画像の第1の所定期間内において、前記第1の所定期間よりも短い第2の所定期間毎に、前記動画像を構成する各画像を抽出する動画像抽出ステップと、抽出された各画像に含まれる人物の顔の領域を積分し、この積分された顔の領域を囲むように顔表示領域を決定し、この決定された顔表示領域のサイズが、予めサムネイルを表示するために定められた所定の表示領域のサイズと同一となるように、前記動画像の縮小拡大率を算出する縮小率算出ステップと、算出された前記縮小拡大率に基づいて、前記動画像を縮小または拡大し、前記動画サムネイルを生成する動画サムネイル生成ステップとを有することにある。
本発明のサムネイル生成装置サムネイル生成方法、及びサムネイル生成プログラムによれば、利用者に、記録再生装置に記録されている動画像の内容を把握させやすい動画サムネイルを生成し表示することができる。
本発明の実施例1であるサムネイル生成装置に供給するためのAVストリーム及びストリーム管理情報を記録媒体に記録するビデオカメラの構成を示した構成図である。 本発明の実施例1であるサムネイル生成装置の構成を示した構成図である。 本発明の実施例1であるサムネイル生成装置が備えるユーザインタフェース部が表示する画面の一例を示した図である。 本発明の実施例1であるサムネイル生成装置が備えるユーザインタフェース部におけるOSD画面と動画再生画面との重ね合わせを説明した図である。(a)は、OSD画面及び動画再生画面の重ね合わせの順序を説明した図であり、(b)は、OSD画面及び動画再生画面それぞれの一例を示した図であり、(c)は、OSD画面と動画再生画面とが重ね合わされた合成画面の一例を示した図である。 本発明の実施例1であるサムネイル生成装置が備える動画サムネイル時間記憶部に記憶された動画サムネイル時間情報の一例を示した図である。 ビデオカメラが備える顔検出部における顔検出処理を示したフローチャートである。 本発明の実施例1であるサムネイル生成装置における動画像抽出処理を示したフローチャートである。 本発明の実施例1であるサムネイル生成装置の動画像抽出部が、「単位区分時間の顔あり区間」を抽出する処理を説明した図である。 本発明の実施例1であるサムネイル生成装置における動画サムネイル表示処理を示したフローチャートである。 本発明の実施例1であるサムネイル生成装置が備えるCPUの縮小率算出部による顔検出領域を囲むアスペクト比16:9の矩形領域の面積Aの算出を説明した図である。(a)は、ある区間内におけるt1時点からt5時点までにおける顔検出領域を示しており、(b)は、(a)示した顔検出領域を積分した場合における動画像の図であり、(c)は、顔検出領域が動画像内で分散している場合における動画像の図であり、(d)は、顔検出領域が動画像内で密集している場合における動画像の図である。 本発明の実施例1であるサムネイル生成装置が備える縮小率算出部による動画像の縮小率の算出を説明した図である。(a)は、縮小する動画像の一例を示しており、(b)は、OSD画面の一例を示している。 本発明の実施例1であるサムネイル生成装置が備える縮小率算出部による動画像の縮小率の算出を説明した図である。(a)は、縮小する動画像の一例を示しており、(b)は、OSD画面の一例を示している。 本発明の実施例2であるサムネイル生成装置の構成を示した構成図である。 本発明の実施例2であるサムネイル生成装置が備える顔特徴情報記憶部に記憶された顔特徴情報の一例を示した図である。 本発明の実施例2であるサムネイル生成装置が備える縮小率算出部による動画像の縮小率の算出を説明した図である。(a)は、縮小する動画像の一例を示しており、(b)は、OSD画面の一例を示している。
以下、本発明の実施の形態について図面を参照して説明する。
本発明の実施例1では、撮像された動画像に基づいて人物の顔を検出する顔検出部を有するビデオカメラと、このビデオカメラにより生成されて記録媒体に記録されたAVストリーム及びストリーム管理情報に基づいて、動画サムネイルを生成するサムネイル生成装置を例に挙げて説明する。
<ビデオカメラの構成>
図1は、本発明の実施例1であるサムネイル生成装置で用いるためのAVストリーム及びストリーム管理情報を生成して記録媒体に記録するビデオカメラの構成を示した構成図である。
ビデオカメラ101は、光学レンズ111と、撮像素子112と、信号処理部113と、H.264エンコーダ114と、マルチプレクサ115と、顔検出部116と、加算器117と、マイク121と、A/D変換部122と、AC3エンコーダ123と、CPU131とを備えている。
光学レンズ111は、軸Pを光軸として入射する光を集光させる。
撮像素子112は、光学レンズ111により集光された光を結像させ、結像させた被写体像を電気信号に変換する。
信号処理部113は、CPU131の指示により、撮像素子112により変換された電気信号に基づいてビデオ信号を生成する。
H.264エンコーダ114は、CPU131の指示により、信号処理部113により生成されたビデオ信号に基づいて、ビデオストリーム及びGOP(Group of picture)情報を生成する。
A/D変換部122は、CPU131の指示により、マイク121により集音された音声をアナログデータからディジタルデータに変換する。
AC3エンコーダ123は、CPU131の指示により、A/D変換部122により変換されたディジタルデータをエンコードすることによりオーディオストリーム及びオーディオ情報を生成する。
マルチプレクサ115は、CPU131の指示により、H.264エンコーダ114によりエンコードされたビデオストリームと、AC3エンコーダ123によりエンコードされたオーディオストリームとを、マルチプレクスしてAVCHD規格に準拠したAVストリームを生成し、生成されたAVストリームを記録媒体Aに記録する。
顔検出部116は、CPU131の指示により、信号処理部113により生成されたビデオ信号に基づいて、顔検出を行う。具体的には、顔検出部116は、ビデオ信号に基づいて、所定の顔検出時間間隔で動画像をサンプリングし、サンプリングした動画像から人物の顔を検出し、顔検出情報として加算器117へ供給する。
ここで、顔検出処理は、処理を高速に行なえるデバイスやアルゴリズムを用いればフレーム毎に実現することが可能である。しかし、フレーム毎では、顔検出情報のデータサイズが無駄に大きくなってしまう。従って、顔検出時間は、例えば0.5秒程度に設定することが好ましい。なお、顔検出情報には、顔検出された顔検出領域の数(0〜4、0は顔検出なしを示す)と、顔検出された顔検出領域毎の、動画像の左上を基準点とした場合における顔検出された顔検出領域の左上の座標(X,Y)と、顔検出された顔検出領域のサイズ(幅と高さ)とが含まれる。
なお、動画像は連続する静止画像であるフレームまたはフィールドで構成され、本発明はいずれにも適用可能であるが、以降は説明の便宜上、静止画像をフレームと呼ぶこととする。
また、顔検出部116は、検出した人物の顔の信頼度、即ち、どの程度の確からしさで人物の顔であるかを示した信頼度を算出し、この信頼度が所定の信頼度閾値以上であるか否かを判定する。
加算器117は、CPU131の指示により、H.264エンコーダ114から供給されるGOP情報と、AC3エンコーダ123から供給されるオーディオ情報と、顔検出部116から供給される顔検出情報とを含むストリーム管理情報を生成し、このストリーム管理情報を記録媒体Aに記録する。
CPU131は、ビデオカメラ101の中枢的な制御を行う。具体的には、CPU131は、上述した撮像素子112と、信号処理部113と、H.264エンコーダ114と、マルチプレクサ115と、顔検出部116と、加算器117と、A/D変換部122と、AC3エンコーダ123とを制御する。
<サムネイル生成装置の構成>
図2は、本発明の実施例1であるサムネイル生成装置の構成を示した構成図である。
図2に示すように、本発明の実施例1であるサムネイル生成装置1は、デマルチプレクサ11と、AC3デコーダ12と、スピーカ13と、H.264デコーダ14と、縮小拡大部15と、加算器16と、ユーザインタフェース部17と、OSD生成部18と、CPU20と、動画サムネイル時間記憶部19とを備える。
デマルチプレクサ11は、CPU20の指示により、記録媒体Aに記録されたAVストリームを読み出し、読み出されたAVストリームをデマルチプレクスすることにより、ビデオストリームとオーディオストリームとを生成する。
AC3デコーダ12は、CPU20の指示により、デマルチプレクサ11から供給されたオーディオストリームをデコードすることにより、再生音声データを生成し、スピーカ13から音声出力させる。
H.264デコーダ14は、CPU20の指示により、デマルチプレクサ11から供給されたビデオストリームをデコードすることにより、再生動画像データを生成し、この生成した再生動画像データを縮小拡大部15へ供給する。
縮小拡大部15は、CPU20の指示により、H.264デコーダ14から供給された再生動画像データを縮小または拡大することにより、動画サムネイルとして表示するための縮小または拡大された再生動画像データを生成する。
CPU20は、サムネイル生成装置1の中枢的な制御を行う。具体的には、CPU20は、デマルチプレクサ11と、AC3デコーダ12と、スピーカ13と、H.264デコーダ14と、縮小拡大部15と、加算器16と、ユーザインタフェース部17と、OSD生成部18とを制御する。また、CPU20は、記録媒体Aから読み出したストリーム管理情報をOSD生成部18に供給する。
OSD生成部18は、CPU20の指示により、供給されたストリーム管理情報に基づいてOSD画面を表示するためのOSD画像データに生成し、加算器16へ供給する。
加算器16は、CPU20の指示により、縮小拡大部15から供給された縮小または拡大された再生動画像データに、OSD生成部18から供給されたOSD画像データを重ね合わせることにより、合成画像データを生成し、この生成された合成画像データをユーザインタフェース部17に表示させる。
ユーザインタフェース部17は、有機EL(electroluminescence)ディスプレイや、液晶ディスプレイ等で構成される画像表示部を備える。そして、ユーザインタフェース部17は、この画像表示部に、CPU20の指示により、加算器17から供給される合成画像データに基づいて合成画面を表示する。
また、ユーザインタフェース部17は、タッチセンサ等で構成される操作ボタンやスライダー等の操作部も備える。そして、ユーザインタフェース部17は、利用者によってこの操作ボタンやスライダーが操作されると、その操作に応じた操作信号を生成し、生成した操作信号をCPU20へ供給する。
動画サムネイル時間記憶部19は、動画像の再生時間と、この再生時間に応じた動画サムネイルの再生時間とを関連付けて記憶する。この関連付けについては後述する。
図3は、本発明の実施例1であるサムネイル生成装置1が備えるユーザインタフェース部17の外観と、このユーザインタフェース部17の画像表示部に表示される画面の一例を示した図である。
図3に示すように、ユーザインタフェース部17は、画像表示部17gと、操作ボタン17bと、スライダー17cとを含んで構成される。
画像表示部17gには、OSD画像データに基づいて生成された静止画サムネイルを含むOSD画面と、縮小拡大部15により縮小または拡大された再生動画像データに基づいて生成された動画サムネイルとが重ね合わされて、合成画面として表示される。
画像表示部17gに表示されるOSD画面には、サムネイル表示領域17dと、操作ガイド表示領域17eと、ページ表示領域17fとが領域分割されて表示されている。
サムネイル表示領域17dは、静止画サムネイルと動画サムネイルとが表示される。この表示方法については後述する。
操作ガイド表示領域17eには、操作ボタン17bに割り当てた機能をユーザに示すためのアイコン等を表示する。
ページ表示領域17fには、現在、サムネイル表示領域17dに表示された静止画サムネイル一覧のページを表示する。例えば、8/9と表示されている場合、全部で9ページあり、現在8ページ目を表示していることを示す。
操作ボタン17bは、図3の例では、5つ配置されている。配置された5つの操作ボタンのうち、左端の操作ボタンは、動画サムネイルの選択確定を要求する操作信号を生成するためのOKボタン、右端の操作ボタンは、メニューの表示を要求する操作信号を生成するためのメニューボタンである。また、これらの操作ボタンの間の3個の操作ボタンには固定の機能が割り当てられておらず、CPU20が、ユーザ操作の遷移に応じて種々の機能を割り当てる。そして、各操作ボタンに割り当てた機能をユーザに示すために、上記した操作ガイド表示領域17eを用いる。図3の例では、左側の操作ボタンにダイジェスト再生の機能が割り当てられており、中央の操作ボタンにズーム再生の機能が割り当てられており、右側の操作ボタンにゴミ箱の機能が割り当てられている。
スライダー17cは、後述する動画サムネイルを表示させるための表示領域であるハイライト枠17kをスライドするためのものである。利用者がこのスライダー17cを下になぞる操作を行うとハイライト枠17kが左から右に移動し、上になぞる操作を行うと、ハイライト枠17kは右から左に移動する。
図4は、動画サムネイルを静止画サムネイルとともに一覧表示する方法を説明した図である。
図4(a)に示すように、動画サムネイルを静止画サムネイルとともに一覧表示する場合、動画再生画面17hとOSD画面17aとが用いられる。
まず、図4(b)に示すように、CPU20は、OSD画面17a上にサムネイル表示領域17dを表示する。このサムネイル表示領域17dには、静止画サムネイルが一覧表示されている。ここで静止画サムネイルは、例えば、各動画像の任意の位置のIフレームを抽出してデコードし、そのデコードした画像を縮小または拡大することで生成される。
図4(b)においてサムネイル表示領域17d内の左上の静止画サムネイル上に表示されているハイライト枠17kは、利用者によるスライダー17cの操作により、サムネイル表示領域17dに一覧表示された静止画サムネイルの中のいずれか1つが選択されるように移動する。
そして、静止画サムネイルの中からいずれか1つが選択され後、例えば0.5秒経過すると、CPU20は、ハイライト枠17kにより囲まれた静止画サムネイルを消去して、ハイライト枠17k内を透過画面にする。
一方、CPU20は、縮小拡大部15により、再生動画像データを、ハイライト枠17kと同等のサイズに縮小または拡大するとともに、表示位置をこのハイライト枠に合わせた動画サムネイル17jを生成し、動画再生画面17hとして表示する。
そして、図4(c)に示すように、CPU20は、加算器16により、OSD画面17aの背面に動画再生画面17hを重ね合わせて、合成画面を生成する。このようにすることで、OSD画面17aのうち、透過画面になったハイライト枠17k内に背面の動画再生画面17h内の動画サムネイル17jが表示されるようになる。
図5は、本発明の実施例1であるサムネイル生成装置1が備える動画サムネイル時間記憶部19に記憶された動画サムネイル時間情報の一例を示した図である。
図5に示すように、カラム名“動画像の再生時間”(符号101)と、カラム名“動画サムネイルの再生時間”(符号102)と、カラム名“動画サムネイル再生区間数”(符号103)とが関連付けられて、動画サムネイル時間情報として記憶されている。なお、動画サムネイルの再生時間102は、後述する単位区分時間に動画サムネイル再生区間数103を乗算することにより算出される。
また、CPU20は、その機能上、動画像抽出部20aと、縮小拡大率算出部20bと、サムネイル区間決定部20dとを備える。
動画像抽出部20aは、動画像の第1の所定期間内において、後述する第1の所定期間よりも短い第2の所定期間毎に、動画像を構成する各画像を抽出する。
サムネイル区間決定部20dは、動画像抽出部20aによって抽出された各画像のうち、人物の顔の領域が存在する画像の連続する数に基づいて、第1の所定期間を1つ以上決定する。
縮小拡大率算出部20bは、抽出された各画像に含まれる人物の顔の領域を積分し、この積分された顔の領域を囲むように顔表示領域を決定し、この決定された顔表示領域のサイズが、予め動画サムネイルを表示するために定められた所定の表示領域のサイズと略同一となるように、動画像の縮小拡大率を算出する。
また、縮小拡大率算出部20bは、決定された対象顔領域の面積に対する顔検出領域の合計面積が所定の閾値より小さい場合に、中心に近くかつ面積が大きい顔検出領域を代表領域として、この代表領域のサイズが動画サムネイルのサイズと略同一となるように、前記動画像の縮小拡大率を算出する。
<ビデオカメラ101が備える顔検出部116の作用>
次に、ビデオカメラ101が備える顔検出部116が実行する顔検出処理について説明する。
図6は、ビデオカメラ101が備える顔検出部116における顔検出処理を示したフローチャートである。
図6に示すように、顔検出部116は、ビデオ信号に基づいて、顔検出時間(第2の所定期間:ここでは、例えば0.5秒とする)毎に、動画像を構成するフレームをサンプリングし、サンプリングしたフレームから人物の顔を検出すると共に、顔検出された顔検出領域(顔の領域)の仮数Npを生成する(ステップS201)。
次に、顔検出部116は、顔検出された顔検出領域のカウンタiの値に初期値として“1”を代入すると共に、有効顔数Mに初期値として“0”を代入する(ステップS202)。
そして、顔検出部116は、顔検出された顔検出領域の仮数Npのうち第i番目に顔検出された顔検出領域の信頼度を算出し、この信頼度が所定の信頼度閾値以上であるか否かを判定する(ステップS203)。ここで、信頼度とは、顔検出された顔がどの程度の確からしさで人物の顔であるかを示している。
ステップS203において、第i番目の顔検出領域の信頼度が所定の信頼度閾値未満であると判定された場合(NOの場合)、顔検出部116は、第i番目の顔検出領域を削除する(ステップS204)。
一方、ステップS203において、第i番目の顔検出領域の信頼度が所定の信頼度閾値以上であると判定された場合(YESの場合)、顔検出部116は、有効顔数Mの値を“1”だけ加算する(ステップS205)。
次に、顔検出部116は、カウンタiの値が顔検出された顔検出領域の仮数Npを越えているか否かを判定する(ステップS206)。
ステップS206において、カウンタiの値が顔検出された顔検出領域の仮数Npを越えていると判定された場合(YESの場合)、顔検出部116は、有効顔数Mが最大顔数Mmaxを越えているか否かを判定する(ステップS207)。ここで、最大顔数Mmaxは、例えば“4”といったように、予め提供者等が実測に基づいた適正な値を予め算出し、提供者や利用者等が予め適正な値を設定しておく必要がある。
ステップS207において、有効顔数Mが最大顔数Mmax以下であると判定された場合(NOの場合)、顔検出部116は、有効顔数Mの値を、顔評価数Mvalへ代入する(ステップS208)。
一方、ステップS207において、有効顔数Mが最大顔数Mmaxを越えていると判定された場合(YESの場合)、顔検出部116は、有効顔数M個分の顔検出領域の面積を算出する(ステップS208)。
次に、顔検出部116は、有効顔数M個分の顔検出領域を、ステップS208において算出された顔検出領域の面積が大きい順にソートする(ステップS209)。
そして、顔検出部116は、ステップS209においてソートされた有効顔数M個分の顔検出領域から、Mmax個だけ先頭から選択する(ステップS210)。
さらに、顔検出部116は、Mmaxの値を、顔評価数Mvalへ代入する(ステップS211)。
次に、顔検出部116は、顔検出情報を生成する(ステップS212)。具体的には、顔検出部116は、顔評価数Mvalの値を、顔検出された顔検出領域の数Nに代入し、この顔検出された顔検出領域の数Nと、N個分の顔検出領域の座標(X,Y)及びサイズ(幅と高さ)とを含む顔検出情報を生成し、この生成された顔検出情報を加算器117へ供給する。
以上のように、本発明の実施例1であるビデオカメラ101が備える顔検出部116によれば、顔検出処理を実行することにより、顔検出部116が、信号処理部113により生成されたビデオ信号に基づいて、顔検出時間間隔で動画像(フレーム)をサンプリングし、サンプリングした動画像(フレーム)から人物の顔を検出し、顔検出情報として加算器117へ供給するので、後述するように、サムネイル生成装置1が、この顔検出情報に基づいて、動画サムネイルを生成することができる。
<サムネイル生成装置1の作用>
次に、本発明の実施例1であるサムネイル生成装置1の作用について説明する。
本発明の実施例1であるサムネイル生成装置1は、主に動画像抽出処理及び動画サムネイル表示処理とを順に実行する。そのため、各々の処理について以下に詳細に説明する。
≪動画像抽出処理≫
本発明の実施例1であるサムネイル生成装置1の動画像抽出処理の詳細について説明する。
図7は、本発明の実施例1であるサムネイル生成装置1における動画像抽出処理を示したフローチャートである。
まず、CPU20の動画像抽出部20aは、ユーザインタフェース部17からの操作信号に基づき、静止画サムネイルの中からいずれか1つが選択された後、所定時間(例えば0.5秒)経過したと判断した場合(ステップS101)、サムネイル区間決定部20dは、記録媒体Aから読み出したストリーム管理情報の顔検出情報に含まれる顔検出された顔検出領域(顔の領域)の数Nに基づいて、所定の単位区分時間(ここでは、5秒とする)以上連続した「顔あり区間」から、「単位区分時間の顔あり区間(第1の所定期間)」を決定する(ステップS102)。
ここで、単位区分時間は、長すぎると、後述する顔領域の積分時間が長くなるので、動画サムネイルの効果的な拡大表示ができなくなり、短かすぎると、動画サムネイルの画像が短時間でスキップするので、利用者にとって、内容を把握し難くなる。そのため、例えば5秒といったように、予め提供者等が実測に基づいた適正な値を予め算出し、提供者や利用者等が予め適正な値を設定しておく必要がある。
図8は、本発明の実施例1であるサムネイル生成装置1のサムネイル区間決定部20dが「単位区分時間の顔あり区間」を決定し、動画像抽出部20aが「単位区分時間の顔あり区間」を抽出する処理を説明した図である。
図8に示すように、記録媒体Aから読み出したストリーム管理情報には、顔検出時間間隔(0.5秒)毎の顔検出情報が含まれおり、この顔検出情報には、顔検出された顔検出領域の数Nが含まれている。
サムネイル区間決定部20dは、顔検出された顔検出領域の数Nが“0”である区間が、4を越えて連続する区間、即ち、即ち2秒を越えて顔検出されない区間を「顔なし区間」とし、その他の区間を「顔あり区間」とする。
図8に示した例では、2秒を越えて顔検出されない区間205は、「顔なし区間」とされ、顔検出されないのが2秒以下である区間206は、「顔あり区間」とされる。
そして、動画像抽出部20aは、この「顔あり区間」の中から、単位区分時間分の顔あり区間207,208を抽出する。ここで、動画像抽出部20aにより抽出された「単位区分時間分の顔あり区間」の総数を抽出区間数Sという。
次に、動画像抽出部20aは、ストリーム管理情報に含まれる動画像の再生時間と、動画サムネイル時間記憶部19に記憶された動画サムネイル時間情報に基づいて、抽出区間数Sが、動画サムネイル再生区間数103未満か否かを判定する(ステップS104)。具体的には、動画像抽出部20aは、図5に示す動画サムネイル時間記憶部19に記憶された動画サムネイル時間情報に基づいて、ストリーム管理情報に含まれる動画像の再生時間に応じた動画サムネイル再生区間数103を決定し、抽出区間数Sが、この決定された動画サムネイル再生区間数103未満か否かを判定する。
ステップS104において、抽出区間数Sが動画サムネイル再生区間数103未満であると判定された場合(YESの場合)、動画像抽出部20aは、抽出済みの「単位区分時間の顔あり区間」を除いて、単位区分時間未満である「顔あり区間」があるか否かを判定する(ステップS105)。
ステップS105において、抽出済みの「単位区分時間の顔あり区間」を除いて単位区分時間未満である「顔あり区間」があると判定された場合(YESの場合)、動画像抽出部20aは、抽出済み「単位区分時間の顔あり区間」を除いて、動画像の先頭から「顔あり区間」を不足数だけ抽出する(ステップS106)。
そして、動画像抽出部20aは、ステップS106において抽出された区間の数を抽出区間数Sに加算し、確定抽出区間数Sfとする(ステップS107)。
ステップS105において、抽出済みの「単位区分時間の顔あり区間」を除いて単位区分時間未満である「顔あり区間」がないと判定された場合(NOの場合)、動画像抽出部20aは、確定抽出区間数Sfに抽出区間数Sを代入する(ステップS120)。
一方、ステップS104において、抽出区間数Sが動画サムネイル再生区間数103以上であると判定された場合(NOの場合)、動画像抽出部20aは、抽出区間数Sが動画サムネイル再生区間数103と同一であるか否かを判定する(ステップS108)。
ステップS108において、抽出区間数Sが動画サムネイル再生区間数103と同一であると判定された場合(YESの場合)、動画像抽出部20aは、確定抽出区間数Sfに抽出区間数Sを代入する(ステップS109)。
一方、ステップS108において、抽出区間数Sが動画サムネイル再生区間数103と同一ではないと判定された場合(NOの場合)、動画像抽出部20aは、顔検出情報に含まれる顔検出領域のサイズ(幅と高さ)に基づいて、「単位区分時間の顔あり区間」毎に、顔検出領域の面積の平均値を算出する(ステップS110)。
次に、動画像抽出部20aは、抽出された「単位区分時間の顔あり区間」を、ステップS110において算出された顔検出領域の面積の平均値が大きい順にソートする(ステップS111)。
そして、動画像抽出部20aは、ステップS111においてソートされた「単位区分時間の顔あり区間」から、動画サムネイル再生区間数103分だけ先頭から選択する(ステップS112)。
次に、動画像抽出部20aは、確定抽出区間数Sfに動画サムネイル再生区間数103数を代入する(ステップS113)。
このように、「単位区分時間の顔あり区間」のうち、顔検出領域の面積の平均値が高い区間から優先して選択されるので、人物の顔が大きく撮影されている区間が優先的に選択される。
以上のように、本発明の実施例1であるサムネイル生成装置1は、動画像抽出処理を実行することにより、動画像抽出部20aが、動画像の再生時間と顔検出時間間隔毎に顔検出された顔検出領域の数と、顔検出された顔検出領域のサイズ(幅と高さ)とに基づいて、所定時間連続して顔検出されなかったフレームを除く動画像から、動画像の再生時間を越えない、動画サムネイルの再生時間分の動画像(フレーム)を抽出することができる。
これにより、選択された静止画サムネイルに対応する動画サムネイルを生成するために、記録媒体Aに記録された動画像を構成するフレームのうち、適切な区間分のフレームを抽出することができる。
≪動画サムネイル生成及び表示処理≫
本発明の実施例1であるサムネイル生成装置1の動画サムネイル生成及び表示処理の詳細について説明する。
図9は、本発明の実施例1であるサムネイル生成装置1における動画サムネイル生成及び表示処理を示したフローチャートである。
まず、CPU20の縮小拡大率算出部20bは、区間のカウンタkの値に初期値として“0”を代入し(ステップS301)、顔検出領域のカウンタjの値に初期値として“1”を代入する(ステップS302)。
次に、CPU20の縮小拡大率算出部20bは、確定抽出区間数Sf分だけ抽出された「顔あり区間」のうち、第k区間において、顔検出情報に含まれる顔検出領域のサイズ(幅と高さ)に基づいて、顔検出領域(顔の領域)の面積の総和Bを算出する(ステップS303)。
さらに、CPU20の縮小拡大率算出部20bは、第k区間において、顔検出情報に含まれる顔検出領域の左上の座標(X,Y)と、顔検出領域のサイズ(幅と高さ)とに基づいて、顔検出領域を囲む動画像と同一のアスペクト比(16:9)の矩形領域(顔表示領域)の面積Aを算出する(ステップS304)。
図10は、本発明の実施例1であるサムネイル生成装置1が備えるCPU20の縮小拡大率算出部20bによる顔検出領域を囲むアスペクト比16:9の矩形領域の面積Aの算出を説明した図である。(a)は、ある区間内におけるt1時点からt5時点までにおける顔検出領域を示しており、(b)は、(a)示した顔検出領域を積分した場合におけるフレームの図であり、(c)は、顔検出領域がフレーム内で分散している場合の図であり、(d)は、顔検出領域がフレーム内で密集している場合の図である。
図10(a)に示すように、t1時点〜t5時点において、時間の経過と共に、検出された顔検出領域301〜305の位置が少しずつ移動している。
そして、これらの顔検出領域301〜305を積分すると、図10(b)に示すように、積分顔検出領域401となる。
縮小拡大率算出部20bは、この積分顔検出領域401を囲むアスペクト比(16:9)の矩形領域402の面積Aを算出する。
縮小拡大率算出部20bは、このようにして矩形領域の面積Aを算出するので、顔検出領域301〜305がフレーム内で分散していた場合、図10(c)に示すように、矩形領域403の面積Aは大きくなり、顔検出領域301〜305がフレーム内で密集していた場合、図10(d)に示すように、矩形領域404の面積Aは小さくなる。
次に、CPU20の縮小拡大率算出部20bは、ステップS304において算出された矩形領域の面積Aに対するステップS303において算出された顔検出領域の面積の総和Bが所定の閾値Rより小さいか否かを判定する(ステップS305)。
ここで、この閾値Rは、小さすぎると、後述するように、矩形領域の面積Aが大きくても、矩形領域の面積が動画サムネイルの面積と同一となるように、動画像の縮小拡大率を算出するので、動画サムネイルの効果的な拡大表示ができなくなる。また、閾値Rは、大きすぎると、矩形領域の面積Aが小さく、複数の顔検出領域それぞれが拡大されるようにしたい場合でも、評価点Pが最大の1つの顔検出領域のみを拡大するように、動画像の縮小拡大率を算出してしまうので、この場合も動画サムネイルの効果的な拡大表示ができなくなる。
ステップS305において、矩形領域の面積Aに対する顔検出領域の面積の総和Bが所定の閾値R以上であると判定された場合(NOの場合)、縮小拡大率算出部20bは、矩形領域のサイズ(幅と高さ)が動画サムネイルのサイズ(幅と高さ)と同一となるように、動画像の縮小拡大率を算出する(ステップS306)。
図11は、本発明の実施例1であるサムネイル生成装置1が備える縮小拡大率算出部20bによる動画像の縮小拡大率の算出を説明した図である。(a)は、縮小拡大する動画像のフレームの一例を示しており、(b)は、OSD画面17aの一例を示している。
図11(a)に示すように、動画像のフレームのサイズがX×Y(アスペクト比16:9)、矩形領域501のサイズがX2×Y2(アスペクト比16:9)であり、図11(b)に示すように、OSD画面17aの動画サムネイルのサイズ、即ちハイライト枠17kのサイズがX1×Y1(アスペクト比16:9)であるとする。
この場合、縮小拡大率算出部20bは、矩形領域501のサイズがハイライト枠17kのサイズと同一となるように、動画像の縮小拡大率を算出する。即ち縮小拡大率をQとすると、下記の(数式1)を用いて縮小拡大率Qを算出する。
Q=(X1/X)×(X1/X2) ・・・(数式1)
なお、(X1/X2)のX2の値は、図11(a)に示したオリジナルの動画像にフレーム中のX2の大きさではなく、図11(b)に示した動画サムネイルに合わせられた動画像のフレーム中のX2の大きさを表している。このように、縮小拡大率算出部20bは、矩形領域501のサイズがハイライト枠17kのサイズと同一となるように、動画像の縮小拡大率を算出するので、(X1/X)よりも(X1/X2)が大きい場合、動画サムネイルとしては拡大されて表示されているように見えるが、実際には、この動画サムネイルの画像は元の動画像から縮小または拡大されて表示されることとなる。
一方、図9におけるステップS305において、矩形領域の面積Aに対する顔検出領域の面積の総和Bが所定の閾値R未満であると判定された場合(YESの場合)、縮小拡大率算出部20bは、第k区間において、N個の顔検出された顔検出領域のうち第j番目の顔検出領域の評価点P(j)を、下記の(数式2)を用いて算出する(ステップS307)。
P(j)=第j番目の顔検出領域の面積−(画面の中央から第j番目の顔検出領域の中央までの長さ)×0.2・・・(数式2)
そして、縮小拡大率算出部20bは、カウンタjの値を“1”だけ加算した後(ステップS308)、カウンタjの値が、顔検出された顔検出領域の数Nを越えたか否かを判定する(ステップS309)。
ステップS309において、カウンタjの値が顔検出された顔検出領域の数Nを越えたと判定された場合(YESの場合)、縮小拡大率算出部20bは、N個の顔検出された顔検出領域のうち、画面の中心に近くかつ面積が大きい顔検出領域、即ち、評価点Pの値が最も高い顔検出領域を代表領域として選択する(ステップS310)。
次に、縮小拡大率算出部20bは、ステップS310において選択された代表領域のサイズ(幅と高さ)が動画サムネイルのサイズ(幅と高さ)と略同一となるように、動画像の縮小拡大率を算出する(ステップS311)。
図12は、本発明の実施例1であるサムネイル生成装置1が備える縮小拡大率算出部20bによる動画像の縮小拡大率の算出を説明した図である。(a)は、縮小または拡大する動画像のフレームの一例を示しており、(b)は、OSD画面17aの一例を示している。
図12(a)に示すように、動画像のフレームのサイズがX×Y(アスペクト比16:9)、代表領域502のサイズがX3×Y3(アスペクト比16:9)であり、図12(b)に示すように、OSD画面17aの動画サムネイルのサイズ、即ちハイライト枠17kのサイズがX1×Y1(アスペクト比16:9)であるとする。
この場合、縮小拡大率算出部20bは、代表領域502のサイズがハイライト枠17kのサイズと同一となるように、動画像の縮小拡大率を算出する。即ち縮小拡大率をQとすると、上述した(数式1)を用いて、X2,Y2をそれぞれX3,Y3に置き換えることにより縮小拡大率Qを算出する。
このように、縮小拡大率算出部20bが、ステップS310において選択された代表領域のサイズ(幅と高さ)が動画サムネイルのサイズ(幅と高さ)と略同一となるように、動画像の縮小拡大率を算出するので、人物の顔が拡大されやすくなり、利用者は動画像の内容を把握し易くなる。
次に、縮小拡大部15は、縮小拡大率算出部20bにより算出された縮小拡大率に基づいて、動画像を縮小または拡大し、動画サムネイルを生成する(ステップS312)。
これにより、この生成した動画サムネイルを含む再生画像データが供給された加算器16は、OSD画像データに基づいて、動画再生画面の上にOSD画面が重なるように、2つの画面を合成し、この合成された画面をユーザインタフェース部17に表示させる。
次に、CPU20の縮小拡大率算出部20bは、カウンタkの値を“1”だけ加算した後(ステップS313)、カウンタkが確定抽出区間数Sf以上か否かを判定し(ステップS314)、カウンタkが確定抽出区間数Sf以上になるまで、ステップS303〜S314の処理を繰り返し実行する。
以上のように、本発明の実施例1であるサムネイル生成装置1によれば、利用者にとって動画像の内容が把握しやすい動画サムネイルを生成し、表示することができる。
なお、本発明の実施例1では、ビデオカメラ101から媒体Aを介して、検出された人物の顔に関する顔検出情報が供給され、供給された顔検出情報に基づいて、動画サムネイルを生成するサムネイル生成装置を例に挙げて説明したが、これに限らず、ビデオカメラ101とネットワークを介して接続され、このネットワークを介してビデオカメラ101から検出された人物の顔に関する顔検出情報が供給され、供給された顔検出情報に基づいて、動画サムネイルを生成するようにしてもよい。
本発明の実施例1では、撮像された動画像に基づいて人物の顔を検出する顔検出装置が適用されたビデオカメラ101により、記録媒体Aを介して、検出された人物の顔に関する顔検出情報が供給され、供給された顔検出情報に基づいて、動画像を縮小または拡大して動画サムネイルを生成するサムネイル生成装置を例に挙げて説明したが、さらに、登録された顔特徴情報に基づいて、動画像を縮小または拡大して動画サムネイルを生成するようにしてもよい。
そこで、本発明の実施例2では、撮像された動画像に基づいて人物の顔を検出する顔検出装置が適用されたビデオカメラ101により、記録媒体Aを介して、検出された人物の顔に関する顔検出情報が供給され、供給された顔検出情報と顔特徴情報とに基づいて、動画像を縮小または拡大して動画サムネイルを生成するサムネイル生成装置を例に挙げて説明する。
<ビデオカメラ101の構成>
本発明の実施例2であるサムネイル生成装置に供給するためのAVストリーム及びストリーム管理情報を記録媒体Aに記録するビデオカメラ101の構成は、本発明の実施例1であるサムネイル生成装置1に供給するためのAVストリーム及びストリーム管理情報を記録媒体Aに記録するビデオカメラ101と同一構成を有するので、説明を省略する。
<サムネイル生成装置の構成>
図13は、本発明の実施例2であるサムネイル生成装置1Aの構成を示した構成図である。
図13に示すように、本発明の実施例2であるサムネイル生成装置1Aは、デマルチプレクサ11と、AC3デコーダ12と、スピーカ13と、H.264デコーダ14と、縮小拡大部15と、加算器16と、ユーザインタフェース部17と、OSD生成部18と、CPU20Aと、動画サムネイル時間記憶部19と、顔特徴情報記憶部21とを備える。
このうち、デマルチプレクサ11と、AC3デコーダ12と、スピーカ13と、H.264デコーダ14と、縮小拡大部15と、加算器16と、ユーザインタフェース部17と、OSD生成部18と、動画サムネイル時間記憶部19とは、本発明の実施例1であるサムネイル生成装置1が備えるそれぞれ同一符号が付された構成と同一であるので、説明を省略する。
顔特徴情報記憶部21は、人物を一意に識別する人物IDと、顔の特徴情報とを関連付けて顔特徴情報として記憶する。
図14は、本発明の実施例2であるサムネイル生成装置1Aが備える顔特徴情報記憶部21に記憶された顔特徴情報の一例を示した図である。
図14に示すように、カラム名“人物ID”(符号601)と、カラム名“特徴情報”(符号602)とが関連付けられて、顔特徴情報として記憶されている。なお、顔特徴情報とは、目、鼻、及び口等の大きさ及び形等の人物の顔を一意に識別可能な顔の特徴を示す情報である。
CPU20Aは、サムネイル生成装置1Aの中枢的な制御を行う。また、CPU20Aは、その機能上、動画像抽出部20aと、縮小拡大率算出部20cとを備える。
動画像抽出部20aは、動画像の再生時間と顔検出時間間隔毎に検出された顔画像の数とに基づいて、所定時間連続して顔検出されなかった時間を除く動画像のフレームから、動画サムネイルの再生時間を越えない時間分の動画像のフレームを抽出する。
縮小拡大率算出部20cは、ビデオカメラ101から顔特徴情報を含む顔検出情報が供給された場合に、供給された顔検出情報に含まれる顔特徴情報が、顔特徴情報記憶部21に記憶されている顔特徴情報に一致又は近似しているか否かを判定し、一致又は近似していると判定された場合に、この一致又は近似している顔特徴情報に対応する顔検出領域が最大になるように動画像の縮小拡大率を算出する。
具体的には、縮小拡大率算出部20cは、一致又は近似している顔特徴情報に対応する顔検出領域を登録顔領域として選択し、この選択された登録顔領域のサイズが動画サムネイルのサイズと略同一となるように、動画像の縮小拡大率を算出する。
図15は、本発明の実施例2であるサムネイル生成装置1Aが備える縮小拡大率算出部20cによる動画像の縮小拡大率の算出を説明した図である。(a)は、縮小または拡大する動画像のフレームの一例を示しており、(b)は、OSD画面17aの一例を示している。
図15(a)に示すように、動画像のフレームのサイズがX×Y(アスペクト比16:9)、登録顔領域601のサイズがX4×Y4(アスペクト比16:9)であり、図15(b)に示すように、OSD画面17aの動画サムネイルのサイズ、即ちハイライト枠17kのサイズがX1×Y1(アスペクト比16:9)であるとする。
この場合、縮小拡大率算出部20bは、登録顔領域601のサイズがハイライト枠17kのサイズと同一となるように、動画像の縮小拡大率を算出する。即ち縮小拡大率をQとすると、上述した(数式1)を用いて、X2,Y2をそれぞれX4,Y4に置き換えることにより縮小拡大率Qを算出する。
このように、縮小拡大率算出部20cは、選択された登録顔領域のサイズが動画サムネイルのサイズと略同一となるように、動画像の縮小拡大率を算出するので、登録された人物の顔が拡大されやすくなる。これにより、利用者は所望の人物の顔画像を注目して見やすくなるので、動画像の内容を把握し易くなる。
以上のように、本発明の実施例2であるサムネイル生成装置1Aによれば顔特徴情報記憶部21と、縮小拡大率算出部20cとを備えているので、本発明の実施例1であるサムネイル生成装置1による効果に加えて、予め登録された1人以上の人物を優先的に拡大して動画サムネイルとして表示することができる。
本実施例2では、検出されている顔の中に、予め記憶している顔の特徴と一致する顔が検出された場合、この一致した顔をのみを処理対象とすることで、例えば、他人の子供と自分の子供が一緒に撮影された動画像においても、自分の子供の顔だけを動画サムネイルで拡大表示させることができる。
1,1A…サムネイル生成装置
11…デマルチプレクサ
12…AC3デコーダ
13…スピーカ
14…H.264デコーダ
15…縮小拡大部
16…加算器
17…ユーザインタフェース部
17a…画像表示部
17b…操作ボタン
17c…スライダー
17d…サムネイル表示領域
17e…操作ガイド表示領域
17f…ページ表示領域
17g…画像表示部
17k…ハイライト枠
17h…動画再生画面
17j…動画サムネイル
18…OSD生成部
19…動画サムネイル時間記憶部
20,20A,131…CPU
20a…動画像抽出部
20b,20c…縮小拡大率算出部
20d…サムネイル区間決定部
21…顔特徴情報記憶部
101…ビデオカメラ
111…光学レンズ
112…画像素子部
113…信号処理部
114…H.264エンコーダ
115…マルチプレクサ
116…顔検出部
117…加算器
121…マイク
122…A/D変換部
123…AC3エンコーダ

Claims (5)

  1. 動画像の第1の所定期間内において、前記第1の所定期間よりも短い第2の所定期間毎に、前記動画像を構成する各画像を抽出する動画像抽出手段と、
    抽出された各画像に含まれる人物の顔の領域を積分し、この積分された顔の領域を囲むように顔表示領域を決定し、この決定された顔表示領域のサイズが、予め動画サムネイルを表示するために定められた所定の表示領域のサイズと同一となるように、前記動画像の縮小拡大率を算出する縮小拡大率算出手段と、
    算出された前記縮小拡大率に基づいて、前記動画像を縮小または拡大し、前記動画サムネイルを生成する動画サムネイル生成手段と、
    を備えたことを特徴とするサムネイル生成装置。
  2. 前記動画像抽出手段によって抽出された各画像のうち、人物の顔の領域が存在する画像の連続する数に基づいて、前記第1の所定期間を1つ以上決定するサムネイル区間決定手段
    を更に備えることを特徴とした請求項1記載のサムネイル生成装置。
  3. 前記縮小拡大率算出手段は、
    前記顔表示領域の面積の値を分母とし、前記顔の領域の合計面積の値を分子として求めた比の値が、所定の閾値より小さい場合、前記顔の領域のうち中心に近くかつ面積が最も大きい顔の領域を代表領域として、この代表領域のサイズが前記表示領域のサイズと同一となるように、前記縮小拡大率を算出する
    ことを特徴とした請求項1又は2記載のサムネイル生成装置。
  4. 人物の顔を一意に識別可能な顔の特徴を顔特徴情報として記憶する顔特徴情報記憶手段と、を更に備え、
    前記縮小拡大率算出手段は、
    前記顔の領域内に存在する顔の特徴が、前記顔特徴情報記憶手段に記憶されている顔特徴情報が示す顔の特徴と一致又は近似しているか否かを判定し、一致又は近似していると判定された場合に、この一致又は近似している顔の特徴に対応する前記顔の領域のサイズを前記表示領域のサイズと同一となるように、前記縮小拡大率を算出する
    ことを特徴とした請求項1又は2記載のサムネイル生成装置。
  5. 動画像の第1の所定期間内において、前記第1の所定期間よりも短い第2の所定期間毎に、前記動画像を構成する各画像を抽出する動画像抽出ステップと、
    抽出された各画像に含まれる人物の顔の領域を積分し、この積分された顔の領域を囲むように顔表示領域を決定し、この決定された顔表示領域のサイズが、予めサムネイルを表示するために定められた所定の表示領域のサイズと同一となるように、前記動画像の縮小拡大率を算出する縮小率算出ステップと、
    算出された前記縮小拡大率に基づいて、前記動画像を縮小または拡大し、前記動画サムネイルを生成する動画サムネイル生成ステップと、
    を有することを特徴とするサムネイル生成方法。
JP2009073345A 2009-03-25 2009-03-25 サムネイル生成装置、サムネイル生成方法、及びサムネイル生成プログラム Active JP4640515B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2009073345A JP4640515B2 (ja) 2009-03-25 2009-03-25 サムネイル生成装置、サムネイル生成方法、及びサムネイル生成プログラム
CN201080013004.3A CN102362491B (zh) 2009-03-25 2010-01-28 缩略图生成装置及缩略图生成方法
US13/259,685 US8849093B2 (en) 2009-03-25 2010-01-28 Thumbnail generating apparatus and thumbnail generating method
KR1020117024660A KR101296152B1 (ko) 2009-03-25 2010-01-28 섬네일 생성 장치 및 섬네일 생성 방법
PCT/JP2010/051100 WO2010109943A1 (ja) 2009-03-25 2010-01-28 サムネイル生成装置及びサムネイル生成方法
EP10755744.9A EP2413597B1 (en) 2009-03-25 2010-01-28 Thumbnail generation device and method of generating thumbnail

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009073345A JP4640515B2 (ja) 2009-03-25 2009-03-25 サムネイル生成装置、サムネイル生成方法、及びサムネイル生成プログラム

Publications (2)

Publication Number Publication Date
JP2010226572A JP2010226572A (ja) 2010-10-07
JP4640515B2 true JP4640515B2 (ja) 2011-03-02

Family

ID=42780640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009073345A Active JP4640515B2 (ja) 2009-03-25 2009-03-25 サムネイル生成装置、サムネイル生成方法、及びサムネイル生成プログラム

Country Status (6)

Country Link
US (1) US8849093B2 (ja)
EP (1) EP2413597B1 (ja)
JP (1) JP4640515B2 (ja)
KR (1) KR101296152B1 (ja)
CN (1) CN102362491B (ja)
WO (1) WO2010109943A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101952260B1 (ko) * 2012-04-03 2019-02-26 삼성전자주식회사 다수의 동영상 썸네일을 동시에 표시하기 위한 영상 재생 장치 및 방법
US10368010B2 (en) * 2012-07-31 2019-07-30 Nec Corporation Image processing system, image processing method, and program
CN102999599B (zh) * 2012-11-19 2015-10-07 北京奇虎科技有限公司 一种图片展示方法和装置
KR20140100784A (ko) * 2013-02-07 2014-08-18 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법
CN104063844B (zh) * 2013-03-21 2019-01-15 腾讯科技(深圳)有限公司 一种缩略图生成方法及系统
JP2014220724A (ja) * 2013-05-10 2014-11-20 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
CN104252696B (zh) * 2013-06-28 2017-12-12 广州华多网络科技有限公司 获取缩略图的方法及装置
CN103927713B (zh) * 2014-04-23 2017-07-18 锤子科技(北京)有限公司 图片缩略图的获取方法及装置
CN104063444A (zh) * 2014-06-13 2014-09-24 百度在线网络技术(北京)有限公司 缩略图的生成方法和装置
KR102252448B1 (ko) 2014-09-12 2021-05-14 삼성전자주식회사 제어 방법 및 그 방법을 처리하는 전자장치
WO2016051803A1 (ja) * 2014-10-03 2016-04-07 パナソニックIpマネジメント株式会社 コンテンツ受信装置、コンテンツ受信システム、コンテンツ受信装置の制御方法、およびプログラム
US10051313B2 (en) 2014-10-03 2018-08-14 Panasonic Intellectual Property Management Co., Ltd. Content reception device, content reception system, content reception device control method, and program
CN104504104B (zh) * 2014-12-30 2018-09-07 百度在线网络技术(北京)有限公司 用于搜索引擎的图片物料处理方法、装置和搜索引擎
JP6579925B2 (ja) * 2015-11-17 2019-09-25 キヤノン株式会社 画像再生装置およびその制御方法ならびにプログラムならびに記録媒体
US10347294B2 (en) * 2016-06-30 2019-07-09 Google Llc Generating moving thumbnails for videos
CN106341623A (zh) * 2016-10-19 2017-01-18 上海传英信息技术有限公司 连拍图片动态缩略图的生成方法及用户终端
US11169661B2 (en) * 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
JP6958226B2 (ja) * 2017-10-23 2021-11-02 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7171212B2 (ja) * 2018-04-02 2022-11-15 キヤノン株式会社 情報処理装置、画像表示方法、コンピュータプログラム、及び記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746582A (ja) * 1993-07-28 1995-02-14 Nippon Telegr & Teleph Corp <Ntt> 映像切り出し方法
JP2002223412A (ja) * 2001-01-26 2002-08-09 Canon Inc 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラムソフトウェア
JP2005210573A (ja) * 2004-01-26 2005-08-04 Mitsubishi Electric Corp 映像表示システム
JP2008147838A (ja) * 2006-12-07 2008-06-26 Sony Corp 画像処理装置、画像処理方法、およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060064716A1 (en) * 2000-07-24 2006-03-23 Vivcom, Inc. Techniques for navigating multiple video streams
JP4340806B2 (ja) 2004-03-22 2009-10-07 富士フイルム株式会社 画像処理装置、方法及びプログラム
JP4489608B2 (ja) * 2004-03-31 2010-06-23 富士フイルム株式会社 ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法
JP4359773B2 (ja) * 2004-06-22 2009-11-04 ソニー株式会社 画像圧縮処理装置、画像圧縮処理方法および画像圧縮処理プログラム
EP1830361A1 (en) * 2006-03-02 2007-09-05 Sony Corporation Image displaying method and video playback apparatus
JP2008017042A (ja) * 2006-07-04 2008-01-24 Sony Corp 情報処理装置および方法、並びにプログラム
JP4998026B2 (ja) * 2007-03-15 2012-08-15 ソニー株式会社 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
JP4518131B2 (ja) * 2007-10-05 2010-08-04 富士フイルム株式会社 撮像方法及び装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746582A (ja) * 1993-07-28 1995-02-14 Nippon Telegr & Teleph Corp <Ntt> 映像切り出し方法
JP2002223412A (ja) * 2001-01-26 2002-08-09 Canon Inc 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラムソフトウェア
JP2005210573A (ja) * 2004-01-26 2005-08-04 Mitsubishi Electric Corp 映像表示システム
JP2008147838A (ja) * 2006-12-07 2008-06-26 Sony Corp 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
KR101296152B1 (ko) 2013-08-19
WO2010109943A1 (ja) 2010-09-30
JP2010226572A (ja) 2010-10-07
KR20120001765A (ko) 2012-01-04
CN102362491B (zh) 2014-06-18
CN102362491A (zh) 2012-02-22
EP2413597A1 (en) 2012-02-01
EP2413597B1 (en) 2015-09-30
US20120020643A1 (en) 2012-01-26
EP2413597A4 (en) 2013-02-06
US8849093B2 (en) 2014-09-30

Similar Documents

Publication Publication Date Title
JP4640515B2 (ja) サムネイル生成装置、サムネイル生成方法、及びサムネイル生成プログラム
JP4525558B2 (ja) 情報処理装置、撮像装置、および情報処理方法、並びにコンピュータ・プログラム
JP5326910B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP4379409B2 (ja) 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
JP6249202B2 (ja) 画像表示装置、画像表示方法、およびプログラム
KR101376455B1 (ko) 화상 처리 장치 및 화상 표시 방법
US9779775B2 (en) Automatic generation of compilation videos from an original video based on metadata associated with the original video
TWI579838B (zh) 編譯視訊的自動產生
CN104092957B (zh) 一种融合人像和语音的屏幕视频生成方法
KR100883066B1 (ko) 텍스트를 이용한 피사체 이동 경로 표시장치 및 방법
JP2007241496A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5630541B2 (ja) 情報処理装置、情報処理方法およびプログラム
EP1347455A2 (en) Contents recording/playback apparatus and contents edit method
WO2014181529A1 (en) Display control apparatus, display control method, and program
EP2057531A1 (en) Method and device for adaptive video presentation
JP5329130B2 (ja) 検索結果表示方法
JP2009017598A (ja) 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
WO2014181532A1 (en) Display control apparatus, display control method, and program
WO2017022296A1 (ja) 情報管理装置及び情報管理方法、並びに映像再生装置及び映像再生方法
JP2017225037A (ja) 画像処理装置及び撮像装置
JP2010034918A (ja) 動画像再生装置
KR101481689B1 (ko) 숫자정보를 이용한 멀티미디어 컨텐츠 탐색방법 및 장치
JP2009152834A (ja) 画像再生装置
WO2015127385A1 (en) Automatic generation of compilation videos
JP5454391B2 (ja) 画像処理装置

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20100715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101115

R151 Written notification of patent or utility model registration

Ref document number: 4640515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350