JP7476138B2 - ビデオ処理方法、装置、電子機器及び記憶媒体 - Google Patents
ビデオ処理方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP7476138B2 JP7476138B2 JP2021079649A JP2021079649A JP7476138B2 JP 7476138 B2 JP7476138 B2 JP 7476138B2 JP 2021079649 A JP2021079649 A JP 2021079649A JP 2021079649 A JP2021079649 A JP 2021079649A JP 7476138 B2 JP7476138 B2 JP 7476138B2
- Authority
- JP
- Japan
- Prior art keywords
- frames
- texts
- video
- entities
- serial number
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003860 storage Methods 0.000 title claims description 24
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000012545 processing Methods 0.000 claims description 78
- 238000000034 method Methods 0.000 claims description 45
- 230000011218 segmentation Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 230000008520 organization Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 238000013509 system migration Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7844—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/7867—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4622—Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
- Character Discrimination (AREA)
- Studio Devices (AREA)
- Collating Specific Patterns (AREA)
Description
本開示の第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに上記実施例に第1の態様に記載の方法を実行させる。
本開示の実施例によれば、本開示は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本開示によって提供されるビデオ処理方法を実行させる。
Claims (23)
- コンピュータによって実行されるビデオ処理方法であって、
ニューラルネットワークモデルを使用して、ターゲットビデオ内の第1のオブジェクトが含まれる複数のフレームに基づいて、前記第1のオブジェクトに関連する複数の第1の識別子を決定するステップと、
前記第1のオブジェクトに関連する知識ベースを前記複数の第1の識別子で検索して、前記複数の第1の識別子に関連付けられた複数の属性値を決定するステップであって、前記知識ベースには、前記第1のオブジェクトに関連する識別子と識別子に関連付けられた属性値とが含まれるステップと、
前記複数のフレームから、関連付けられた属性値が所定の値である前記第1の識別子に対応するフレームのセットを決定するステップと、
前記複数のフレームにおける前記フレームのセットの位置に基づいて、前記ターゲットビデオを複数のビデオセグメントに分割するステップと、
を含むビデオ処理方法。 - 前記ターゲットビデオを前記複数のビデオセグメントに分割するステップが、
前記位置に基づいて、前記複数のフレームにおける前記フレームのセットのシリアル番号を決定するステップと、
前記シリアル番号における連続シリアル番号を決定するステップと、
前記連続シリアル番号の開始シリアル番号に対応するフレームに基づいて、前記ターゲットビデオを分割するステップと、
を含む請求項1に記載の方法。 - 前記ターゲットビデオを分割するステップが、
前記連続シリアル番号の終了シリアル番号を決定するステップと、
前記終了シリアル番号に対応するフレームと前記開始シリアル番号に対応するフレームとに基づいて、前記ターゲットビデオの1つのビデオセグメントにおける第1のビデオサブセグメントと第2のビデオサブセグメントとを決定するステップと、
を含む請求項2に記載の方法。 - 前記複数の第1の識別子における各識別子の信頼度がいずれも閾値信頼度を超える請求項1に記載の方法。
- 前記複数の第1の識別子を決定するステップが、
前記ターゲットビデオの所定の間隔のフレームに対して顔認識を行って、前記複数のフレームを取得するステップと、
ニューラルネットワークモデルを使用して、前記複数のフレームに基づいて前記複数の第1の識別子を決定するステップと、
を含む請求項1に記載の方法。 - 前記複数のフレームから複数の第1のテキストを取得するステップと、
前記複数の第1のテキストから複数の第1のエンティティを取得するステップであって、前記第1のエンティティが、人の名前、場所の名前、及び組織の名前を含むステップと、
前記複数の第1のテキストと前記複数のフレームとの対応関係に基づいて、前記複数の第1のテキストを前記複数のビデオセグメントに対応させ、イベント抽出モデルによって、前記複数のビデオセグメントに対応する前記複数の第1のテキストと前記複数の第1のエンティティとに基づいて、前記複数のビデオセグメントに関連付けられた複数のイベントを抽出するステップと、
を含む請求項1に記載の方法。 - 前記複数の第1のテキストにおける各第1のテキストの信頼度がいずれも閾値信頼度を超える請求項6に記載の方法。
- 前記複数のフレームから前記複数の第1のテキストを取得するステップが、
前記複数のフレームに対してCR処理を行って、複数の初期テキストを取得するステップと、
前記初期テキストのコンテンツのフォントサイズが閾値フォントサイズよりも小さいコンテンツ及び/又は前記複数のフレーム内の最下位置に位置するコンテンツを、前記複数のフレームと無関係なコンテンツとして決定し、前記複数の初期テキストから前記複数のフレームと無関係なコンテンツを除去して、前記複数の第1のテキストを取得するステップと、
を含む請求項6に記載の方法。 - 前記複数の第1のエンティティにおける各第1のエンティティの信頼度がいずれも閾値信頼度を超える請求項6に記載の方法。
- 前記複数のイベントを決定するステップが、
ターゲットビデオの前記複数のフレームに対応するオーディオに対して音声認識を行って、複数の第2のテキストを決定するステップと、
前記複数の第2のテキストから複数の第2のエンティティを取得するステップであって、前記第2のエンティティは、人の名前、場所の名前、及び組織の名前を含むステップと、
前記複数の第1のテキスト、前記複数の第1のエンティティ、前記複数の第2のテキスト及び前記複数の第2のエンティティに基づいて、前記複数のイベントを決定するステップと、
を含み、
前記複数の第1のテキスト、前記複数の第1のエンティティ、前記複数の第2のテキスト及び前記複数の第2のエンティティに基づいて、前記複数のイベントを決定するステップが、
前記複数の第1のテキストと前記複数のフレームとの対応関係に基づいて、前記複数の第1のテキストを前記複数のビデオセグメントに対応させ、前記複数の第2のテキストと前記複数のフレームとの対応関係に基づいて、前記複数の第2のテキストを前記複数のビデオセグメントに対応させ、イベント抽出モデルによって、前記複数のビデオセグメントに対応する前記複数の第1のテキスト、前記複数の第1のエンティティ、前記複数の第2のテキスト及び前記複数の第2のエンティティに基づいて、前記複数のビデオセグメントに関連付けられた複数のイベントを抽出するステップを含む請求項6に記載の方法。 - ニューラルネットワークモデルを使用して、ターゲットビデオ内の第1のオブジェクトが含まれる複数のフレームに基づいて、前記第1のオブジェクトに関連する複数の第1の識別子を決定するように構成される識別子決定モジュールと、
前記第1のオブジェクトに関連する知識ベースを前記複数の第1の識別子で検索して、前記複数の第1の識別子に関連付けられた複数の属性値を決定するように構成される属性値決定モジュールであって、前記知識ベースには、前記第1のオブジェクトに関連する識別子と識別子に関連付けられた属性値とが含まれる属性値決定モジュールと、
前記複数のフレームから、関連付けられた属性値が所定の値である前記第1の識別子に対応するフレームのセットを決定するように構成されるフレーム決定モジュールと、
前記複数のフレームにおける前記フレームのセットの位置に基づいて、前記ターゲットビデオを複数のビデオセグメントに分割するように構成されるセグメント分割モジュールと、
を備えるビデオ処理装置。 - 前記セグメント分割モジュールが、
前記位置に基づいて、前記複数のフレームにおける前記フレームのセットのシリアル番号を決定するように構成されるシリアル番号決定モジュールと、
前記シリアル番号における連続シリアル番号を決定するように構成される連続シリアル番号決定モジュールと、
前記連続シリアル番号の開始シリアル番号に対応するフレームに基づいて、前記ターゲットビデオを分割するように構成される分割モジュールと、
を備える請求項11に記載の装置。 - 前記分割モジュールが、
前記連続シリアル番号の終了シリアル番号を決定するように構成される終了シリアル番号決定モジュールと、
前記終了シリアル番号に対応するフレームと前記開始シリアル番号に対応するフレームとに基づいて、前記ターゲットビデオの1つのビデオセグメントにおける第1のビデオサブセグメントと第2のビデオサブセグメントとを決定するように構成されるサブセグメント決定モジュールと、
を備える請求項12に記載の装置。 - 前記複数の第1の識別子における各識別子の信頼度がいずれも閾値信頼度を超える請求項11に記載の装置。
- 前記識別子決定モジュールが、
前記ターゲットビデオの所定の間隔のフレームに対して顔認識を行って、前記複数のフレームを取得するように構成される顔認識モジュールと、
ニューラルネットワークモデルを使用して、前記複数のフレームに基づいて前記複数の第1の識別子を決定するように構成される決定モジュールと、
を備える請求項11に記載の装置。 - 前記複数のフレームから複数の第1のテキストを取得するように構成される第1のテキスト取得モジュールと、
前記複数の第1のテキストから複数の第1のエンティティを取得するように構成される第1のエンティティ取得モジュールであって、前記第1のエンティティが、人の名前、場所の名前、及び組織の名前を含む第1のエンティティ取得モジュールと、
前記複数の第1のテキストと前記複数のフレームとの対応関係に基づいて、前記複数の第1のテキストを前記複数のビデオセグメントに対応させ、イベント抽出モデルによって、前記複数のビデオセグメントに対応する前記複数の第1のテキストと前記複数の第1のエンティティとに基づいて、前記複数のビデオセグメントに関連付けられた複数のイベントを抽出するように構成されるイベント決定モジュールと、
を備える請求項11に記載の装置。 - 前記複数の第1のテキストにおける各第1のテキストの信頼度がいずれも閾値信頼度を超える請求項16に記載の装置。
- 前記第1のテキスト取得モジュールが、
前記複数のフレームに対してCR処理を行って、複数の初期テキストを取得するように構成される初期テキスト取得モジュールと、
前記初期テキストのコンテンツのフォントサイズが閾値フォントサイズよりも小さいコンテンツ及び/又は前記複数のフレーム内の最下位置に位置するコンテンツを、前記複数のフレームと無関係なコンテンツとして決定し、前記複数の初期テキストから前記複数のフレームと無関係なコンテンツを除去して、前記複数の第1のテキストを取得するように構成される無関係なコンテンツ除去モジュールと、
を備える請求項16に記載の装置。 - 前記複数の第1のエンティティにおける各第1のエンティティの信頼度がいずれも閾値信頼度を超える請求項16に記載の装置。
- 前記イベント決定モジュールが、
ターゲットビデオの前記の複数フレームに対応するオーディオに対して音声認識を行って、複数の第2のテキストを決定するように構成される第2のテキスト決定モジュールと、
前記複数の第2のテキストから複数の第2のエンティティを取得するように構成される第2のエンティティ取得モジュールであって、前記第2のエンティティは、人の名前、場所の名前、及び組織の名前を含む第2のエンティティ取得モジュールと、
前記複数の第1のテキスト、前記複数の第1のエンティティ、前記複数の第2のテキスト及び前記複数の第2のエンティティに基づいて、前記複数のイベントを決定するように構成される決定モジュールと、
を含み、
前記決定モジュールが、
前記複数の第1のテキストと前記複数のフレームとの対応関係に基づいて、前記複数の第1のテキストを前記複数のビデオセグメントに対応させ、前記複数の第2のテキストと前記複数のフレームとの対応関係に基づいて、前記複数の第2のテキストを前記複数のビデオセグメントに対応させ、イベント抽出モデルによって、前記複数のビデオセグメントに対応する前記複数の第1のテキスト、前記複数の第1のエンティティ、前記複数の第2のテキスト及び前記複数の第2のエンティティに基づいて、前記複数のビデオセグメントに関連付けられた複数のイベントを抽出する請求項16に記載の装置。 - 少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
を備え、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から10のいずれか一項に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令が、コンピュータに請求項1から10のいずれか一項に記載の方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータに請求項1から10のいずれか一項に記載の方法を実行させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010532039.3A CN111708914A (zh) | 2020-06-11 | 2020-06-11 | 用于视频处理的方法、装置、电子设备和存储介质 |
CN202010532039.3 | 2020-06-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021166050A JP2021166050A (ja) | 2021-10-14 |
JP7476138B2 true JP7476138B2 (ja) | 2024-04-30 |
Family
ID=72540100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021079649A Active JP7476138B2 (ja) | 2020-06-11 | 2021-05-10 | ビデオ処理方法、装置、電子機器及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11490170B2 (ja) |
EP (1) | EP3923591A1 (ja) |
JP (1) | JP7476138B2 (ja) |
KR (1) | KR102553511B1 (ja) |
CN (1) | CN111708914A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114302231B (zh) * | 2021-12-31 | 2023-08-18 | 中国传媒大学 | 视频处理方法及装置、电子设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002149672A (ja) | 2000-11-08 | 2002-05-24 | Nec Corp | Avコンテンツ自動要約システム及びavコンテンツ自動要約方式 |
JP2005210573A (ja) | 2004-01-26 | 2005-08-04 | Mitsubishi Electric Corp | 映像表示システム |
JP2020115285A (ja) | 2019-01-17 | 2020-07-30 | ヤフー株式会社 | 算出装置、算出方法、算出プログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6961954B1 (en) * | 1997-10-27 | 2005-11-01 | The Mitre Corporation | Automated segmentation, information extraction, summarization, and presentation of broadcast news |
CN1195274C (zh) * | 2003-01-25 | 2005-03-30 | 华中科技大学 | 基于集群视频服务器的节目源分片分布式存储方法 |
KR100687732B1 (ko) * | 2005-11-24 | 2007-02-27 | 한국전자통신연구원 | 내용 기반 멀티 모달 특징값을 이용한 유해 동영상 차단방법 및 그 장치 |
CN102547139A (zh) * | 2010-12-30 | 2012-07-04 | 北京新岸线网络技术有限公司 | 一种新闻视频节目切分方法、新闻视频编目方法及系统 |
US20160034712A1 (en) * | 2012-10-02 | 2016-02-04 | Banjo, Inc. | System and method for event-related content discovery, curation, and presentation |
WO2015038749A1 (en) * | 2013-09-13 | 2015-03-19 | Arris Enterprises, Inc. | Content based video content segmentation |
US10216841B2 (en) * | 2014-05-22 | 2019-02-26 | Pixured, Inc. | System for referring to and/or embedding posts, videos or digital media within other posts, videos or digital media and posts within any part of another posts, videos or digital media |
US9430694B2 (en) * | 2014-11-06 | 2016-08-30 | TCL Research America Inc. | Face recognition system and method |
US10601686B2 (en) * | 2017-10-17 | 2020-03-24 | Rovi Guides, Inc. | Systems and methods for improving quality of service while streaming code-agnostic content |
CN108810569B (zh) * | 2018-05-23 | 2021-01-22 | 北京奇艺世纪科技有限公司 | 一种视频新闻分割方法和装置 |
US11163840B2 (en) * | 2018-05-24 | 2021-11-02 | Open Text Sa Ulc | Systems and methods for intelligent content filtering and persistence |
CN109635154B (zh) * | 2018-12-14 | 2022-11-29 | 成都索贝数码科技股份有限公司 | 一种基于文稿和新闻节目自动生成互联网图文稿件的方法 |
CN109933688A (zh) * | 2019-02-13 | 2019-06-25 | 北京百度网讯科技有限公司 | 确定视频标注信息的方法、装置、设备和计算机存储介质 |
CN110121118B (zh) * | 2019-06-17 | 2021-08-06 | 腾讯科技(深圳)有限公司 | 视频片段定位方法、装置、计算机设备及存储介质 |
-
2020
- 2020-06-11 CN CN202010532039.3A patent/CN111708914A/zh active Pending
-
2021
- 2021-04-28 EP EP21170889.6A patent/EP3923591A1/en not_active Ceased
- 2021-04-28 US US17/243,055 patent/US11490170B2/en active Active
- 2021-05-10 JP JP2021079649A patent/JP7476138B2/ja active Active
- 2021-06-10 KR KR1020210075480A patent/KR102553511B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002149672A (ja) | 2000-11-08 | 2002-05-24 | Nec Corp | Avコンテンツ自動要約システム及びavコンテンツ自動要約方式 |
JP2005210573A (ja) | 2004-01-26 | 2005-08-04 | Mitsubishi Electric Corp | 映像表示システム |
JP2020115285A (ja) | 2019-01-17 | 2020-07-30 | ヤフー株式会社 | 算出装置、算出方法、算出プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210250666A1 (en) | 2021-08-12 |
KR102553511B1 (ko) | 2023-07-10 |
JP2021166050A (ja) | 2021-10-14 |
US11490170B2 (en) | 2022-11-01 |
KR20210081308A (ko) | 2021-07-01 |
CN111708914A (zh) | 2020-09-25 |
EP3923591A1 (en) | 2021-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7164729B2 (ja) | クロスモーダル情報検索方法及びその装置、並びに記憶媒体 | |
CN111814770B (zh) | 一种新闻视频的内容关键词提取方法、终端设备及介质 | |
US10372716B2 (en) | Automatic discovery and presentation of topic summaries related to a selection of text | |
CN108989882B (zh) | 用于输出视频中的音乐片段的方法和装置 | |
CN109543058B (zh) | 用于检测图像的方法、电子设备和计算机可读介质 | |
CN112559800B (zh) | 用于处理视频的方法、装置、电子设备、介质和产品 | |
CN108304377B (zh) | 一种长尾词的提取方法及相关装置 | |
CN104994404A (zh) | 一种为视频获取关键词的方法及装置 | |
CN112988753B (zh) | 一种数据搜索方法和装置 | |
CN109858005B (zh) | 基于语音识别的文档更新方法、装置、设备及存储介质 | |
JP7476138B2 (ja) | ビデオ処理方法、装置、電子機器及び記憶媒体 | |
CN113038175B (zh) | 视频处理方法、装置、电子设备及计算机可读存储介质 | |
CN115098729A (zh) | 视频处理方法、样本生成方法、模型训练方法及装置 | |
CN111460214B (zh) | 分类模型训练方法、音频分类方法、装置、介质及设备 | |
KR20200063316A (ko) | 각본 기반의 영상 검색 장치 및 방법 | |
CN110825954A (zh) | 关键词推荐方法、装置和电子设备 | |
CN112542163B (zh) | 智能语音交互方法、设备及存储介质 | |
US20170262755A1 (en) | Supporting generation of a response to an inquiry | |
CN111488450A (zh) | 一种用于生成关键词库的方法、装置和电子设备 | |
CN106959945B (zh) | 基于人工智能的为新闻生成短标题的方法和装置 | |
CN116935287A (zh) | 视频理解方法和装置 | |
CN110727854B (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 | |
CN111107259B (zh) | 图像获取方法、装置及电子设备 | |
CN108932326B (zh) | 一种实例扩展方法、装置、设备和介质 | |
CN115329129A (zh) | 会议纪要文件生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230414 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231011 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231020 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20231110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7476138 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |