CN109525901A - 视频处理方法、装置、电子设备及计算机可读介质 - Google Patents
视频处理方法、装置、电子设备及计算机可读介质 Download PDFInfo
- Publication number
- CN109525901A CN109525901A CN201811429225.3A CN201811429225A CN109525901A CN 109525901 A CN109525901 A CN 109525901A CN 201811429225 A CN201811429225 A CN 201811429225A CN 109525901 A CN109525901 A CN 109525901A
- Authority
- CN
- China
- Prior art keywords
- video
- target video
- source modeling
- section
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000012545 processing Methods 0.000 title claims abstract description 58
- 230000000694 effects Effects 0.000 claims abstract description 39
- 238000001914 filtration Methods 0.000 claims description 19
- 238000003860 storage Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 15
- 241000208340 Araliaceae Species 0.000 claims 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims 1
- 235000003140 Panax quinquefolius Nutrition 0.000 claims 1
- 235000008434 ginseng Nutrition 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000009877 rendering Methods 0.000 description 27
- 230000002708 enhancing effect Effects 0.000 description 14
- 238000005457 optimization Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000003825 pressing Methods 0.000 description 4
- 235000013399 edible fruits Nutrition 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011038 discontinuous diafiltration by volume reduction Methods 0.000 description 1
- 238000005553 drilling Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003389 potentiating effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009290 primary effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 239000013535 sea water Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000004383 yellowing Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/77—Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4318—Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4854—End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Software Systems (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
Abstract
本申请公开了一种视频处理方法、装置、电子设备及计算机可读介质,涉及视频处理技术领域。该方法包括:获取目标视频段,所述目标视频段为预先根据所获取的待播放视频文件而划分的多个视频段中的一个视频段;为目标视频段配置视频增强参数;根据所述视频增强参数,对所述目标视频段执行视频增强处理;将经过视频增强处理之后的所述目标视频段在所述屏幕上显示。针对一个待播放视频文件,不经可以对其执行视频增强效果,以实现超清视效,而且,还能够针对该待播放文件的每个视频段各自执行视频增强效果,使得待播放文件的画质效果更加多样化。
Description
技术领域
本申请涉及视频处理技术领域,更具体地,涉及一种视频处理方法、装置、电子设备及计算机可读介质。
背景技术
随着电子技术和信息技术的发展,越来越多的设备能够播放视频。设备在视频播放的过程中,需要对视频执行解码、渲染以及合成等操作,再在显示屏上显示,但是,现有的视频播放技术中,所播放的视频的画质效果已经无法满足用户的需求,导致用户体验较差。
发明内容
本申请提出了一种视频处理方法、装置、电子设备及计算机可读介质,以改善上述缺陷。
第一方面,本申请实施例提供了一种视频处理方法,应用于电子设备,所述电子设备包括屏幕。该方法包括:获取目标视频段,所述目标视频段为预先根据所获取的待播放视频文件而划分的多个视频段中的一个视频段;为目标视频段配置视频增强参数;根据所述视频增强参数,对所述目标视频段执行视频增强处理;将经过视频增强处理之后的所述目标视频段在所述屏幕上显示。
第二方面,本申请实施例还提供了一种视频处理装置,应用于电子设备,所述电子设备包括屏幕。所述视频处理装置包括:获取单元、配置单元、处理单元和显示单元。获取单元,用于获取目标视频段,所述目标视频段为预先根据所获取的待播放视频文件而划分的多个视频段中的一个视频段。配置单元,用于为目标视频段配置视频增强参数。处理单元,用于根据所述视频增强参数,对所述目标视频段执行视频增强处理。显示单元,用于将经过视频增强处理之后的所述目标视频段在所述屏幕上显示。
第三方面,本申请实施例还提供了一种电子设备,包括:一个或多个处理器;存储器;屏幕;一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行上述方法。
第四方面,本申请实施例还提供了一种计算机可读取存储介质,计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行上述方法。
本申请提供的视频处理方法、装置、电子设备及计算机可读介质,在从预先根据所获取的待播放视频文件而划分的多个视频段中获取目标视频段之后,为该目标视频段配置一个视频增强参数,并且依据该视频增强参数对该视频段执行视频增强处理,并且将视频增强之后的视频段在屏幕上显示。因此,针对一个待播放视频文件,不经可以对其执行视频增强效果,以实现超清视效,而且,还能够针对该待播放文件的每个视频段各自执行视频增强效果,使得待播放文件的画质效果更加多样化。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请一实施例提供的视频播放架构的框图;
图2示出了本申请实施例提供的图像渲染架构的框图;
图3示出了本申请一实施例提供的视频处理方法的方法流程图;
图4示出了本申请实施例提供的待优化类型选择界面的示意图;
图5示出了本申请实施例提供的待优化类型选择界面的隐藏效果的示意图;
图6示出了本申请另一实施例提供的视频处理方法的方法流程图;
图7示出了本申请又一实施例提供的视频处理方法的方法流程图;
图8示出了本申请实施例提供的视频段的示意图;
图9示出了本申请一实施例提供的视频处理装置的模块框图;
图10示出了本申请实施例提供的电子设备的结构框图;
图11示出了本申请实施例的用于保存或者携带实现根据本申请实施例的视频处理方法的程序代码的存储单元。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
请参阅图1,示出了视频播放架构的框图。具体地,操作系统在获取到待播放的数据的时候,接下来的工作就是解析音视频数据了。一般的视频文件都有视频流和音频流两部分组成,不同的视频格式音视频的封装格式肯定不一样。将音频流和视频流合成文件的过程称为muxer,反之从媒体文件中分离音频流和视频流的过程称为demuxer.播放视频文件就需要从文件流中分离出音频流和视频流,分别对其进行解码,解码后的视频帧可以直接渲染,音频帧可以送到音频输出设备的缓冲区进行播放,当然,视频渲染和音频播放的时间戳一定要控制同步。
具体地,视频解码可以包括硬解码和软解码,硬件解码是将原来全部交由中央处理器(Central Processing Unit,CPU)来处理的视频数据的一部分交由图像处理器(Graphics Processing Unit,GPU)来做,而GPU的并行运算能力要远远高于CPU,这样可以大大的降低对CPU的负载,CPU的占用率较低了之后就可以同时运行一些其他的程序了,当然,对于较好的处理器来说,比如i5 2320,或者AMD任何一款四核心处理器来说,硬解和软件依据需求而选定。
具体地,如图1所示,多媒体框架通过与客户端的API接口获取客户端待播放的视频文件,并交由视频解码器,其中,多媒体框架(Media Framework)为Android系统中多媒体框架,MediaPlayer、MediaPlayerService和Stagefrightplayer三个部分构成了Android多媒体的基本框架。多媒体框架部分采用了C/S的结构,MediaPlayer作为C/S结构的Client端,MediaPlayerService和Stagefrightplayer作为C/S结构Server端,承担着播放多媒体文件的责任,通过Stagefrightplayer,Server端完成Client端的请求并作出响应。VideoDecode是一款集成了最常用的音频和视频解码与播放的超级解码器,用于将视频数据解码。
软解码,即通过软件让CPU来对视频进行解码处理,解码之后再调用GPU对视频渲染合并之后在屏幕上显示。而硬解码,指不借助于CPU,而通过专用的子卡设备来独立完成视频解码任务。
不论是硬解码还是软解码,在将视频数据解码之后,会将解码后的视频数据发送至图层传递模块(SurfaceFlinger),由SurfaceFlinger将解码后的视频数据渲染和合成之后,在显示屏上显示。其中,SurfaceFlinger是一个独立的Service,它接收所有Window的Surface作为输入,根据ZOrder、透明度、大小、位置等参数,计算出每个Surface在最终合成图像中的位置,然后交由HWComposer或OpenGL生成最终的显示Buffer,然后显示到特定的显示设备上。
如图1所示,软解码中,CPU将视频数据解码之后交给SurfaceFlinger渲染和合成,而硬解码由GPU解码之后,交由SurfaceFlinger渲染和合成。而SurfaceFlinger会调用GPU实现图像的渲染和合成,并在显示屏上显示。
作为一种实施方式,图像渲染的过程如图2所示,CPU获取客户端发送的待播放的视频文件,解码之后获取解码之后的视频数据,将视频数据发送至GPU,GPU渲染完成后将渲染结果放入帧缓冲区(如图2中的FrameBuffer),随后视频控制器会按照HSync信号逐行读取帧缓冲区的数据,经过数模转换传递给显示器显示。
但是,现有的视频播放,所播放的视频画质效果不佳,发明人研究其不佳的原因,是因为缺少对视频数据的增强优化。因此,为了解决该技术问题,本申请实施例提供了一种视频处理方法,该方法应用于电子设备的图像处理器,用于提高视频播放时的画质效果,具体地,请参阅图3所示的视频处理方法,该方法包括:S301至S304。
S301:获取目标视频段,所述目标视频段为预先根据所获取的待播放视频文件而划分的多个视频段中的一个视频段。
具体地,在播放视频的时候,电子设备能够确定待播放视频文件,作为一种实施方式,电子设备内包括多个能够播放视频文件的客户端,该客户端内设置有视频列表界面,客户端的视频列表界面内显示有多个视频对应的显示内容,多个视频对应的显示内容包括每个视频对应的缩略图,该缩略图可以作为一个触摸按键使用,用户点击该缩略图,客户端能够检测到用户所选点击的缩略图,也就能够确定欲播放的待播放的在线视频文件。
客户端响应用户在视频列表内选中的视频,进入视频的播放界面,点击该播放界面的播放按钮,客户端通过对用户触控操作的监听,能够检测到用户当前所点击的是什么类型的视频,具体地,播放按钮设置有预设属性,检测到所获取的触控操作对应的播放按钮的属性,就能够确定用户所选中的待播放视频。
然后,电子设备在获取到该待播放视频文件的标识的时候,根据该标识在电子设备的本地存储空间内查找是否包括该标识,如果包括,则判定该待播放视频文件存储在本地,如果不包括,则根据该标识对应的网络地址,由该网络地址对应的服务器内下载该待播放视频文件。
则在获取到待播放视频文件之后,按照预设策略将待播放视频文件划分为多个视频段。作为一种实施方式,可以按照预设时间间隔将待播放视频文件划分为多个视频段,例如,按照每间隔5分钟划分一个视频段,从而能够将待播放视频文件划分为多个视频段。作为另一种实施方式,待播放视频文件是多个子视频文件依次拼接而成的,例如,一个子视频文件的结束时间点之后为另一个子视频文件的起始时间点,则根据多个子视频段将该待播放视频文件划分为多个视频段。
S302:为目标视频段配置视频增强参数。
则在获取到多个视频段之后,可以按照预先设定的规则而为每个视频段而知视频增强参数,如下表1所示:
表1
其中,各个视频段的视频增强参数可以是预先设定的,则该待播放视频文件的每个视频段都能够对应一个视频增强参数,其中,视频段1、视频段2和视频段3等为视频段的标识,则在获取到目标视频段之后,确定目标视频段的标识,然后,依据上述表格中视频段与视频增强参数的对应关系,能够确定该目标视频段的标识对应的视频增强参数。
具体地,其中,视频段的标识可以是视频段的名称、描述信息等,则描述信息可以是该视频段的内容的描述,例如,可以是剧情概要等。
S303:根据所述视频增强参数,对所述目标视频段执行视频增强处理。
具体地,视频增强参数可以是视频帧中的图像数据的优化参数,作为一种实施方式,所述根据所述视频增强参数,对所述目标视频段执行视频增强处理,包括:根据所述视频增强参数对所述目标视频段的图像参数优化,其中,所述图像参数优化用于优化所述目标视频段的视频画质。视频画质包括视频的清晰度、锐度、镜头畸变、色彩、解析度、色域范围以及纯度等决定视频观看效果的参数。则不同参数的组合能够实现不同的显示增强效果,例如,以人像所在的位置为中心实现桶型畸变的效果,并且将当前画面的色调修改为灰色,则能够营造一种恐怖氛围的效果。
于本申请实施中,图像参数优化包括曝光度增强、去噪、边缘锐化、对比度增加或饱和度增加的至少一种。
其中,曝光度增强,用于提高图像的亮度,则可以通过图像的直方图,将亮度值交底的区域增加亮度值,另外,也可以是通过非线性叠加,增加图像亮度,具体地,I表示要处理的较暗图像,T表示处理后的比较亮的图像,则曝光度增强的方式为T(x)=I(x)+(1-I(x))*I(x)。其中,T和I都是[0,1]取值的图像。如果一次效果不好算法可以多次迭代。
其中,对图像数据去噪用于去除图像的噪声,具体地,图像在生成和传输过程中常常因受到各种噪声的干扰和影响而是图像降质,这对后续图像的处理和图像视觉效应将产生不利影响。噪声种类很多,比如:电噪声,机械噪声,信道噪声和其他噪声。因此,为了抑制噪声,改善图像质量,便于更高层次的处理,必须对图像进行去噪预处理。从噪声的概率分布情况来看,可分为高斯噪声、瑞利噪声、伽马噪声、指数噪声和均匀噪声。
具体地,可以通过高斯滤波器对图像去噪,其中,高斯滤波器是一种线性滤波器,能够有效的抑制噪声,平滑图像。其作用原理和均值滤波器类似,都是取滤波器窗口内的像素的均值作为输出。其窗口模板的系数和均值滤波器不同,均值滤波器的模板系数都是相同的为1;而高斯滤波器的模板系数,则随着距离模板中心的增大而系数减小。所以,高斯滤波器相比于均值滤波器对图像模糊程度较小。
例如,产生一个5×5的高斯滤波窗口,以模板的中心位置为坐标原点进行取样。将模板各个位置的坐标带入高斯函数,得到的值就是模板的系数。再将该高斯滤波窗口与图像卷积就能够对图像去噪。
其中,边缘锐化用于使模糊的图像变得更加清晰起来。图像锐化一般有两种方法:一种是微分法,另外一种是高通滤波法。
其中,对比度增加用于增强图像的画质,使得图像内的颜色更加鲜明,具体地,对比度拉伸是图像增强的一种方法,也属于灰度变换操作。通过灰度变换,将灰度值拉伸到整个0-255的区间,那么其对比度显然是大幅增强的。可以用如下的公式来将某个像素的灰度值映射到更大的灰度空间:
I(x,y)=[(I(x,y)-Imin)/(Imax-Imin)](MAX-MIN)+MIN;
其中Imin,Imax是原始图像的最小灰度值和最大灰度值,MIN和MAX是要拉伸到的灰度空间的灰度最小值和最大值。
具体地,用户可以在电子设备内为待播放的视频文件设置待优化类型,其中,待优化类型可以是目标物的类型,例如,可以是男性、女性、天空、山川、河流或者招牌等。具体地,可以是在视频播放界面时,用户输入待优化类型,如图4所示,在该视频界面上显示有视频增强的总开关501和各个目标物类型的子开关502,具体地,视频增强的总开关501用于开启或关闭视频增强的功能,其中,视频增强的功能用于对该视频文件的图像数据优化,当视频增强的总开关501开启的时候,用户能够选择开启某个或某些目标物类型的子开关502,如图4所示,类型1对应一个目标物类型,例如是男性,类型2对应另一个目标物类型,例如是女性,其中,类型1和类型2为示例性的文字,具体地,在实际使用中可以根据具体的目标物类型而更改文字,例如,将类型1更改为男性角色。
在视频增强的总开关501开启的时候,用户选择开启所需要优化的待优化的目标物的类型,即开启所需优化的类型的子开关502,则电子设备能够获取该视频文件对应的待优化类型。
而在视频增强的总开关501关闭的时候,待优化类型选择窗口内的各类型对应的子开关502是灰色的,即无法选择开启或关闭,即不响应应用对该子开关的操作。
另外,图4所示的待优化类型选择界面可以被隐藏,具体地,如图5所示,在该待优化类型选择窗口的边侧设置有滑动按钮503,通过该滑动按钮503可以将该待优化类型选择窗口隐藏和滑出,作为一种实施方式,可以是在待优化类型选择窗口处于隐藏的状态时,点击该滑动按钮503能够将待优化类型选择窗口滑出,而在待优化类型选择窗口处于滑出的状态时,点击该滑动按钮503能够将待优化类型选择窗口隐藏。
另外,在选择一个待优化类型的时候,用户能够输入优化程度指示,基于该优化程度指示,能够调整该优化类型的优化程度,例如,选中曝光度增强,则用户输入曝光度增强程度指示,例如,用过输入界面,也可以通过按下音量键,比如,每按下一次加音量键则将曝光度程度增加2%,对应地,每按下一次减音量键则将曝光度程度降低2%,则用户能够自由调节优化程度。
S304:将经过视频增强处理之后的所述目标视频段在所述屏幕上显示。
其中,对目标视频段的视频增强处理可以是通过在屏渲染的方式处理之后显示,具体地,可以是在将目标视频段解码得到多个视频帧,然后,将该视频帧存储至帧缓冲区,在帧缓冲区内对该目标视频段的多个视频帧处理之后,依据屏幕刷新率在屏幕上显示。
作为另一种实施方式,可以是采用离屏渲染的方式对该目标视频段执行视频增强处理,具体地,调用所述图形处理器对所述目标视频流解码以得到多个视频帧。
具体地,解码方式包括硬解码和软解码,则客户端可以选择硬解码或者软解码对该目标视频流进行解码。
于本申请实施中,采用硬解码的方式对目标视频流解码以得到多个视频帧,即调用图形处理器的硬件模块对该视频流解码以得到多个视频帧。
将所述多个视频帧发送至离屏渲染缓冲区。
作为一种实施方式,预先在GPU内设置一个离屏渲染缓冲区,具体地,GPU会调用渲染客户端模块对待渲染的多帧图像数据渲染合成之后发送至显示屏上显示,具体地,该渲染客户端模块可以是OpenGL模块。OpenGL渲染管线的最终位置是在帧缓冲区中。帧缓冲区是一系列二维的像素存储数组,包括了颜色缓冲区、深度缓冲区、模板缓冲区以及累积缓冲区。默认情况下OpenGL使用的是窗口系统提供的帧缓冲区。
OpenGL的GL_ARB_framebuffer_object这个扩展提供了一种方式来创建额外的帧缓冲区对象(Frame Buffer Object,FBO)。使用帧缓冲区对象,OpenGL可以将原先绘制到窗口提供的帧缓冲区重定向到FBO之中。
则通过FBO在帧缓冲区之外再设置一个缓冲区,即离屏渲染缓冲区。然后,将所获取的多个视频帧存储至离屏渲染缓冲区。具体地,离屏渲染缓冲区可以是对应图像处理器的一个存储空间,即离屏渲染缓冲区本身没有用于存储图像的空间,而是与图像处理器内的一个存储空间映射之后,图像实际存储在离屏渲染缓冲区对应的图像处理器内的一个存储空间内。
将多个视频帧与离屏渲染缓冲区绑定的方式,就能够将多个视频帧存储至离屏渲染缓冲区,即在离屏渲染缓冲区能够查找到多个视频帧。
指示所述图形处理器对所述离屏渲染缓冲区内的多个视频帧执行视频增强处理。
将视频增强算法对应的特征数据与待渲染的多个视频帧卷积,以对多个视频帧优化,具体地,通过将所述渲染对象和数据纹理对象渲染,对所述离屏渲染缓冲区内的多个视频帧进行优化,即执行渲染到纹理(Render To Texture,RTT)的操作。其中,渲染对象就是多个视频帧,具体地,可以通过渲染对象将多个视频帧存储到FBO内,其中,渲染对象可以作为一个变量,将多个视频帧赋给渲染对象,再将渲染对象于FBO绑定,就可以实现将多个视频帧存储至离屏渲染缓冲区。例如,在FBO内设置一个句柄,该句柄指向多个视频帧,则该句柄就可以是渲染对象。
其中,将视频增强算法赋值给纹理对象,其中,视频增强算法对应的特征数据即为视频增强算法的参数,例如,去噪中的中值滤波的各个参数值。则视频增强算法的具体操作可以参考上述实施例。
将经视频增强处理后的多个视频帧发送至帧缓冲区内,并在所述屏幕上显示。
其中,帧缓冲区对应于屏幕,用于存放需要在屏幕上显示的数据,例如图2所示的Framebuffer,Framebuffer是出现在操作系统内核当中的一种驱动程序接口。以安卓系统为例,Linux是工作在保护模式下,所以用户态进程是无法像DOS系统那样,使用显卡BIOS里提供的中断调用来实现直接将数据写入并在屏幕上显示,Linux抽象出Framebuffer这个设备来供用户进程实现直接将数据写入并在屏幕上显示。Framebuffer机制模仿显卡的功能,可以通过Framebuffer的读写直接对显存进行操作。具体地,可以将Framebuffer看成是显示内存的一个映像,将其映射到进程地址空间之后,就可以直接进行读写操作,而写入的数据可以在屏幕上显示。
则帧缓冲区可以看作是一个存放数据的空间,CPU或者GPU将要显示的数据放入该帧缓冲区,而Framebuffer本身不具备任何运算数据的能力,由视频控制器按照屏幕刷新频率读取Framebuffer内的数据在屏幕上显示。
具体地,将渲染对象绑定到Framebuffer,则此时的渲染对象已经被视频增强算法优化,即渲染对象为优化后的待播放视频文件的视频帧。则将优化后的待播放视频文件的视频帧发送至Framebuffer以存储。
作为一种实施方式,图像处理器会根据屏幕的刷新频率由所述帧缓冲区内逐帧读取图像数据,并经渲染合成处理后在所述屏幕上显示。
由此,通过离屏渲染的方式,将待播放视频文件的多个视频帧优化之后再发送至帧缓冲区,以使帧缓冲区内的数据为视频增强之后的数据,与将视频帧存储至帧缓冲区,并在帧缓冲区内执行视频增强操作,能够避免在帧缓冲区内的视频帧还未优化,就由于屏幕刷新评率的到来而直接在屏幕上显示,而影响用户体验。
另外,划分多个视频段的方式还可以是根据关键帧的方式,则针对每个视频段所配置的视频增强参数的方式可以是根据该关键帧来设定的,具体地,请参阅图6,该方法包括:S601至S607。
S601:获取所述待播放视频文件。
S602:获取所述待播放视频文件的多个关键帧。
帧是进行视频制作的最基本的单位,每一个精彩的视频都是由很多个精心雕琢的帧构成的,在时间轴上的每一帧都可以包含需要显示的所有内容,包括图形、声音、各种素材和其他多种对象。
关键帧,顾名思义,有关键内容的帧。用来定义视频变化、更改状态的帧,即编辑舞台上存在实例对象并可对其进行编辑的帧。关键帧就是当你需要物体运动或变化的时候需要用到的,第一个关键帧是物体的开始状态,而第二个关键帧就是物体的结束状态,而中间的补间的帧就是物体有第一个关键帧到第二个关键帧的变化过程。
则除了关键帧其余的都可以是非关键帧,具体地,非关键帧可以包括空白帧和普通帧。其中,空白关键帧是没有包含舞台上的实例内容的关键帧。普通帧为在时间轴上能显示实例对象,但不能对实例对象进行编辑操作的帧。
S603:根据多个所述关键帧将所述待播放视频文件划分为多个视频段,其中,每个视频段包括一个关键帧和该关键帧与下一个关键帧之间的非关键帧。
每个关键帧均对应待播放视频文件的一个播放时间点,则可以根据多个关键帧将待播放视频文件按照每个关键帧对应的播放时间点划分为多个视频段,例如,可以是将相邻的两个关键帧作为一个视频段,将相邻的下两个关键帧作为下一个视频帧,例如,待播放视频文件包括第一关键帧,第二关键帧,第三关键帧和第四关键帧,则第一关键帧和第二关键帧以及二者之间的非关键帧构成第一个视频段,而第三关键帧和第四关键帧以及二者之间的非关键帧构成第二视频段。作为另一种实施方式,将第一关键帧与第一关键帧和第二关键帧之间的非关键帧作为第一视频段,将第二关键帧与第二关键帧和第三关键帧之间的非关键帧作为第二视频段,将第三关键帧与第三关键帧和第四关键帧之间的非关键帧作为第三视频段,将第四关键帧与第四关键帧之后的非关键帧作为第四视频段。
S604:获取目标视频段,所述目标视频段为预先根据所获取的待播放视频文件而划分的多个视频段中的一个视频段。
S605:根据所述目标视频段对应的关键帧为所述目标视频段配置对应的视频增强参数。
其中,不同的关键帧之间的画面的差异较大,则目标视频段对应的关键帧能够代表该目标视频段内的大部分的视频内容,则可以根据该关键帧设置该目标视频帧的视频增强参数。具体地,关键帧为一个图像,则根据所述目标视频段对应的关键帧为所述目标视频段配置对应的视频增强参数的具体实施方式可以是获取该关键帧所对应的类别,再根据预设的类别与视频增强参数的对应关系而确定目标视频段的关键帧所对应的视频增强参数。
具体地,识别图像内的目标物并将所述目标物归类,具体地,可以是采用目标检测算法或者目标提取算法获取目标物。则具体的可以是通过目标提取或者聚类算法提取出图像采集装置采集的图像内的所有轮廓线信息,然后再在预先学习的模型中查找到每个轮廓线对应的物体的类别,其中,该学习模型对用一个匹配数据库,该匹配数据库内存储有多个轮廓线信息和每个轮廓线信息对应的类别,其中,该类别包括人体、动物、山川、河流、湖面、建筑物、道路等。
例如,当目标物是动物时,可以通过采集目标物的轮廓以及特征信息,例如,耳朵、犄角、耳朵及四肢。当目标物是人体时,可以通过对目标物进行人脸特征提取,其中,人脸特征提取的方法可以包括基于知识的表征算法或者基于代数特征或统计学习的表征方法。
则上述的方式为根据关键帧所对应的目标物的类别而确定视频增强参数,其中,目标物可以为关键帧内的运动物体。
另外,上述目标物还可以是场景内容,则根据所述目标视频段对应的关键帧为所述目标视频段配置对应的视频增强参数:获取所述目标视频段对应的关键帧;确定所述关键帧对应的场景内容;根据所述关键帧的场景内容为所述目标视频段设置视频增强参数。
具体地,可以根据卡尔曼滤波法或者高斯混合模型法获取目标视频中的关键帧的场景内容,具体地,根据该场景内容对应的类别而确定对应的视频增强参数,则场景内容的类别可以包括室内和室外,而室外又进一步包括山川、街景、广场、大海等,则室外不同的类别,对应的视频增强参数又不相同,具体地,室内主播的视频文件,不需要对天空、河流和山川优化,因为该视频很少涉及到天空、河流和山川的场景,而室外的场景则可以根据类别预先设定视频增强参数,例如,场景内容的类别与视频增强参数如下表2所示:
具体地,在街景的场景下,由于环境比较复杂,可以包括人群、车辆以及广告牌等,所包含的元素比较多,所以视频增强操作所对应的种类较多,而在风景类和大海类的情况下,由于包含了天空以及海水以及植被等颜色鲜艳的事物,但是,人物的轮廓不够明显,而更加关注颜色是否更鲜明而光线是否更加明亮,因此,所对应的视频增强参数包括曝光度增强、去噪、对比度增加等。
则可以根据关键帧内的目标物的类别确定视频增强参数,也可以根据关键帧对应的场景内容来确定视频增强参数,则作为一种实施方式,可以在播放目标视频段之前,检测用户作用于所述屏幕的触摸手势。
记录获取到目标帧图像的第一时间点,其中,第一时间点表示在执行本次方法的时间点,具体地,电子设备在将视频文件解码之后,获取到该视频文件对应的多帧图像,然后逐帧渲染和显示,则该第一时间点表示开始执行对目标帧图像渲染和显示的过程,其中,本次方法正是在对图像的渲染的过程中对图像内满足预设条件的目标物区域内的图像数据优化的。
具体地,在电子设备的屏幕上播放所述视频文件时,电子设备持续对用户针对屏幕的触摸手势进行监测,当检测到触摸手势的输入时,记录下该触摸手势输入的第二时间点以及该触摸手势对应的屏幕的目标位置,并存储到触摸手势记录表内。
另外,考虑到触摸手势的检测可能存在误判,即用户不慎触碰屏幕而非对屏幕的某个区域持续按压,即非选定屏幕的某个区域,则可以在检测到作用于屏幕的触摸手势之后,确定该触摸手势的持续时间,如果该持续时间大于预设时间长度,则认为该触摸手势有效,如果小于或等于预设时间长度,则舍弃该触摸手势,而认为有效的触摸手势,可以继续执行确定所述触摸手势所对应的所述屏幕的目标位置的操作。其中,预设时间长度为用户根据需求而设定的时间长度,例如,可以是1-3秒。
电子设备根据第一时间点,以开始播放视频文件的时间点为起点,查找该起点与第一时间点之内,所有的触摸手势。
具体地,根据上述的触摸手势记录表确定该触摸手势对应的目标位置,具体地,屏幕可以根据触摸屏上各个独立的触摸单元(可以是触摸电容等)而设定位置,例如,以屏幕的顶部最左侧的触摸单元为起点,然后横向和竖向设置坐标系,则坐标系内的每个坐标都可以根据触摸单元的排列确定坐标,例如,(10,20)的坐标表示横向的第10个触摸单元以及纵向的第20个触摸单元。
当用户触摸屏幕时,若输入的触摸手势能够被屏幕的一定区域内的触摸单元感应到,则感应到触摸手势的触摸单元的位置就是触摸手势对应的屏幕的目标位置。
获取在检测到所述触摸手势的时刻,所述屏幕上所显示的图像以及所述图像内所述目标位置对应的选定目标物,从而能够用户所选择的是运动物体还是场景内容,以便选择采用运动物体或场景内容对应的视频增强参数进行视频增强。
另外,考虑到室内外的情况下,对亮度的需求是不同的,室内的亮度低,而室外,亮度一般比较高,则该视频增强参数包括亮度参数,则该亮度参数可以是上述的曝光度增强,用于提高视频的画质的亮度。则根据所述关键帧的场景内容为所述目标视频段设置视频增强参数,包括:确定所述关键帧的场景内容的类别为室内还是室外;如果为室内,则为所述目标视频段设置第一亮度参数;如果为室外,则为所述目标视频段设置第二亮度参数。其中,第一亮度参数用于将所述目标视频段的亮度设置为第一亮度值,第二亮度参数用于将所述目标视频段的亮度设置为第二亮度值,所述第一亮度值高于所述第二亮度值。
具体地,在从关键帧内提取出场景内容之后,与预设的数据集匹配,该数据集内包括多个场景图片,并且每个场景图片都被标记为室内标签或者室外标签,然后,经场景内容与数据集内的各个场景图片比对,查找该场景内容对应的是室内标签还是室外标签,如果是室内标签,则为所述目标视频段设置第一亮度参数;如果为室外标签,则为所述目标视频段设置第二亮度参数。
具体地,如果是室内标签,获取目标视频段的亮度值,判断该亮度值是否大于或等于第一亮度参数,如果小于该第一亮度参数,则根据该第一亮度参数调整目标视频段的亮度值,以使得该目标视频段的亮度值达到第一亮度参数对应的亮度值。同理,在判定为室外的时候,将目标视频段的亮度值调整至第二亮度参数对应的亮度值。则第一亮度值高于第二亮度值,这是因为往往室内场景的光线比较昏暗,而室外的场景光照比较充足,则为了避免用户在观看室内场景的视频的时候,亮度太低而影响画质,则可以将亮度调高。
另外,考虑到用户在环境光线比较昏暗的场景下,例如在阴天,一个不开灯的房间,则在该昏暗的环境下,用户的瞳孔会额外放大,则如果亮度过高,会伤害用户的眼睛。则根据所述关键帧的场景内容为所述目标视频段设置视频增强参数的实施方式为:获取电子设备的当前环境光的亮度,判断环境光的亮度是否低于指定亮度值,如果环境光的亮度低于指定亮度值,则确定所述关键帧的场景内容的类别为室内还是室外,如果为室内,则为所述目标视频段设置第三亮度参数,如果为室外,则为所述目标视频段设置第四亮度参数。如果环境光的亮度高于或等于指定亮度值,则确定所述关键帧的场景内容的类别为室内还是室外,如果为室内,则为所述目标视频段设置第一亮度参数,如果为室外,则为所述目标视频段设置第二亮度参数。
具体地,第三亮度参数用于将所述目标视频段的亮度设置为第三亮度值,第四亮度参数用于将所述目标视频段的亮度设置为第四亮度值,所述第三亮度值高于所述第四亮度值。具体地,第一亮度值、第二亮度值、第三亮度值和第四亮度值的大小关系为,第一亮度值最高,之后依次是第二亮度值,第三亮度值和第四亮度值,且第三亮度值和第四亮度值均小于指定亮度值,由此,不仅弄个区分室内和室外场景的亮度值,提高室内场景的画质的亮度,而且还能够兼顾到当期环境的亮度而设置目标视频段的画质的亮度值。
作为另一种实施方式,如果是室外的时候,还可以根据室外的天气情况而设定不同的滤镜,具体地,所述视频增强参数包括滤镜效果参数,所述根据所述关键帧的场景内容为所述目标视频段设置视频增强参数的具体实施方式为:确定所述关键帧的场景内容的类别是否为室外;如果为室外,则获取所述场景内容对应的气象信息;根据所述气象信息为所述目标视频段设置滤镜效果参数。
具体地,获取室外的场景的气象信息的方式可以是,获取目标视频段对应的关键帧中的场景图像,根据预设的数据库或者机器学习算法确定该场景图像所对应的天气信息,其中,该天气信息包括天气类别,例如,晴天、雨天、阴天以及雪天等。则不同的天气状况,可以对应不同的滤镜效果。
在Android中,系统使用一个颜色矩阵——ColorMatrix,来处理图像的色彩效果。对于图像的每个像素点,都有一个颜色分量矩阵用来保存颜色的RGBA值,Android中的颜色矩阵是一个4x5的数字矩阵,它用来对图片的色彩进行处理。
其中,A为一个4x5的颜色矩阵,C为颜色分量矩阵。在Android系统中,如果想要改变一张图像的色彩显示效果,可以使用矩阵的乘法运算来修改颜色分量矩阵的值。在Android中,它会以一维数组的形式来存储[a,b,d,e,f,g,h,i,j,k,l,m,n,o,p,q,r,s,t],而C则是一个颜色矩阵分量。在处理图像时,使用矩阵乘法运算AC来处理颜色分量矩阵。
其中,R、G和B为颜色分量而A为偏移量,则调整不同的R、G和B以及A能够得到不同的滤镜效果,例如,A为下式时,能够得到灰度效果。
则这对不同的天气信息,设置不同的滤镜效果,例如,天气光线不足的时候,比如是阴天或者雨天等,可以设置灰度效果,或者是怀旧效果,其中,滤镜效果可以是预先设定的效果,每一个滤镜效果对应不同的颜色分量以及偏移量等,并能够实现不同的画质,例如,灰度效果下,图像没有彩色而在怀旧效果下,图像出现磨片的效果并且具有泛黄的老照片视觉效果。而在光线不足的时候,采用该效果能够营造出一个怀旧且文艺的氛围。而在光线充足的时候,例如,晴天,可以为目标视频段配置鲜明滤镜,从而增加视频中各个颜色的鲜明对比,使得阳光更加明亮而花草颜色更加鲜艳。
另外,还可以在场景内容的类别为室外的时候,确定场景内容对应的建筑风格,具体地,可以排除无建筑的场景或者建筑内容较少的场景,然后,在提取出场景内容中的建筑物内容,确定该建筑物内容对应的建筑风格,则根据该建筑风格为该视频段配置滤镜效果,例如,该建筑风格为欧式风格,则可以配置灰色滤镜,以达到怀旧的效果。
再者,还可以在确定关键帧内包括建筑物的情况下,确定该建筑物对应的地点,例如,有些建筑物属于某一个地方的地标,例如,艾弗尔铁塔、长城等,进而能够确定关键帧中的场景内容对应的地理位置,从而根据该地理位置为该视频段配置对应的滤镜效果参数。例如,如果地点为艾弗尔铁塔,可以配置具有浪漫和文艺气息的滤镜效果参数,例如,该滤镜效果参数能够使得该视频内容增加粉色灯源的渲染效果。
S606:根据所述视频增强参数,对所述目标视频段执行视频增强处理。
S607:将经过视频增强处理之后的所述目标视频段在所述屏幕上显示。
需要说明的是,上述步骤中为详细描述的部分,可参考前述实施例,在此不再赘述。
另外,待播放视频文件可能预先根据一些视频内容而划分了不同的视频段,并且针对每个视频段有一个文字描述,则可以根据该视频段的文字描述而确定该视频段的视频增强参数,则具体地,请参阅图7,示出了本申请实施例提供的一种视频处理方法,则该方法包括:S701至S705。
S701:获取目标视频段,所述目标视频段为预先根据所获取的待播放视频文件而划分的多个视频段中的一个视频段。
S702:获取所述目标视频段的描述信息。
待播放视频文件可以是多个子视频构成的,而每个子视频均对应一个描述信息,如图8所示,该待播放视频文件包括三个视频段,即视频段1、视频段2和视频段3,且视频段1对应描述信息1,视频段2对应描述信息2,视频段3对应描述信息3,而描述信息可以是用于描述该视频段的视频内容的摘要信息,例如,描述信息1为“二哥承认自己背叛革命,三娃该如何抉择”,也可以是某个节目的报幕信息,例如,描述信息2为“张三和李四演唱幸福在哪里”,而该描述信息在用户将鼠标移动到该适当的位置处,例如,图8中的视频段1所指定的位置处,能够通过窗口显示该描述信息,因此,在对该待播放视频文件解析的时候,就能够获得每个视频段对应的描述信息。
S703:根据所述描述信息查找对应的视频增强参数作为目标视频段的视频增强参数。
作为一种实施方式,在获取到描述信息之后,确定该描述信息中所包含的关键字,在预先设定的关键字与视频增强参数对应的关系中,查找该目标视频段的描述信息内的关键字对应的视频增强参数,从而能够确定目标视频段的视频增强参数。
作为另一种实施方式,可以根据该描述信息确定该视频段的类别,具体地,提取该描述信息内的关键字,具体地,可以是将该描述信息做分词处理,得到多个字段,然后将该字段与预设字段匹配,查找匹配的字段,其中,该预设字段为表征视频类别的字段,例如,演唱、唱歌、唱等表示该视频段为歌唱节目,再例如,相声、小品或者一些演员的人名,能够表示该视频段的内容为喜剧节目,则在确定该描述信息的关键词之后就能够确定该视频段对应的视频类别,从而根据该视频类别确定该目标视频段对应的视频增强参数。例如,歌唱节目的光线比较昏暗,则视频增强参数终点突出曝光度增强,而相声界面属于表演类,细节比较重要,则视频增强参数终点突出锐化上,使人物的轮廓更加清晰,也就是说,如果目标视频段的类别是歌唱节目,则所确定的视频增强参数可以不包括锐化而包括曝光度增强,或者锐化效果较差而曝光度增强较高。
S704:根据所述视频增强参数,对所述目标视频段执行视频增强处理。
S705:将经过视频增强处理之后的所述目标视频段在所述屏幕上显示。
需要说明的是,上述步骤中为详细描述的部分,可参考前述实施例,在此不再赘述。
请参阅图9,其示出了本申请实施例提供的一种视频处理装置900的结构框图,该装置可以包括:获取单元901、配置单元902、处理单元903和显示单元904。
获取单元901,用于获取目标视频段,所述目标视频段为预先根据所获取的待播放视频文件而划分的多个视频段中的一个视频段。
配置单元902,用于为目标视频段配置视频增强参数。
配置单元902还用于根据所述目标视频段对应的关键帧为所述目标视频段配置对应的视频增强参数。具体地,作为一种实施方式,获取所述目标视频段对应的关键帧;确定所述关键帧对应的场景内容;根据所述关键帧的场景内容为所述目标视频段设置视频增强参数。确定所述关键帧的场景内容的类别为室内还是室外;如果为室内,则为所述目标视频段设置第一亮度参数;如果为室外,则为所述目标视频段设置第二亮度参数,其中,第一亮度参数用于将所述目标视频段的亮度设置为第一亮度值,第二亮度参数用于将所述目标视频段的亮度设置为第二亮度值,所述第一亮度值高于所述第二亮度值。确定所述关键帧的场景内容的类别是否为室外;如果为室外,则获取所述场景内容对应的气象信息;根据所述气象信息为所述目标视频段设置滤镜效果参数。
配置单元902还用于获取所述目标视频段的描述信息;根据所述描述信息查找对应的视频增强参数作为目标视频段的视频增强参数。
处理单元903,用于根据所述视频增强参数,对所述目标视频段执行视频增强处理。
显示单元904,用于将经过视频增强处理之后的所述目标视频段在所述屏幕上显示。
进一步,还包括划分单元,用于获取所述待播放视频文件;获取所述待播放视频文件的多个关键帧;根据多个所述关键帧将所述待播放视频文件划分为多个视频段,其中,每个视频段包括一个关键帧和该关键帧与下一个关键帧之间的非关键帧。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,模块相互之间的耦合可以是电性,机械或其它形式的耦合。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
请参考图10,其示出了本申请实施例提供的一种电子设备的结构框图。该电子设备100可以是智能手机、平板电脑、电子书等能够运行应用程序的电子设备。本申请中的电子设备100可以包括一个或多个如下部件:处理器110、存储器120、屏幕140以及一个或多个应用程序,其中一个或多个应用程序可以被存储在存储器120中并被配置为由一个或多个处理器110执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。
处理器110可以包括一个或者多个处理核。处理器110利用各种接口和线路连接整个电子设备100内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行电子设备100的各种功能和处理数据。可选地,处理器110可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。
具体地,处理器110可以包括中央处理器111(Central Processing Unit,CPU)、图像处理器112(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和客户端等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器110中,单独通过一块通信芯片进行实现。
存储器120可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储终端100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
所述屏幕120用于显示由用户输入的信息、提供给用户的信息以及电子设备的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、数字、视频和其任意组合来构成,在一个实例中,触摸屏可设置于所述显示面板上从而与所述显示面板构成一个整体。
请参考图11,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读介质1100中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质1100可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质1100包括非易失性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质1100具有执行上述方法中的任何方法步骤的程序代码1111的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码1111可以例如以适当形式进行压缩。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种视频处理方法,其特征在于,应用于电子设备,所述电子设备包括屏幕,所述方法包括:
获取目标视频段,所述目标视频段为预先根据所获取的待播放视频文件而划分的多个视频段中的一个视频段;
为目标视频段配置视频增强参数;
根据所述视频增强参数,对所述目标视频段执行视频增强处理;
将经过视频增强处理之后的所述目标视频段在所述屏幕上显示。
2.根据权利要求1所述的方法,其特征在于,所述获取目标视频段,所述目标视频段为预先根据所获取的待播放视频文件而划分的多个视频段中的一个视频段之前,包括:
获取所述待播放视频文件;
获取所述待播放视频文件的多个关键帧;
根据多个所述关键帧将所述待播放视频文件划分为多个视频段,其中,每个视频段包括一个关键帧和该关键帧与下一个关键帧之间的非关键帧。
3.根据权利要求2所述的方法,其特征在于,所述为目标视频段配置视频增强参数,包括:
根据所述目标视频段对应的关键帧为所述目标视频段配置对应的视频增强参数。
4.根据权利要求3所述的方法,其特征在于,所述根据所述目标视频段对应的关键帧为所述目标视频段配置对应的视频增强参数,包括:
获取所述目标视频段对应的关键帧;
确定所述关键帧对应的场景内容;
根据所述关键帧的场景内容为所述目标视频段设置视频增强参数。
5.根据权利要求4所述的方法,其特征在于,所述视频增强参数包括亮度参数,所述根据所述关键帧的场景内容为所述目标视频段设置视频增强参数,包括:
确定所述关键帧的场景内容的类别为室内还是室外;
如果为室内,则为所述目标视频段设置第一亮度参数;
如果为室外,则为所述目标视频段设置第二亮度参数,其中,第一亮度参数用于将所述目标视频段的亮度设置为第一亮度值,第二亮度参数用于将所述目标视频段的亮度设置为第二亮度值,所述第一亮度值高于所述第二亮度值。
6.根据权利要求4所述的方法,其特征在于,所述视频增强参数包括滤镜效果参数,所述根据所述关键帧的场景内容为所述目标视频段设置视频增强参数,包括:
确定所述关键帧的场景内容的类别是否为室外;
如果为室外,则获取所述场景内容对应的气象信息;
根据所述气象信息为所述目标视频段设置滤镜效果参数。
7.根据权利要求1-6任一所述的方法,其特征在于,所述为目标视频段配置视频增强参数,包括:
获取所述目标视频段的描述信息;
根据所述描述信息查找对应的视频增强参数作为目标视频段的视频增强参数。
8.一种视频处理装置,其特征在于,应用于电子设备,所述电子设备包括屏幕,所述视频处理装置包括:
获取单元,用于获取目标视频段,所述目标视频段为预先根据所获取的待播放视频文件而划分的多个视频段中的一个视频段;
配置单元,用于为目标视频段配置视频增强参数;
处理单元,用于根据所述视频增强参数,对所述目标视频段执行视频增强处理;
显示单元,用于将经过视频增强处理之后的所述目标视频段在所述屏幕上显示。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器;
屏幕;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行如权利要求1-7任一项所述的方法。
10.一种计算机可读介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行所述权利要求1-7任一项所述方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811429225.3A CN109525901B (zh) | 2018-11-27 | 2018-11-27 | 视频处理方法、装置、电子设备及计算机可读介质 |
PCT/CN2019/109117 WO2020108083A1 (zh) | 2018-11-27 | 2019-09-29 | 视频处理方法、装置、电子设备及计算机可读介质 |
EP19890261.1A EP3879843A4 (en) | 2018-11-27 | 2019-09-29 | VIDEO PROCESSING METHOD AND DEVICE, ELECTRONIC DEVICE AND MACHINE-READABLE STORAGE MEDIUM |
US17/331,497 US11601630B2 (en) | 2018-11-27 | 2021-05-26 | Video processing method, electronic device, and non-transitory computer-readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811429225.3A CN109525901B (zh) | 2018-11-27 | 2018-11-27 | 视频处理方法、装置、电子设备及计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109525901A true CN109525901A (zh) | 2019-03-26 |
CN109525901B CN109525901B (zh) | 2020-08-25 |
Family
ID=65793564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811429225.3A Active CN109525901B (zh) | 2018-11-27 | 2018-11-27 | 视频处理方法、装置、电子设备及计算机可读介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11601630B2 (zh) |
EP (1) | EP3879843A4 (zh) |
CN (1) | CN109525901B (zh) |
WO (1) | WO2020108083A1 (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110186471A (zh) * | 2019-05-06 | 2019-08-30 | 平安科技(深圳)有限公司 | 基于历史视频的导航方法、装置、计算机设备及存储介质 |
CN110599394A (zh) * | 2019-09-12 | 2019-12-20 | 北京字节跳动网络技术有限公司 | 在线演示文稿中的图片处理方法、装置、存储介质及设备 |
CN110662115A (zh) * | 2019-09-30 | 2020-01-07 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN110677728A (zh) * | 2019-09-30 | 2020-01-10 | 北京达佳互联信息技术有限公司 | 播放视频的方法、装置、设备及存储介质 |
CN110719524A (zh) * | 2019-10-16 | 2020-01-21 | 腾讯科技(深圳)有限公司 | 一种视频播放方法、装置、智能播放设备和存储介质 |
CN110868634A (zh) * | 2019-11-27 | 2020-03-06 | 维沃移动通信有限公司 | 一种视频处理方法及电子设备 |
CN110896499A (zh) * | 2019-10-12 | 2020-03-20 | 高秀丽 | 移动终端播放位置定位系统及方法 |
CN111031346A (zh) * | 2019-10-28 | 2020-04-17 | 网宿科技股份有限公司 | 一种增强视频画质的方法和装置 |
WO2020108083A1 (zh) * | 2018-11-27 | 2020-06-04 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备及计算机可读介质 |
CN111476866A (zh) * | 2020-04-09 | 2020-07-31 | 咪咕文化科技有限公司 | 视频优化与播放方法、系统、电子设备及存储介质 |
CN111491213A (zh) * | 2020-04-17 | 2020-08-04 | 维沃移动通信有限公司 | 视频处理方法、视频处理装置及电子设备 |
CN111757013A (zh) * | 2020-07-23 | 2020-10-09 | 北京字节跳动网络技术有限公司 | 一种视频处理方法、装置、设备及存储介质 |
CN111753128A (zh) * | 2019-03-29 | 2020-10-09 | 浙江宇视科技有限公司 | 显示屏管理方法及装置 |
CN111866587A (zh) * | 2020-07-30 | 2020-10-30 | 口碑(上海)信息技术有限公司 | 短视频的生成方法及装置 |
CN112308142A (zh) * | 2020-10-30 | 2021-02-02 | 云账户技术(天津)有限公司 | 一种图片对比方法、装置及电子设备 |
CN112672209A (zh) * | 2020-12-14 | 2021-04-16 | 北京达佳互联信息技术有限公司 | 视频编辑方法和视频编辑装置 |
CN112711966A (zh) * | 2019-10-24 | 2021-04-27 | 阿里巴巴集团控股有限公司 | 视频文件的处理方法、装置以及电子设备 |
CN112866802A (zh) * | 2019-11-27 | 2021-05-28 | 深圳市万普拉斯科技有限公司 | 视频处理方法、装置、存储介质及计算机设备 |
CN112907700A (zh) * | 2021-02-23 | 2021-06-04 | 上海哔哩哔哩科技有限公司 | 颜色填充方法及装置 |
CN113034384A (zh) * | 2021-02-26 | 2021-06-25 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备以及存储介质 |
CN113079406A (zh) * | 2021-03-19 | 2021-07-06 | 上海哔哩哔哩科技有限公司 | 视频处理方法及装置 |
CN113507572A (zh) * | 2021-07-09 | 2021-10-15 | Oppo广东移动通信有限公司 | 视频画面的显示方法、装置、终端及存储介质 |
CN113507598A (zh) * | 2021-07-09 | 2021-10-15 | Oppo广东移动通信有限公司 | 视频画面的显示方法、装置、终端及存储介质 |
CN113810764A (zh) * | 2021-08-12 | 2021-12-17 | 荣耀终端有限公司 | 视频编辑方法和视频编辑装置 |
WO2022218042A1 (zh) * | 2021-04-14 | 2022-10-20 | Oppo广东移动通信有限公司 | 视频处理方法、装置、视频播放器、电子设备及可读介质 |
CN115250377A (zh) * | 2021-04-27 | 2022-10-28 | 深圳市帧彩影视科技有限公司 | 视频处理方法、处理平台、电子设备及存储介质 |
WO2022227308A1 (zh) * | 2021-04-28 | 2022-11-03 | 腾讯云计算(北京)有限责任公司 | 图像处理方法、装置、设备以及介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113923474B (zh) * | 2021-09-29 | 2023-06-23 | 北京百度网讯科技有限公司 | 视频帧处理方法、装置、电子设备以及存储介质 |
CN113963305B (zh) * | 2021-12-21 | 2022-03-11 | 网思科技股份有限公司 | 一种视频关键帧和特写片段提取方法 |
TWI808041B (zh) * | 2022-11-21 | 2023-07-01 | 凌網科技股份有限公司 | 圖像顯示形式的轉換方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102098449A (zh) * | 2010-12-06 | 2011-06-15 | 北京邮电大学 | 一种利用标志检测进行电视节目内部自动分割的方法 |
CN102158699A (zh) * | 2011-03-28 | 2011-08-17 | 广州市聚晖电子科技有限公司 | 一种带有图像增强功能的嵌入式视频压缩编码系统 |
CN102184221A (zh) * | 2011-05-06 | 2011-09-14 | 北京航空航天大学 | 一种基于用户偏好的实时视频摘要生成方法 |
US20110262105A1 (en) * | 2007-02-14 | 2011-10-27 | Candelore Brant L | Transfer of Metadata Using Video Frames |
CN102682082A (zh) * | 2012-04-07 | 2012-09-19 | 山东师范大学 | 基于内容结构特征的网络Flash搜索系统及搜索方法 |
CN103533241A (zh) * | 2013-10-14 | 2014-01-22 | 厦门美图网科技有限公司 | 一种智能滤镜的拍照方法 |
CN105282627A (zh) * | 2014-07-22 | 2016-01-27 | 中兴通讯股份有限公司 | 一种获取直播视频切片的方法及服务器 |
CN105791925A (zh) * | 2016-02-26 | 2016-07-20 | 上海卓易科技股份有限公司 | 一种处理录制视频的方法及装置 |
CN105898175A (zh) * | 2014-09-18 | 2016-08-24 | 青岛海尔电子有限公司 | 一种模板文件的制作方法和装置 |
CN106210841A (zh) * | 2016-07-06 | 2016-12-07 | 深圳市矽伟智科技有限公司 | 一种视频同步播放方法、装置 |
CN106341696A (zh) * | 2016-09-28 | 2017-01-18 | 北京奇虎科技有限公司 | 一种直播视频流处理方法和装置 |
CN106713964A (zh) * | 2016-12-05 | 2017-05-24 | 乐视控股(北京)有限公司 | 一种生成视频摘要视点图的方法及装置 |
CN107230187A (zh) * | 2016-03-25 | 2017-10-03 | 北京三星通信技术研究有限公司 | 多媒体信息处理的方法和装置 |
US20180152764A1 (en) * | 2015-06-26 | 2018-05-31 | Amazon Technologies, Inc. | Live video stream with interactive shopping interface |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101358325B1 (ko) * | 2007-06-13 | 2014-02-06 | 삼성전자주식회사 | 외부로부터 수신된 환경 설정 값에 따라 환경을 설정하는방송수신장치 및 그의 환경설정방법 |
US20100013855A1 (en) * | 2008-07-16 | 2010-01-21 | International Business Machines Corporation | Automatically calibrating picture settings on a display in accordance with media stream specific characteristics |
CN101998137B (zh) * | 2009-08-21 | 2016-09-07 | 华为技术有限公司 | 视频质量参数获取方法和装置及电子设备 |
US8280222B2 (en) * | 2009-10-06 | 2012-10-02 | Sony Corporation | Use of metadata in video to establish TV settings |
US20110095875A1 (en) * | 2009-10-23 | 2011-04-28 | Broadcom Corporation | Adjustment of media delivery parameters based on automatically-learned user preferences |
WO2011103075A1 (en) * | 2010-02-22 | 2011-08-25 | Dolby Laboratories Licensing Corporation | Video delivery and control by overwriting video data |
CN102625030B (zh) | 2011-02-01 | 2014-10-01 | 株式会社理光 | 视频增强方法和系统 |
US8863182B1 (en) * | 2012-02-17 | 2014-10-14 | Google Inc. | In-stream video stitching |
US9113125B2 (en) * | 2012-09-12 | 2015-08-18 | Intel Corporation | Techniques for indexing video files |
KR20150110507A (ko) * | 2012-12-03 | 2015-10-02 | 엔터테인먼트 익스페리언스 엘엘씨 | 컬러 이미지를 생성하기 위한 방법 및 이를 이용하는 이미징 장치 |
US9680689B2 (en) * | 2013-02-14 | 2017-06-13 | Comcast Cable Communications, Llc | Fragmenting media content |
US9440152B2 (en) * | 2013-05-22 | 2016-09-13 | Clip Engine LLC | Fantasy sports integration with video content |
CN105409203B (zh) * | 2013-07-30 | 2018-07-31 | 杜比实验室特许公司 | 用于产生场景稳定元数据的系统和方法 |
US20150350622A1 (en) * | 2014-05-30 | 2015-12-03 | Apple Inc. | Packed i-frames |
US9582860B2 (en) * | 2015-07-24 | 2017-02-28 | Google Inc. | Temporally smooth video enhancement |
CN107277301B (zh) * | 2016-04-06 | 2019-11-29 | 杭州海康威视数字技术股份有限公司 | 监控视频的图像分析方法及其系统 |
CN109525901B (zh) * | 2018-11-27 | 2020-08-25 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备及计算机可读介质 |
-
2018
- 2018-11-27 CN CN201811429225.3A patent/CN109525901B/zh active Active
-
2019
- 2019-09-29 WO PCT/CN2019/109117 patent/WO2020108083A1/zh unknown
- 2019-09-29 EP EP19890261.1A patent/EP3879843A4/en not_active Withdrawn
-
2021
- 2021-05-26 US US17/331,497 patent/US11601630B2/en active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110262105A1 (en) * | 2007-02-14 | 2011-10-27 | Candelore Brant L | Transfer of Metadata Using Video Frames |
CN102098449A (zh) * | 2010-12-06 | 2011-06-15 | 北京邮电大学 | 一种利用标志检测进行电视节目内部自动分割的方法 |
CN102158699A (zh) * | 2011-03-28 | 2011-08-17 | 广州市聚晖电子科技有限公司 | 一种带有图像增强功能的嵌入式视频压缩编码系统 |
CN102184221A (zh) * | 2011-05-06 | 2011-09-14 | 北京航空航天大学 | 一种基于用户偏好的实时视频摘要生成方法 |
CN102682082A (zh) * | 2012-04-07 | 2012-09-19 | 山东师范大学 | 基于内容结构特征的网络Flash搜索系统及搜索方法 |
CN103533241A (zh) * | 2013-10-14 | 2014-01-22 | 厦门美图网科技有限公司 | 一种智能滤镜的拍照方法 |
CN105282627A (zh) * | 2014-07-22 | 2016-01-27 | 中兴通讯股份有限公司 | 一种获取直播视频切片的方法及服务器 |
CN105898175A (zh) * | 2014-09-18 | 2016-08-24 | 青岛海尔电子有限公司 | 一种模板文件的制作方法和装置 |
US20180152764A1 (en) * | 2015-06-26 | 2018-05-31 | Amazon Technologies, Inc. | Live video stream with interactive shopping interface |
CN105791925A (zh) * | 2016-02-26 | 2016-07-20 | 上海卓易科技股份有限公司 | 一种处理录制视频的方法及装置 |
CN107230187A (zh) * | 2016-03-25 | 2017-10-03 | 北京三星通信技术研究有限公司 | 多媒体信息处理的方法和装置 |
CN106210841A (zh) * | 2016-07-06 | 2016-12-07 | 深圳市矽伟智科技有限公司 | 一种视频同步播放方法、装置 |
CN106341696A (zh) * | 2016-09-28 | 2017-01-18 | 北京奇虎科技有限公司 | 一种直播视频流处理方法和装置 |
CN106713964A (zh) * | 2016-12-05 | 2017-05-24 | 乐视控股(北京)有限公司 | 一种生成视频摘要视点图的方法及装置 |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020108083A1 (zh) * | 2018-11-27 | 2020-06-04 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备及计算机可读介质 |
US11601630B2 (en) | 2018-11-27 | 2023-03-07 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Video processing method, electronic device, and non-transitory computer-readable medium |
CN111753128B (zh) * | 2019-03-29 | 2024-04-05 | 浙江宇视科技有限公司 | 显示屏管理方法及装置 |
CN111753128A (zh) * | 2019-03-29 | 2020-10-09 | 浙江宇视科技有限公司 | 显示屏管理方法及装置 |
CN110186471A (zh) * | 2019-05-06 | 2019-08-30 | 平安科技(深圳)有限公司 | 基于历史视频的导航方法、装置、计算机设备及存储介质 |
CN110599394A (zh) * | 2019-09-12 | 2019-12-20 | 北京字节跳动网络技术有限公司 | 在线演示文稿中的图片处理方法、装置、存储介质及设备 |
CN110662115B (zh) * | 2019-09-30 | 2022-04-22 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN110677728B (zh) * | 2019-09-30 | 2020-09-22 | 北京达佳互联信息技术有限公司 | 播放视频的方法、装置、设备及存储介质 |
CN110677728A (zh) * | 2019-09-30 | 2020-01-10 | 北京达佳互联信息技术有限公司 | 播放视频的方法、装置、设备及存储介质 |
CN110662115A (zh) * | 2019-09-30 | 2020-01-07 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN110896499A (zh) * | 2019-10-12 | 2020-03-20 | 高秀丽 | 移动终端播放位置定位系统及方法 |
CN110719524A (zh) * | 2019-10-16 | 2020-01-21 | 腾讯科技(深圳)有限公司 | 一种视频播放方法、装置、智能播放设备和存储介质 |
CN110719524B (zh) * | 2019-10-16 | 2022-02-01 | 腾讯科技(深圳)有限公司 | 一种视频播放方法、装置、智能播放设备和存储介质 |
CN112711966A (zh) * | 2019-10-24 | 2021-04-27 | 阿里巴巴集团控股有限公司 | 视频文件的处理方法、装置以及电子设备 |
CN112711966B (zh) * | 2019-10-24 | 2024-03-01 | 阿里巴巴集团控股有限公司 | 视频文件的处理方法、装置以及电子设备 |
CN111031346B (zh) * | 2019-10-28 | 2021-11-02 | 网宿科技股份有限公司 | 一种增强视频画质的方法和装置 |
CN111031346A (zh) * | 2019-10-28 | 2020-04-17 | 网宿科技股份有限公司 | 一种增强视频画质的方法和装置 |
CN110868634A (zh) * | 2019-11-27 | 2020-03-06 | 维沃移动通信有限公司 | 一种视频处理方法及电子设备 |
CN112866802A (zh) * | 2019-11-27 | 2021-05-28 | 深圳市万普拉斯科技有限公司 | 视频处理方法、装置、存储介质及计算机设备 |
CN112866802B (zh) * | 2019-11-27 | 2022-03-15 | 深圳市万普拉斯科技有限公司 | 视频处理方法、装置、存储介质及计算机设备 |
CN110868634B (zh) * | 2019-11-27 | 2023-08-22 | 维沃移动通信有限公司 | 一种视频处理方法及电子设备 |
CN111476866A (zh) * | 2020-04-09 | 2020-07-31 | 咪咕文化科技有限公司 | 视频优化与播放方法、系统、电子设备及存储介质 |
CN111476866B (zh) * | 2020-04-09 | 2024-03-12 | 咪咕文化科技有限公司 | 视频优化与播放方法、系统、电子设备及存储介质 |
CN111491213A (zh) * | 2020-04-17 | 2020-08-04 | 维沃移动通信有限公司 | 视频处理方法、视频处理装置及电子设备 |
CN111491213B (zh) * | 2020-04-17 | 2022-03-08 | 维沃移动通信有限公司 | 视频处理方法、视频处理装置及电子设备 |
US11887628B2 (en) | 2020-07-23 | 2024-01-30 | Beijing Bytedance Network Technology Co., Ltd. | Video processing method and apparatus, device, and storage medium |
CN111757013A (zh) * | 2020-07-23 | 2020-10-09 | 北京字节跳动网络技术有限公司 | 一种视频处理方法、装置、设备及存储介质 |
US12136440B2 (en) | 2020-07-23 | 2024-11-05 | Beijing Bytedance Network Technology Co., Ltd. | Video processing method and apparatus, device, and storage medium |
CN111757013B (zh) * | 2020-07-23 | 2022-04-29 | 北京字节跳动网络技术有限公司 | 一种视频处理方法、装置、设备及存储介质 |
CN111866587A (zh) * | 2020-07-30 | 2020-10-30 | 口碑(上海)信息技术有限公司 | 短视频的生成方法及装置 |
CN112308142A (zh) * | 2020-10-30 | 2021-02-02 | 云账户技术(天津)有限公司 | 一种图片对比方法、装置及电子设备 |
CN112672209A (zh) * | 2020-12-14 | 2021-04-16 | 北京达佳互联信息技术有限公司 | 视频编辑方法和视频编辑装置 |
CN112907700A (zh) * | 2021-02-23 | 2021-06-04 | 上海哔哩哔哩科技有限公司 | 颜色填充方法及装置 |
WO2022179335A1 (zh) * | 2021-02-26 | 2022-09-01 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备以及存储介质 |
CN113034384A (zh) * | 2021-02-26 | 2021-06-25 | Oppo广东移动通信有限公司 | 视频处理方法、装置、电子设备以及存储介质 |
CN113079406A (zh) * | 2021-03-19 | 2021-07-06 | 上海哔哩哔哩科技有限公司 | 视频处理方法及装置 |
WO2022218042A1 (zh) * | 2021-04-14 | 2022-10-20 | Oppo广东移动通信有限公司 | 视频处理方法、装置、视频播放器、电子设备及可读介质 |
CN115250377A (zh) * | 2021-04-27 | 2022-10-28 | 深圳市帧彩影视科技有限公司 | 视频处理方法、处理平台、电子设备及存储介质 |
CN115250377B (zh) * | 2021-04-27 | 2024-04-02 | 深圳市帧彩影视科技有限公司 | 视频处理方法、处理平台、电子设备及存储介质 |
WO2022227308A1 (zh) * | 2021-04-28 | 2022-11-03 | 腾讯云计算(北京)有限责任公司 | 图像处理方法、装置、设备以及介质 |
CN113507598A (zh) * | 2021-07-09 | 2021-10-15 | Oppo广东移动通信有限公司 | 视频画面的显示方法、装置、终端及存储介质 |
CN113507572A (zh) * | 2021-07-09 | 2021-10-15 | Oppo广东移动通信有限公司 | 视频画面的显示方法、装置、终端及存储介质 |
CN113810764B (zh) * | 2021-08-12 | 2022-12-06 | 荣耀终端有限公司 | 视频编辑方法和视频编辑装置 |
CN113810764A (zh) * | 2021-08-12 | 2021-12-17 | 荣耀终端有限公司 | 视频编辑方法和视频编辑装置 |
Also Published As
Publication number | Publication date |
---|---|
US11601630B2 (en) | 2023-03-07 |
EP3879843A4 (en) | 2021-10-27 |
EP3879843A1 (en) | 2021-09-15 |
WO2020108083A1 (zh) | 2020-06-04 |
CN109525901B (zh) | 2020-08-25 |
US20210289186A1 (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109525901A (zh) | 视频处理方法、装置、电子设备及计算机可读介质 | |
US20210289250A1 (en) | Video Processing Method, Electronic Device and Computer-Readable Storage Medium | |
CN109242802A (zh) | 图像处理方法、装置、电子设备及计算机可读介质 | |
CN108537859B (zh) | 使用深度学习的图像蒙板 | |
CN109218802B (zh) | 视频处理方法、装置、电子设备及计算机可读介质 | |
CN103891294B (zh) | 用于hdr图像编码和解码的装置与方法 | |
WO2019029100A1 (zh) | 一种基于虚拟现实与增强现实的采矿操作多交互实现方法 | |
US10957026B1 (en) | Learning from estimated high-dynamic range all weather lighting parameters | |
CN106713988A (zh) | 一种对虚拟场景直播进行美颜处理的方法及系统 | |
CN107230187A (zh) | 多媒体信息处理的方法和装置 | |
CN109361949A (zh) | 视频处理方法、装置、电子设备以及存储介质 | |
CN114270870B (zh) | 沉浸式显示系统及其方法 | |
CN107103316A (zh) | 基于智能手机的方法和系统 | |
CN103971391A (zh) | 一种动画生成方法及装置 | |
CN104221358A (zh) | 用于修改多个图像属性的统一滑块控制器 | |
Liang et al. | Depth map guided triplet network for deepfake face detection | |
CN114820292A (zh) | 图像合成方法、装置、设备及存储介质 | |
US9872093B2 (en) | Audio output apparatus and control method thereof | |
US11776184B2 (en) | Sky replacement | |
CN116055800A (zh) | 一种移动端获得定制背景实时舞蹈视频的方法 | |
CN113627342B (zh) | 视频深度特征提取优化的方法、系统、设备及存储介质 | |
CN114898021A (zh) | 音乐舞台表演视频的智能卡通化方法 | |
CN114640803A (zh) | 一种视频剪辑处理系统及方法 | |
CN114710703A (zh) | 可变场景的直播方法及装置 | |
US11645788B2 (en) | Sky replacement preset loading |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |