CN102937972A - 一种视听字幕制作系统及方法 - Google Patents
一种视听字幕制作系统及方法 Download PDFInfo
- Publication number
- CN102937972A CN102937972A CN2012103897081A CN201210389708A CN102937972A CN 102937972 A CN102937972 A CN 102937972A CN 2012103897081 A CN2012103897081 A CN 2012103897081A CN 201210389708 A CN201210389708 A CN 201210389708A CN 102937972 A CN102937972 A CN 102937972A
- Authority
- CN
- China
- Prior art keywords
- cutting
- sentence
- result
- syllable
- stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明提供了一种视听字幕制作系统及方法,所述系统包括原始文本处理模块、注音模块、原始声音处理模块、强制切分模块、切分可信度评估模块、错误处理模块、字幕生成模块。本发明能自动处理原始文本,分割为限定长度的句子或短语;采用形近词替代等方法自动处理非登录词,建立多发音注音网络;将注音网络展开为隐含马尔科夫识别语音对齐网络,使用强容错隐含马尔科夫声学模型对文本自动对齐强制切分;通过语音识别技术对每个切分段的切分结果进行可信度评估,可很容易发现切分错误以便进一步处理;直接根据切分结果生成各种格式适用于各种设备的视听字幕文件。借此,本发明可在无人工干预或很少人工干预的情况下直接得到高质量的视听字幕文件。
Description
技术领域
本发明涉及外语电化教学领域,尤其涉及一种视听字幕制作系统及方法。
背景技术
语言学习主要通过获得大量的可理解输入来实现,而“听”是获得可理解语言输入的最重要的渠道。中国的外语学习者面临着一个“读得懂却听不懂”的尴尬状态。基于多媒体技术的视听输入教学法,能再现人们真实交际场景,对改进外语教学起到了积极的推动作用。在视听输入教学法基础上,将话语信息以文字的形式(即视听字幕)同时呈现给受众,对外语视听教学更具有显著的积极意义。
目前,有字幕加配的视听教学内容少之又少,其主要原因是当前字幕的加配主要是手工完成。专业技术人员需花费大量的时间和精力才能制作完成长度有限的字幕,成本太高而不能大规模应用。
现代语音识别技术领域中,在给定单句文本及其声音后,可以用基于隐含马尔科夫模型的核心模块将音节起止信息在音轴上显示出来。此方法主要应用于建立音节切分语音语料库,它要求文本与声音高度一致,否则就会切分失败或效果很差。而视听字幕的制作要求切分的单位是句子或短语,制作中要求方法有很高的容错性,要能处理文本中含未知发音的未登录词、多音词、含有错误文本段落等情况,要能发现指出切分错误之处,这些要求在传统方法中均无法满足。
发明内容
针对上述的缺陷,本发明的目的在于提供一种视听字幕制作系统及方法,其能够在无人工干预或很少人工干预的情况下直接得到高质量的用于外语电化教学的视听字幕文件。
为了实现上述目的,本发明提供视听字幕制作系统,所述系统包括:
原始文本处理模块,用于将输入的原始文本分词后按指定规则分割为合适长度的句子或短语,并将所述句子或短语发送到注音模块;
注音模块,用于处理所述句子或短语中的非登录词,然后通过查注音词典生成注音网络,并将所述注音网络发送到强制切分模块;
原始声音处理模块,用于将输入的原始声音处理成预定要求的声音流,并将所述声音流发送到强制切分模块;
强制切分模块,用于将所述注音网络切分为隐含马尔科夫识别语音的对齐网络,然后将所述声音流提取为特征流并在所述对齐网络对齐,并将切分结果输入到切分可信度评估模块;
切分可信度评估模块,用于通过语音识别对所述切分结果中每个切分段进行可信度评估得到切分可信度评估结果,若所述切分可信度评估结果达到预定值,则将所述切分结果直接发送到字幕生成模块,否则将所述切分可信度评估结果发送到错误处理模块;
错误处理模块,用于显示所述切分可信度评估结果,判断是所述原始文本有误还是所述切分结果需要人工微调,若所述切分结果需要人工微调则人工微调所述切分结果并发送到字幕生成模块,若是所述原始文本有误则人工修改原始文本后重新交由所述原始文本处理模块切分;
字幕生成模块,用于结合预定的字幕文件格式,将所述切分结果输出字幕文件。
根据本发明所述的视听字幕制作系统,所述原始文本处理模块还包括:
分词子模块,用于将所述原始文本用双数组Trie树分词算法分成含有若干个词的词语流;
文本切分子模块,用于将所述词语流自动切分成长度合适的句子或短语,具体切分方法为:从前向后遍历所述词语流,依据句子边界符号将所述词语流切分成句子流;从前向后遍历每个句子,若所述句子的长度大于预定值,则依次尝试从逗号、从句、连接词或任意词处分开所述句子,直到所述句子的长度小于或等于所述预定值。
根据本发明所述的视听字幕制作系统,所述注音模块还包括:
非登录词处理子模块,用于将切分好的所述句子或短语中含有的不在所述注音词典中的词,通过形近词替换、直接删除或人工注音方法转换为已知的读音的词;
注音网络生成子模块,首先将切分处理非登录词后的词语流中每个词语首尾相连,建立词语网络,再查得每个词语所有可能的发音展开为注音网络。
根据本发明所述的视听字幕制作系统,所述形近词替换,用于自动选中词库中一个最相近的词w*替换原词;其中替换词w*通过以下方法得到:
w* = arg min c∈C D(w,c),
公式中w为原词,w*为替换词,C为注音词典集合,D为两词间的编辑距离函数。
根据本发明所述的视听字幕制作系统,所述原始声音处理模块,用于根据所述原始声音的格式,采用对应的算法进行解码,根据声学模型的要求重新采样为指定的采样频率,再经过去噪声处理转换为预定要求的声音流。
根据本发明所述的视听字幕制作系统,所述强制切分模块还包括:
声学网络生成子模块,用于将所述注音网络展开,并在词语间加入哑音,扩充为隐马尔科夫声学模型的声学网络,发送到隐藏状态序列搜索模块中;
特征提取子模块,用于将从所述声音流中逐帧提取音频,经过加窗处理后提取符合隐马尔科夫声学模型的声学参数,生成逐帧的所述特征流,发送到隐藏状态序列搜索模块中;
隐藏状态序列搜索子模块,用于将所述特征流与所述声学网络通过维特比算法进行对齐,并选取所述特征流所经过的声学网络节点为所搜索的隐藏状态序列,将隐藏状态序列搜索结果发送到切分结果生成模块;
切分结果生成子模块,用于从所述隐藏状态序列搜索结果中求出每个切分好的句子的起止位置Sn和En。
根据本发明所述的视听字幕制作系统,所述句子的起止位置Sn和En通过以下公式得到:
Sn= (An+Bn-1)/2* FD,En = (Bn+An+1) /2*FD;
其中,所述Sn和En的计算公式中An、Bn为分别表示第n个切分后的句子的一个隐藏状态序列的序号和最后一个隐藏状态序列的序号,并令B0 =A1、AN+1=BN(N为切分后的句子个数),FD为特征提取子模块所用音频帧的时长。
根据本发明所述的视听字幕制作系统,所述切分可信度评估模块还包括:
特征段切分子模块,用于将每个所述句子依据得到的起止位置Sn和En从所述特征流中独立提取出来;
音节识别子模块,用于将所述特征流识别为音节流,所述音节识别子模块包括识别网络建立单元和对齐解码单元;
所述识别网络建立单元,用于将语料中计算得到的一元二元音节语法模型,建立音节转移概率网络,再将每个音节扩充为隐马尔科夫声学模型中的状态序列,组成最后的语音识别网络;
所述对齐解码单元,用于通过维特比算法,根据所述特征流和所述语音识别网络求出具有最大概率的路径,并将其对应的音节序列,即语音识别出的音节序列发送到可信度分数计算子模块;
可信度分数计算子模块,用于计算得到识别出的所述音节序列和文本中的音节序列的相似度分数F,将F作为切分可信度评估结果。
根据本发明所述的视听字幕制作系统,所述相似度分数F使用以下公式计算得到:
F = ( LR - LD(SS,SR) ) / LS *100;
其中,所述LR、LS分别为识别出的所述音节序列、文本中的音节序列音节个数,SS,SR分别为识别出的音节序列、文本中的音节序列,LD为计算两序列最小编辑距离的函数。
根据本发明所述的视听字幕制作系统,所述错误处理模块还包括:
切分结果与可信度展示子模块,用于显示所述切分结果与所述切分可信度评估结果;
人工辅助切分子模块,用于所述切分结果需要人工微调时,将手动矫正所述切分结果,并将矫正后的所述切分结果发送到所述字幕生成模块,以及用于在所述原始文本有误时,则人工修改原始文本后交由所述原始文本处理模块重新切分。
本发明还提供一种视听字幕制作方法,包括步骤如下:
原始文本处理步骤,将输入的原始文本分词后按指定规则分割为合适长度的句子或短语;
注音步骤,处理所述句子或短语中的非登录词,然后通过查注音词典生成注音网络;
原始声音处理步骤,将输入的原始声音处理成预定要求的声音流;
强制切分步骤,将所述注音网络切分为隐含马尔科夫识别语音的对齐网络,然后将所述声音流提取为特征流并在所述对齐网络对齐;
切分可信度评估步骤,通过语音识别对所述切分结果中每个切分段进行可信度评估得到切分可信度评估结果,若所述切分可信度评估结果达到预定值,则将所述切分结果直接发送到字幕生成步骤处理,否则将所述切分可信度评估结果发送到错误处理步骤处理;
错误处理步骤,显示所述切分可信度评估结果,判断是所述原始文本有误还是所述切分结果需要人工微调,若所述切分结果需要人工微调则人工微调所述切分结果,若是所述原始文本有误则人工修改原始文本后交由所述原始文本处理步骤重新切分;
字幕生成步骤,结合预定的字幕文件格式,将所述切分结果输出字幕文件。
根据本发明所述的视听字幕制作方法,所述原始文本处理步骤还包括:
分词子步骤,将所述原始文本用双数组Trie树分词算法分成含有若干个词的词语流;
文本切分子步骤,将所述词语流自动切分成长度合适的句子或短语,具体切分方法为:从前向后遍历所述词语流,依据句子边界符号将所述词语流切分成句子流;从前向后遍历每个句子,若所述句子的长度大于预定值,则依次尝试从逗号、从句、连接词或任意词处分开所述句子,直到所述句子的长度小于或等于所述预定值。
根据本发明所述的视听字幕制作方法,所述注音步骤还包括:
非登录词处理子步骤,将切分好的所述句子或短语中含有的不在所述注音词典中的词,通过形近词替换、直接删除或人工注音方法转换为已知的读音的词;
注音网络生成子步骤,首先将切分处理非登录词后的词语流中每个词语首尾相连,建立词语网络,再查得每个词语所有可能的发音展开为注音网络。
根据本发明所述的视听字幕制作方法,所述形近词替换,自动选中词库中一个最相近的词w*替换原词;其中替换词w*通过以下方法得到:
w* = arg min c∈C D(w,c),
公式中w为原词,w*为替换词,C为注音词典集合,D为两词间的编辑距离函数。
根据本发明所述的视听字幕制作方法,所述原始声音处理步骤,根据所述原始声音的格式,采用对应的算法进行解码,根据声学模型的要求重新采样为指定的采样频率,再经过去噪声处理转换为预定要求的声音流。
根据本发明所述的视听字幕制作方法,所述强制切分步骤还包括:
声学网络生成子步骤,将所述注音网络展开,并在词语间加入哑音,扩充为隐马尔科夫声学模型的声学网络;
特征提取子步骤,将从所述声音流中逐帧提取音频,经过加窗处理后提取符合隐马尔科夫声学模型的声学参数,生成逐帧的所述特征流;
隐藏状态序列搜索子步骤,将所述特征流与所述声学网络通过维特比算法进行对齐,并选取所述特征流所经过的声学网络节点为所搜索的隐藏状态序列搜索结果;
切分结果生成子步骤,从所述隐藏状态序列搜索结果中求出每个切分好的句子的起止位置Sn和En。
根据本发明所述的视听字幕制作方法,所述句子的起止位置Sn和En通过以下公式得到:
Sn= (An+Bn-1)/2* FD,En = (Bn+An+1) /2*FD;
其中,所述Sn和En的计算公式中An、Bn为分别表示第n个切分后的句子的一个隐藏状态序列的序号和最后一个隐藏状态序列的序号,并令B0 =A1、AN+1=BN(N为切分后的句子个数),FD为特征提取子步骤所用音频帧的时长。
根据本发明所述的视听字幕制作方法,所述切分可信度评估步骤还包括:
特征段切分子步骤,将每个所述句子依据得到的起止位置Sn和En从所述特征流中独立提取出来;
音节识别子步骤,将所述特征流识别为音节流,所述音节识别子步骤包括识别网络建立单元和对齐解码单元;
所述识别网络建立单元,将语料中计算得到的一元二元音节语法模型,建立音节转移概率网络,再将每个音节扩充为隐马尔科夫声学模型中的状态序列,组成最后的语音识别网络;
所述对齐解码单元,通过维特比算法,根据所述特征流和所述语音识别网络求出具有最大概率的路径,并将其对应的音节序列,即语音识别出的音节序列发送到可信度分数计算子步骤处理;
可信度分数计算子步骤,计算得到识别出的所述音节序列和文本中的音节序列的相似度分数F,将F作为切分可信度评估结果。
根据本发明所述的视听字幕制作方法,所述相似度分数F使用以下公式计算得到:
F = ( LR - LD(SS,SR) ) / LS *100;
其中,所述LR、LS分别为识别出的所述音节序列、文本中的音节序列音节个数,SS,SR分别为识别出的音节序列、文本中的音节序列,LD为计算两序列最小编辑距离的函数。
根据本发明所述的视听字幕制作方法,所述错误处理步骤还包括:
切分结果与可信度展示子步骤,显示所述切分结果与所述切分可信度评估结果;
人工辅助切分子步骤,所述切分结果需要人工微调时,将手动矫正所述切分结果,并将矫正后的所述切分结果发送到所述字幕生成步骤,以及在所述原始文本有误时,则人工修改原始文本后交由所述原始文本处理步骤重新切分。
本发明能自动处理原始文本,分割为限定长度的句子或短语;采用形近词替代等方法自动处理非登录词,建立多发音注音网络;将注音网络展开为隐含马尔科夫识别语音对齐网络,使用强容错隐含马尔科夫声学模型对文本自动对齐强制切分;通过语音识别技术对每个切分段的切分结果进行可信度评估,可很容易发现切分错误之处便于进一步处理;直接根据切分结果生成各种格式适用于各种设备的视听字幕文件。借此,本发明可以在无人工干预或很少人工干预的情况下直接得到高质量的视听字幕文件,从而大大提供视听教学字幕加配的工作效率。
附图说明
图1是本发明视听字幕制作系统的结构示意图;
图2是本发明视听字幕制作系统的原始文本处理模块的优选结构图;
图3是本发明视听字幕制作系统的注音模块的优选结构图;
图4是本发明视听字幕制作系统的强制切分模块的优选结构图;
图5是本发明视听字幕制作系统的切分可信度评估模块的优选结构图;
图6是本发明视听字幕制作系统的错误处理模块的优选结构图;
图7是本发明视听字幕制作方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1是本发明视听字幕制作系统的结构示意图,所述视听字幕制作系统100可以是软件单元,硬件单元或软硬件结合单元,并且所述视听字幕制作系统100包括原始文本处理模块10、注音模块20、原始声音处理模块30、强制切分模块40、切分可信度评估模块50、错误处理模块60以及字幕生成模块70,其中:
所述原始文本处理模块10,用于将输入的原始文本分词后按指定规则分割为合适长度的句子或短语,并将所述句子或短语发送到注音模块20。
所述注音模块20,用于处理所述句子或短语中的非登录词,然后通过查注音词典生成注音网络,并将所述注音网络发送到强制切分模块40。
所述原始声音处理模块30,用于将输入的原始声音处理成预定要求的声音流,并将所述声音流发送到强制切分模块40。所述原始声音处理模块30用于规范化声音文件,即经过重采样、去噪声等操作转换为符合要求的格式,而后将规范化后的声音流送入强制切分模块40。优选的是,所述原始声音处理模块30用于根据所述原始声音的格式,采用对应的算法进行解码,根据声学模型的要求重新采样为指定的采样频率,再经过去噪声处理转换为预定要求的声音流。
所述强制切分模块40,用于将所述注音网络切分为隐含马尔科夫识别语音的对齐网络,然后将所述声音流提取为特征流并在所述对齐网络对齐,并将切分结果输入到切分可信度评估模块50。
所述切分可信度评估模块50,用于通过语音识别对所述切分结果中每个切分段进行可信度评估得到切分可信度评估结果,若所述切分可信度评估结果达到预定值,则将所述切分结果直接发送到字幕生成模块70,否则将所述切分可信度评估结果发送到错误处理模块60。
所述错误处理模块60,用于显示所述切分可信度评估结果,判断是所述原始文本有误还是所述切分结果需要人工微调,若所述切分结果需要人工微调则人工微调所述切分结果并发送到字幕生成模块70,若是所述原始文本有误则人工修改原始文本后重新交由所述原始文本处理模块切分。错误处理模块60用于显示切分可信度评估结果,重点是把切分可信度得分低的地方标记出来,便于人工判断是原始文本有误还是需要人工微调切分结果,若需要人工微调切分结果则微调后把结果送入字幕生成模块,若发现是原始文本有误则人工修改原始文本后重新切分。
所述字幕生成模块70,用于结合预定的字幕文件格式,将所述切分结果输出字幕文件。优选的是,字幕生成模块70用于将切分结果结合输入的作者、版权、备注、字幕格式的信息输出包括LRC、SRT、SSA等格式的字幕文件。
图2是本发明视听字幕制作系统的原始文本处理模块的优选结构图,所述原始文本处理模块10还包括:
分词子模块11,用于将所述原始文本用双数组Trie树分词算法分成含有若干个词的词语流。
文本切分子模块12,用于将所述词语流自动切分成长度合适的句子或短语,具体切分方法为:从前向后遍历所述词语流,依据句子边界符号将所述词语流切分成句子流。从前向后遍历每个句子,若所述句子的长度大于预定值,则依次尝试从逗号、从句、连接词或任意词处分开所述句子,直到所述句子的长度小于或等于所述预定值。
图3是本发明视听字幕制作系统的注音模块的优选结构图,所述注音模块20还包括:
非登录词处理子模块21,用于将切分好的所述句子或短语中含有的不在所述注音词典中的词,通过形近词替换、直接删除或人工注音方法转换为已知的读音的词。
注音网络生成子模块22,首先将切分处理非登录词后的词语流中每个词语首尾相连,建立词语网络,再查得每个词语所有可能的发音展开为注音网络。
所述形近词替换,用于自动选中词库中一个最相近的词w*替换原词。其中替换词w*通过以下方法得到:
w* = arg min c∈C D(w,c),
公式中w为原词,w*为替换词,C为注音词典集合,D为两词间的编辑距离函数。
图4是本发明视听字幕制作系统的强制切分模块的优选结构图,所述强制切分模块40还包括:
声学网络生成子模块41,用于将所述注音网络展开,并在词语间加入哑音(SP音),扩充为隐马尔科夫声学模型的声学网络,发送到隐藏状态序列搜索模块中。
特征提取子模块42,用于将从所述声音流中逐帧提取音频,经过加窗处理后提取符合隐马尔科夫声学模型的声学参数,生成逐帧的所述特征流,发送到隐藏状态序列搜索模块中。
隐藏状态序列搜索子模块43,用于将所述特征流与所述声学网络通过维特比算法进行对齐,并选取所述特征流所经过的声学网络节点为所搜索的隐藏状态序列,将隐藏状态序列搜索结果发送到切分结果生成模块。
切分结果生成子模块44,用于从所述隐藏状态序列搜索结果中求出每个切分好的句子的起止位置Sn和En。
所述句子的起止位置Sn和En通过以下公式得到:
Sn = (An+Bn-1)/2* FD,En = (Bn+An+1) /2*FD。
其中,所述Sn和En的计算公式中An、Bn为分别表示第n个切分后的句子的一个隐藏状态序列的序号和最后一个隐藏状态序列的序号,并令B0 =A1、AN+1=BN(N为切分后的句子个数),FD为特征提取子模块所用音频帧的时长。
图5是本发明视听字幕制作系统的切分可信度评估模块的优选结构图,所述切分可信度评估模块50还包括:
特征段切分子模块51,用于将每个所述句子依据得到的起止位置Sn和En从所述特征流中独立提取出来。
音节识别子模块52,用于将所述特征流识别为音节流,所述音节识别子模块包括识别网络建立单元和对齐解码单元。
所述识别网络建立单元53,用于将语料中计算得到的一元二元音节语法模型,建立音节转移概率网络,再将每个音节扩充为隐马尔科夫声学模型中的状态序列,组成最后的语音识别网络。
所述对齐解码单元54,用于通过维特比算法,根据所述特征流和所述语音识别网络求出具有最大概率的路径,并将其对应的音节序列,即语音识别出的音节序列发送到可信度分数计算子模块。
可信度分数计算子模块55,用于计算得到识别出的所述音节序列和文本中的音节序列的相似度分数F,将F作为切分可信度评估结果。
所述相似度分数F使用以下公式计算得到:
F = ( LR - LD(SS,SR) ) / LS *100。
其中,所述LR、LS分别为识别出的所述音节序列、文本中的音节序列音节个数,SS,SR分别为识别出的音节序列、文本中的音节序列,LD为计算两序列最小编辑距离的函数。
图6是本发明视听字幕制作系统的错误处理模块的优选结构图,所述错误处理模块60还包括:
切分结果与可信度展示子模块61,用于显示所述切分结果与所述切分可信度评估结果。优选的是,所述切分结果与可信度展示子模块61用于将同步展示规范化后声音声波波形、切分的文本和其切分可信度得分,并可从任意选中的位置回放规范化后的声音。同步展示通过如下方法:将规范化后声音的数字采样值作纵坐标、时间作横坐标做波形图,再将切分后的文本按切分结果显示在相应区域,最后对波形图分段着色,红色表示此段可信度得分低,黄色表示此段可信度得分较低,绿色表示此段可信度得分高。可信度得分高低的判断是通过比较可信度得分和预先设定的阈值来确定的。
人工辅助切分子模块62,用于所述切分结果需要人工微调时,将手动矫正所述切分结果,并将矫正后的所述切分结果发送到所述字幕生成模块,以及用于在所述原始文本有误时,则人工修改原始文本后交由所述原始文本处理模块重新切分。
图7是本发明视听字幕制作方法的流程图,所述方法包括步骤如下:
步骤S701,原始文本处理步骤:将输入的原始文本分词后按指定规则分割为合适长度的句子或短语。优选的是,根据原始文本的实际格式和字幕应用场合的其它要求,使用原始文本处理模块10将输入的原始文本分词后按指定规则分割为适当长度合适的句子或短语。
优选的是,所述原始文本处理步骤还包括:
分词子步骤,将所述原始文本用双数组Trie树分词算法分成含有若干个词的词语流。
文本切分子步骤,将所述词语流自动切分成长度合适的句子或短语,具体切分方法为:从前向后遍历所述词语流,依据句子边界符号将所述词语流切分成句子流。从前向后遍历每个句子,若所述句子的长度大于预定值,则依次尝试从逗号、从句、连接词或任意词处分开所述句子,直到所述句子的长度小于或等于所述预定值。所述形近词替换,自动选中词库中一个最相近的词w*替换原词。其中替换词w*通过以下方法得到:
w* = arg min c∈C D(w,c),
公式中w为原词,w*为替换词,C为注音词典集合,D为两词间的编辑距离函数。
例如,为MP3播放设备制作的字幕,最大切分长度可设为12个单词。根据词典和预先定义的分词规则,生成双数组Trie树,然后将原始文本流送入双数组Trie树进行分词。从前向后遍历每个词,从句子边界符将词语切分成句子,比如英语中的句子边界符号集为“.!?”等。再一次变量每个句子,如果句子长度大于所设定的最大切分长度,就先尝试从逗号分开再依次尝试从从句、连接词、任意词等处分开直到长度达到要求。比如英语中如果存在“,”就先从“,”分开,如果分开后的长度达到要求就继续下一个句子,否则尝试从what、that等从句引导词前面分开,还没达到要求可从and、or等连词中分开。最后如果还没达到要求就从中间的一个任意单词分开直到到达切分要求为止。
步骤S702,注音步骤:处理所述句子或短语中的非登录词,优选将非登录词替换为形近的登录词或直接去掉非登录词,然后通过查注音词典生成注音网络。
优选的是,所述注音步骤还包括:
非登录词处理子步骤,将切分好的所述句子或短语中含有的不在所述注音词典中的词,通过形近词替换、直接删除或人工注音方法转换为已知的读音的词。
注音网络生成子步骤,首先将切分处理非登录词后的词语流中每个词语首尾相连,建立词语网络,再查得每个词语所有可能的发音展开为注音网络。
对切分好的句子标注发音,生成发音网络。在生成网络之前,需要扫描每个句子的所有词,找出其中所有不在一个预先制作的发音词典之中的词,即非登录词。由于对齐模块的强容错性,如果非登录词在句子的中间可以假设它不发音(相对于生成注音网络时把这个词从直接删除了),对切分结果影响不大。如果非登录词在句子的开头或末尾,可以人工进行注音,也可以选择一个词典中形近的词替换它。通过以上处理后,再将处理后的所有词首尾相连,建立词语网络,查得每个词语所有可能的发音展开为注音网络。
步骤S703,原始声音处理步骤:将输入的原始声音处理成预定要求的声音流。
优选的是,所述原始声音处理步骤中根据所述原始声音的格式,采用对应的算法进行解码,根据声学模型的要求重新采样为指定的采样频率,再经过去噪声处理转换为预定要求的声音流。
例如,原始声音为采样频率44100赫兹、双声道的MP3格式,声学模型适用采样频率16000赫兹、单声道的PCM格式的声音,就需要进行转换。先调用MP3解码器解码MP3数据流为PCM格式,再重采样把采样频率44100赫兹、双声道转换为16000赫兹、单声道。如果原始声音噪音较大,可以进行去噪声处理。例如如果声音文件的首尾只有噪声成分,那么可以截取首尾各0.3秒进行学习得到噪声成分参数,再根据此噪声成分参数去噪声。
步骤S704,强制切分步骤:将所述注音网络切分为隐含马尔科夫识别语音的对齐网络,然后将所述声音流提取为特征流并在所述对齐网络对齐,将切分结果保存并输出。
优选的是,所述强制切分步骤还包括:
声学网络生成子步骤,将所述注音网络展开,并在词语间加入哑音,扩充为隐马尔科夫声学模型的声学网络。例如,英语中单词is在注音网络里为—ih—z—,ih音在声学模型中有4个状态,z音在声学模型中有5个状态,那么可以—ih1—...—ih4—z1—...—z5—sp—。
特征提取子步骤,将从所述声音流中逐帧提取音频,经过加窗处理后提取符合隐马尔科夫声学模型的声学参数,生成逐帧的所述特征流。例如每25ms 为一帧进行分帧处理,窗偏移量为10ms,采用汉明窗进行加窗处理,再提取出MFCC特征。
隐藏状态序列搜索子步骤,将所述特征流与所述声学网络通过维特比算法进行对齐,并选取所述特征流所经过的声学网络节点为所搜索的隐藏状态序列搜索结果。
切分结果生成子步骤,从所述隐藏状态序列搜索结果中求出每个切分好的句子的起止位置Sn和En。
所述句子的起止位置Sn和En通过以下公式得到:
Sn = (An+Bn-1)/2* FD,En = (Bn+An+1) /2*FD。
其中,所述Sn和En的计算公式中An、Bn为分别表示第n个切分后的句子的一个隐藏状态序列的序号和最后一个隐藏状态序列的序号,并令B0 =A1、AN+1=BN(N为切分后的句子个数),FD为特征提取子步骤所用音频帧的时长。
步骤S705,切分可信度评估步骤:通过语音识别对所述切分结果中每个切分段进行可信度评估得到切分可信度评估结果,若所述切分可信度评估结果达到预定值,则将所述切分结果直接发送到字幕生成步骤处理,否则将所述切分可信度评估结果发送到错误处理步骤处理。优选的是,对每个切分段,提取相应的特征流段,调用切分可信度评估模块,通过语音识别得到一串音节序列,和原始比较得出此切分段切分效果的可信度评估分数。如果评估分数高于预设的值则转到步骤S707,否则转到步骤S706。
优选的是,所述切分可信度评估步骤还包括:
特征段切分子步骤,将每个所述句子依据得到的起止位置Sn和En从所述特征流中独立提取出来。
音节识别子步骤,将所述特征流识别为音节流,所述音节识别子步骤包括识别网络建立步骤和对齐解码步骤。
所述识别网络建立步骤,将语料中计算得到的一元二元音节语法模型,建立音节转移概率网络,再将每个音节扩充为隐马尔科夫声学模型中的状态序列,组成最后的语音识别网络。
所述对齐解码步骤,通过维特比算法,根据所述特征流和所述语音识别网络求出具有最大概率的路径,并将其对应的音节序列,即语音识别出的音节序列发送到可信度分数计算子步骤处理。
可信度分数计算子步骤,计算得到识别出的所述音节序列和文本中的音节序列的相似度分数F,将F作为切分可信度评估结果。
所述相似度分数F使用以下公式计算得到:
F = ( LR - LD(SS,SR) ) / LS *100。
其中,所述LR、LS分别为识别出的所述音节序列、文本中的音节序列音节个数,SS,SR分别为识别出的音节序列、文本中的音节序列,LD为计算两序列最小编辑距离的函数。
步骤S706,错误处理步骤:显示所述切分可信度评估结果,判断是所述原始文本有误还是所述切分结果需要人工微调,若所述切分结果需要人工微调则人工微调所述切分结果,若是所述原始文本有误则人工修改原始文本后交由所述原始文本处理步骤重新切分。
优选的是,所述错误处理步骤还包括:
切分结果与可信度展示子步骤,显示所述切分结果与所述切分可信度评估结果。重点是把切分可信度评估结果的得分低的地方标记出来,便于人工判断是原始文本有误还是需要人工微调切分结果。
人工辅助切分子步骤,所述切分结果需要人工微调时,将手动矫正所述切分结果,并将矫正后的所述切分结果发送到所述字幕生成步骤,以及在所述原始文本有误时,则人工修改原始文本后交由所述原始文本处理步骤重新切分。
例如,将规范化后声音的数字采样值作纵坐标、时间作横坐标做波形图,再将切分后的文本按切分结果显示在相应区域,最后对波形图分段着色,红色表示此段评估得分低,黄色表示此段评估得分较低,绿色表示此段评估得分高。其中得分高低的判断是通过比较评估得分和预先设定的阈值来确定的,例如本实施例中得分大于80分为绿色,得分60~80间为黄色,60分以下为红色。操作员重点观察红色部分,确认是原始文本中有错误还是切分错误。如果是原始文本有错误,修改后转到步骤S701。如果是切分错误,可以手动矫正切分结果,保存矫正后的结果,转到步骤S707。
步骤S707,字幕生成步骤:结合预定的字幕文件格式,将所述切分结果输出字幕文件。优选的是,调用字幕生成模块70用于将切分结果结合输入的作者、版权、备注、字幕格式的信息输出包括LRC、SRT、SSA等格式的字幕文件,其中,其中LRC格式主要用于音频文件的字幕,SRT主要应用于简单的视频字幕,SSA格式用于复杂的字幕显示如像类似卡拉OK字幕的展示。
其中,所述步骤S701、步骤S702两个步骤和步骤S703是独立的,没有先后顺序,可以互换。
综上所述,本发明能自动处理原始文本,分割为限定长度的句子或短语;采用形近词替代等方法自动处理非登录词,建立多发音注音网络;将注音网络展开为隐含马尔科夫识别语音对齐网络,使用强容错隐含马尔科夫声学模型对文本自动对齐强制切分;通过语音识别技术对每个切分段的切分结果进行可信度评估,可很容易发现切分错误之处便于进一步处理;直接根据切分结果生成各种格式适用于各种设备的视听字幕文件。借此,本发明可以在无人工干预或很少人工干预的情况下直接得到高质量的视听字幕文件,从而大大提供视听教学字幕加配的工作效率。
当然,本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (14)
1.一种视听字幕制作系统,其特征在于,所述系统包括:
原始文本处理模块,用于将输入的原始文本分词后按指定规则分割为合适长度的句子或短语,并将所述句子或短语发送到注音模块;
注音模块,用于处理所述句子或短语中的非登录词,然后通过查注音词典生成注音网络,并将所述注音网络发送到强制切分模块;
原始声音处理模块,用于将输入的原始声音处理成预定要求的声音流,并将所述声音流发送到强制切分模块;
强制切分模块,用于将所述注音网络切分为隐含马尔科夫识别语音的对齐网络,然后将所述声音流提取为特征流并在所述对齐网络对齐,并将切分结果输入到切分可信度评估模块;
切分可信度评估模块,用于通过语音识别对所述切分结果中每个切分段进行可信度评估得到切分可信度评估结果,若所述切分可信度评估结果达到预定值,则将所述切分结果直接发送到字幕生成模块,否则将所述切分可信度评估结果发送到错误处理模块;
错误处理模块,用于显示所述切分可信度评估结果,判断是所述原始文本有误还是所述切分结果需要人工微调,若所述切分结果需要人工微调则人工微调所述切分结果并发送到字幕生成模块,若是所述原始文本有误则人工修改原始文本后重新交由所述原始文本处理模块切分;
字幕生成模块,用于结合预定的字幕文件格式,将所述切分结果输出字幕文件。
2.根据权利要求1所述的视听字幕制作系统,其特征在于,所述原始文本处理模块还包括:
分词子模块,用于将所述原始文本用双数组Trie树分词算法分成含有若干个词的词语流;
文本切分子模块,用于将所述词语流自动切分成长度合适的句子或短语,具体切分方法为:从前向后遍历所述词语流,依据句子边界符号将所述词语流切分成句子流;从前向后遍历每个句子,若所述句子的长度大于预定值,则依次尝试从逗号、从句、连接词或任意词处分开所述句子,直到所述句子的长度小于或等于所述预定值。
3.根据权利要求1所述的视听字幕制作系统,其特征在于,所述强制切分模块还包括:
声学网络生成子模块,用于将所述注音网络展开,并在词语间加入哑音,扩充为隐马尔科夫声学模型的声学网络,发送到隐藏状态序列搜索模块中;
特征提取子模块,用于将从所述声音流中逐帧提取音频,经过加窗处理后提取符合隐马尔科夫声学模型的声学参数,生成逐帧的所述特征流,发送到隐藏状态序列搜索模块中;
隐藏状态序列搜索子模块,用于将所述特征流与所述声学网络通过维特比算法进行对齐,并选取所述特征流所经过的声学网络节点为所搜索的隐藏状态序列,将隐藏状态序列搜索结果发送到切分结果生成模块;
切分结果生成子模块,用于从所述隐藏状态序列搜索结果中求出每个切分好的句子的起止位置Sn和En。
4.根据权利要求3所述的视听字幕制作系统,其特征在于,所述句子的起止位置Sn和En通过以下公式得到:
Sn= (An+Bn-1)/2* FD,En = (Bn+An+1) /2*FD;
其中,所述Sn和En的计算公式中An、Bn为分别表示第n个切分后的句子的一个隐藏状态序列的序号和最后一个隐藏状态序列的序号,并令B0 =A1、AN+1=BN(N为切分后的句子个数),FD为特征提取子模块所用音频帧的时长。
5.根据权利要求4所述的视听字幕制作系统,其特征在于,所述切分可信度评估模块还包括:
特征段切分子模块,用于将每个所述句子依据得到的起止位置Sn和En从所述特征流中独立提取出来;
音节识别子模块,用于将所述特征流识别为音节流,所述音节识别子模块包括识别网络建立单元和对齐解码单元;
所述识别网络建立单元,用于将语料中计算得到的一元二元音节语法模型,建立音节转移概率网络,再将每个音节扩充为隐马尔科夫声学模型中的状态序列,组成最后的语音识别网络;
所述对齐解码单元,用于通过维特比算法,根据所述特征流和所述语音识别网络求出具有最大概率的路径,并将其对应的音节序列,即语音识别出的音节序列发送到可信度分数计算子模块;
可信度分数计算子模块,用于计算得到识别出的所述音节序列和文本中的音节序列的相似度分数F,将F作为切分可信度评估结果。
6.根据权利要求5所述的视听字幕制作系统,其特征在于,所述相似度分数F使用以下公式计算得到:
F = ( LR - LD(SS,SR) ) / LS *100;
其中,所述LR、LS分别为识别出的所述音节序列、文本中的音节序列音节个数,SS,SR分别为识别出的音节序列、文本中的音节序列,LD为计算两序列最小编辑距离的函数。
7.根据权利要求1所述的视听字幕制作系统,其特征在于,所述错误处理模块还包括:
切分结果与可信度展示子模块,用于显示所述切分结果与所述切分可信度评估结果;
人工辅助切分子模块,用于所述切分结果需要人工微调时,将手动矫正所述切分结果,并将矫正后的所述切分结果发送到所述字幕生成模块,以及用于在所述原始文本有误时,则人工修改原始文本后交由所述原始文本处理模块重新切分。
8.一种视听字幕制作方法,其特征在于,包括步骤如下:
原始文本处理步骤,将输入的原始文本分词后按指定规则分割为合适长度的句子或短语;
注音步骤,处理所述句子或短语中的非登录词,然后通过查注音词典生成注音网络;
原始声音处理步骤,将输入的原始声音处理成预定要求的声音流;
强制切分步骤,将所述注音网络切分为隐含马尔科夫识别语音的对齐网络,然后将所述声音流提取为特征流并在所述对齐网络对齐;
切分可信度评估步骤,通过语音识别对所述切分结果中每个切分段进行可信度评估得到切分可信度评估结果,若所述切分可信度评估结果达到预定值,则将所述切分结果直接发送到字幕生成步骤处理,否则将所述切分可信度评估结果发送到错误处理步骤处理;
错误处理步骤,显示所述切分可信度评估结果,判断是所述原始文本有误还是所述切分结果需要人工微调,若所述切分结果需要人工微调则人工微调所述切分结果,若是所述原始文本有误则人工修改原始文本后交由所述原始文本处理步骤重新切分;
字幕生成步骤,结合预定的字幕文件格式,将所述切分结果输出字幕文件。
9.根据权利要求8所述的视听字幕制作方法,其特征在于,所述原始文本处理步骤还包括:
分词子步骤,将所述原始文本用双数组Trie树分词算法分成含有若干个词的词语流;
文本切分子步骤,将所述词语流自动切分成长度合适的句子或短语,具体切分方法为:从前向后遍历所述词语流,依据句子边界符号将所述词语流切分成句子流;从前向后遍历每个句子,若所述句子的长度大于预定值,则依次尝试从逗号、从句、连接词或任意词处分开所述句子,直到所述句子的长度小于或等于所述预定值。
10.根据权利要求8所述的视听字幕制作方法,其特征在于,所述强制切分步骤还包括:
声学网络生成子步骤,将所述注音网络展开,并在词语间加入哑音,扩充为隐马尔科夫声学模型的声学网络;
特征提取子步骤,将从所述声音流中逐帧提取音频,经过加窗处理后提取符合隐马尔科夫声学模型的声学参数,生成逐帧的所述特征流;
隐藏状态序列搜索子步骤,将所述特征流与所述声学网络通过维特比算法进行对齐,并选取所述特征流所经过的声学网络节点为所搜索的隐藏状态序列搜索结果;
切分结果生成子步骤,从所述隐藏状态序列搜索结果中求出每个切分好的句子的起止位置Sn和En。
11. 根据权利要求10所述的视听字幕制作方法,其特征在于,所述句子的起止位置Sn和En通过以下公式得到:
Sn= (An+Bn-1)/2* FD,En = (Bn+An+1) /2*FD;
其中,所述Sn和En的计算公式中An、Bn为分别表示第n个切分后的句子的一个隐藏状态序列的序号和最后一个隐藏状态序列的序号,并令B0 =A1、AN+1=BN(N为切分后的句子个数),FD为特征提取子步骤所用音频帧的时长。
12.根据权利要求11所述的视听字幕制作方法,其特征在于,所述切分可信度评估步骤还包括:
特征段切分子步骤,将每个所述句子依据得到的起止位置Sn和En从所述特征流中独立提取出来;
音节识别子步骤,将所述特征流识别为音节流,所述音节识别子步骤包括识别网络建立单元和对齐解码单元;
所述识别网络建立单元,将语料中计算得到的一元二元音节语法模型,建立音节转移概率网络,再将每个音节扩充为隐马尔科夫声学模型中的状态序列,组成最后的语音识别网络;
所述对齐解码单元,通过维特比算法,根据所述特征流和所述语音识别网络求出具有最大概率的路径,并将其对应的音节序列,即语音识别出的音节序列发送到可信度分数计算子步骤处理;
可信度分数计算子步骤,计算得到识别出的所述音节序列和文本中的音节序列的相似度分数F,将F作为切分可信度评估结果。
13.根据权利要求12所述的视听字幕制作方法,其特征在于,所述相似度分数F使用以下公式计算得到:
F = ( LR - LD(SS,SR) ) / LS *100;
其中,所述LR、LS分别为识别出的所述音节序列、文本中的音节序列音节个数,SS,SR分别为识别出的音节序列、文本中的音节序列,LD为计算两序列最小编辑距离的函数。
14.根据权利要求8所述的视听字幕制作方法,其特征在于,所述错误处理步骤还包括:
切分结果与可信度展示子步骤,显示所述切分结果与所述切分可信度评估结果;
人工辅助切分子步骤,所述切分结果需要人工微调时,将手动矫正所述切分结果,并将矫正后的所述切分结果发送到所述字幕生成步骤,以及在所述原始文本有误时,则人工修改原始文本后交由所述原始文本处理步骤重新切分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210389708.1A CN102937972B (zh) | 2012-10-15 | 2012-10-15 | 一种视听字幕制作系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210389708.1A CN102937972B (zh) | 2012-10-15 | 2012-10-15 | 一种视听字幕制作系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102937972A true CN102937972A (zh) | 2013-02-20 |
CN102937972B CN102937972B (zh) | 2016-06-22 |
Family
ID=47696869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210389708.1A Active CN102937972B (zh) | 2012-10-15 | 2012-10-15 | 一种视听字幕制作系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102937972B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104156478A (zh) * | 2014-08-26 | 2014-11-19 | 中译语通科技(北京)有限公司 | 一种互联网视频的字幕匹配与检索方法 |
CN105245917A (zh) * | 2015-09-28 | 2016-01-13 | 徐信 | 一种多媒体语音字幕生成的系统和方法 |
CN106409284A (zh) * | 2015-07-28 | 2017-02-15 | 三星电子株式会社 | 用于更新语言模型并执行语音识别的方法和装置 |
CN107306342A (zh) * | 2016-04-18 | 2017-10-31 | 斯耐尔先进媒体有限公司 | 监视具有字幕的视听内容 |
CN108024121A (zh) * | 2017-11-17 | 2018-05-11 | 武汉微摇科技文化有限公司 | 语音弹幕同步方法和系统 |
CN108763521A (zh) * | 2018-05-25 | 2018-11-06 | 腾讯音乐娱乐科技(深圳)有限公司 | 存储歌词注音的方法和装置 |
CN109257547A (zh) * | 2018-09-21 | 2019-01-22 | 南京邮电大学 | 中文在线音视频的字幕生成方法 |
CN109743613A (zh) * | 2018-12-29 | 2019-05-10 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种字幕处理方法、装置、终端及存储介质 |
CN110168531A (zh) * | 2016-12-30 | 2019-08-23 | 三菱电机株式会社 | 用于多模态融合模型的方法和系统 |
CN110895654A (zh) * | 2018-09-07 | 2020-03-20 | 台达电子工业股份有限公司 | 分段方法、分段系统及非暂态电脑可读取媒体 |
CN111556372A (zh) * | 2020-04-20 | 2020-08-18 | 北京甲骨今声科技有限公司 | 为视音频节目实时添加字幕的方法和装置 |
CN111768763A (zh) * | 2020-06-12 | 2020-10-13 | 北京三快在线科技有限公司 | 声学模型训练方法、装置、电子设备及存储介质 |
CN111933125A (zh) * | 2020-09-15 | 2020-11-13 | 深圳市友杰智新科技有限公司 | 联合模型的语音识别方法、装置和计算机设备 |
CN113343720A (zh) * | 2021-06-30 | 2021-09-03 | 北京搜狗科技发展有限公司 | 一种字幕翻译方法、装置和用于字幕翻译的装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020010916A1 (en) * | 2000-05-22 | 2002-01-24 | Compaq Computer Corporation | Apparatus and method for controlling rate of playback of audio data |
CN1870728A (zh) * | 2005-05-23 | 2006-11-29 | 北京大学 | 自动加配字幕的方法和系统 |
CN101382937A (zh) * | 2008-07-01 | 2009-03-11 | 深圳先进技术研究院 | 基于语音识别的多媒体资源处理方法及其在线教学系统 |
CN101651788A (zh) * | 2008-12-26 | 2010-02-17 | 中国科学院声学研究所 | 一种在线语音文本对齐系统及方法 |
-
2012
- 2012-10-15 CN CN201210389708.1A patent/CN102937972B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020010916A1 (en) * | 2000-05-22 | 2002-01-24 | Compaq Computer Corporation | Apparatus and method for controlling rate of playback of audio data |
CN1870728A (zh) * | 2005-05-23 | 2006-11-29 | 北京大学 | 自动加配字幕的方法和系统 |
CN101382937A (zh) * | 2008-07-01 | 2009-03-11 | 深圳先进技术研究院 | 基于语音识别的多媒体资源处理方法及其在线教学系统 |
CN101651788A (zh) * | 2008-12-26 | 2010-02-17 | 中国科学院声学研究所 | 一种在线语音文本对齐系统及方法 |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104156478B (zh) * | 2014-08-26 | 2017-07-07 | 中译语通科技(北京)有限公司 | 一种互联网视频的字幕匹配与检索方法 |
CN104156478A (zh) * | 2014-08-26 | 2014-11-19 | 中译语通科技(北京)有限公司 | 一种互联网视频的字幕匹配与检索方法 |
CN106409284B (zh) * | 2015-07-28 | 2019-12-10 | 三星电子株式会社 | 用于更新语言模型并执行语音识别的方法和装置 |
CN106409284A (zh) * | 2015-07-28 | 2017-02-15 | 三星电子株式会社 | 用于更新语言模型并执行语音识别的方法和装置 |
US11145292B2 (en) | 2015-07-28 | 2021-10-12 | Samsung Electronics Co., Ltd. | Method and device for updating language model and performing speech recognition based on language model |
US10497363B2 (en) | 2015-07-28 | 2019-12-03 | Samsung Electronics Co., Ltd. | Method and device for updating language model and performing speech recognition based on language model |
CN105245917A (zh) * | 2015-09-28 | 2016-01-13 | 徐信 | 一种多媒体语音字幕生成的系统和方法 |
CN105245917B (zh) * | 2015-09-28 | 2018-05-04 | 徐信 | 一种多媒体语音字幕生成的系统和方法 |
CN107306342A (zh) * | 2016-04-18 | 2017-10-31 | 斯耐尔先进媒体有限公司 | 监视具有字幕的视听内容 |
CN107306342B (zh) * | 2016-04-18 | 2021-06-08 | 草谷有限公司 | 一种监视视听内容的方法和系统 |
CN110168531B (zh) * | 2016-12-30 | 2023-06-20 | 三菱电机株式会社 | 用于多模态融合模型的方法和系统 |
CN110168531A (zh) * | 2016-12-30 | 2019-08-23 | 三菱电机株式会社 | 用于多模态融合模型的方法和系统 |
CN108024121A (zh) * | 2017-11-17 | 2018-05-11 | 武汉微摇科技文化有限公司 | 语音弹幕同步方法和系统 |
CN108024121B (zh) * | 2017-11-17 | 2020-02-07 | 武汉微摇科技文化有限公司 | 语音弹幕同步方法和系统 |
CN108763521A (zh) * | 2018-05-25 | 2018-11-06 | 腾讯音乐娱乐科技(深圳)有限公司 | 存储歌词注音的方法和装置 |
CN108763521B (zh) * | 2018-05-25 | 2022-02-25 | 腾讯音乐娱乐科技(深圳)有限公司 | 存储歌词注音的方法和装置 |
CN110895654A (zh) * | 2018-09-07 | 2020-03-20 | 台达电子工业股份有限公司 | 分段方法、分段系统及非暂态电脑可读取媒体 |
CN110895654B (zh) * | 2018-09-07 | 2024-07-02 | 台达电子工业股份有限公司 | 分段方法、分段系统及非暂态电脑可读取媒体 |
CN109257547A (zh) * | 2018-09-21 | 2019-01-22 | 南京邮电大学 | 中文在线音视频的字幕生成方法 |
CN109743613B (zh) * | 2018-12-29 | 2022-01-18 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种字幕处理方法、装置、终端及存储介质 |
CN109743613A (zh) * | 2018-12-29 | 2019-05-10 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种字幕处理方法、装置、终端及存储介质 |
CN111556372A (zh) * | 2020-04-20 | 2020-08-18 | 北京甲骨今声科技有限公司 | 为视音频节目实时添加字幕的方法和装置 |
CN111768763A (zh) * | 2020-06-12 | 2020-10-13 | 北京三快在线科技有限公司 | 声学模型训练方法、装置、电子设备及存储介质 |
CN111933125B (zh) * | 2020-09-15 | 2021-02-02 | 深圳市友杰智新科技有限公司 | 联合模型的语音识别方法、装置和计算机设备 |
CN111933125A (zh) * | 2020-09-15 | 2020-11-13 | 深圳市友杰智新科技有限公司 | 联合模型的语音识别方法、装置和计算机设备 |
CN113343720A (zh) * | 2021-06-30 | 2021-09-03 | 北京搜狗科技发展有限公司 | 一种字幕翻译方法、装置和用于字幕翻译的装置 |
Also Published As
Publication number | Publication date |
---|---|
CN102937972B (zh) | 2016-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102937972B (zh) | 一种视听字幕制作系统及方法 | |
CN107741928B (zh) | 一种基于领域识别的对语音识别后文本纠错的方法 | |
US20080319743A1 (en) | ASR-Aided Transcription with Segmented Feedback Training | |
CN106331893A (zh) | 实时字幕显示方法及系统 | |
CN110740275B (zh) | 一种非线性编辑系统 | |
CN106847259B (zh) | 一种音频关键词模板的筛选和优化方法 | |
US20130080384A1 (en) | Systems and methods for extracting and processing intelligent structured data from media files | |
CN110070855A (zh) | 一种基于迁移神经网络声学模型的语音识别系统及方法 | |
US12099815B2 (en) | Providing subtitle for video content in spoken language | |
Haubold et al. | Alignment of speech to highly imperfect text transcriptions | |
Hassan et al. | Segmentation and disfluency removal for conversational speech translation | |
Levin et al. | Automated closed captioning for Russian live broadcasting | |
CN111985234A (zh) | 语音文本纠错方法 | |
CN103885924A (zh) | 一种领域自适应的公开课字幕自动生成系统及方法 | |
Christodoulides et al. | Automatic detection and annotation of disfluencies in spoken French corpora | |
González-Carrasco et al. | Sub-sync: Automatic synchronization of subtitles in the broadcasting of true live programs in spanish | |
JP2004326404A (ja) | インデックス作成装置、インデックス作成方法、および、インデックス作成プログラム | |
Yamasaki et al. | Transcribing And Aligning Conversational Speech: A Hybrid Pipeline Applied To French Conversations | |
JP6426971B2 (ja) | 学習データ生成装置及びそのプログラム | |
López et al. | Iterative pseudo-forced alignment by acoustic ctc loss for self-supervised asr domain adaptation | |
US20240221721A1 (en) | Systems and methods for audio transcription switching based on real-time identification of languages in an audio stream | |
CN112270923A (zh) | 一种基于神经网络的语义识别系统 | |
JP6849977B2 (ja) | テキスト表示用同期情報生成装置および方法並びに音声認識装置および方法 | |
Georgescu et al. | Improvements of speed’s romanian asr system during reterom project | |
JP2017215555A (ja) | 音声翻訳装置及び音声翻訳システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |