CN107728783A - 人工智能处理方法及其系统 - Google Patents
人工智能处理方法及其系统 Download PDFInfo
- Publication number
- CN107728783A CN107728783A CN201710877689.XA CN201710877689A CN107728783A CN 107728783 A CN107728783 A CN 107728783A CN 201710877689 A CN201710877689 A CN 201710877689A CN 107728783 A CN107728783 A CN 107728783A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- input
- displaying
- input information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 230000008569 process Effects 0.000 title claims abstract description 21
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 20
- 238000012545 processing Methods 0.000 claims description 21
- 230000003542 behavioural effect Effects 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 claims description 7
- 230000006399 behavior Effects 0.000 description 21
- 238000004590 computer program Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000005291 magnetic effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000005538 encapsulation Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Data Mining & Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供了一种人工智能处理方法,应用于电子设备,该方法包括:获取用户的语音或文字输入信息;获取参考信息,其中,参考信息包括以下信息中的至少之一:电子设备的当前展示信息、电子设备的历史展示信息、用户的历史行为数据;以及基于参考信息,解析或修正输入信息的涵义或对应的指令。本公开还提供了一种人工智能处理系统。
Description
技术领域
本公开涉及一种人工智能处理方法及其系统。
背景技术
目前,用户可以通过各种应用服务满足各自的需求,因此,在各种应用服务上每天会产生大量的用户交互数据。
然而,在实现本公开的过程中,发明人发现相关技术中至少存在如下问题:用户在与各种应用服务交互时,应用服务仅仅根据接收的当前输入难以识别用户的真实意图,尤其是语音输入或者简单的口语化文字输入,由于口语存在随意性、突然性、句式结构的不规范性,即便能做到语音到文字的逐字的准确识别,但是仍然经常不能准确识别用户语音或简单文字指令背后的真正意图,或者出现识别错误,导致用户与各种应用服务的交互过程复杂、可靠性低。
发明内容
本公开的一个方面提供了一种应用于电子设备的人工智能处理方法,上述方法包括获取用户的语音或文字输入信息;获取参考信息,其中,上述参考信息包括以下信息中的至少之一:上述电子设备的当前展示信息、上述电子设备的历史展示信息、上述用户的历史行为数据;以及基于上述参考信息,解析或修正上述输入信息的涵义或对应的指令。
可选地,获取用户的历史行为数据包括监测上述用户在当前时刻以前至上述当前时刻的一定时间段内的的行为数据,其中,该历史行为数据包括以下至少之一:上述用户针对上述电子设备或者其他电子设备的操控数据;上述用户的语音数据;上述用户的运动数据;以及上述用户的身体状态数据。
可选地,基于上述参考信息,解析或修正上述输入信息的涵义或对应的指令包括:确定第一展示信息与上述输入信息之间的关联关系,其中,上述第一展示信息包括在上述电子设备上打开的页面中展示的信息;以及基于上述关联关系展示与上述输入信息关联的第二展示信息。
可选地,上述输入信息包括基于输入法输入的信息;以及基于上述关联关系展示与上述输入信息关联的第二展示信息包括在基于上述输入法输入上述输入信息的过程中,基于上述关联关系展示与上述输入信息关联的第二展示信息。
可选地,基于上述参考信息,解析或修正上述输入信息的涵义或对应的指令包括:若无法成功识别用户的输入信息,或者直接识别用户的输入信息为第一内容的情况下,基于上述参考信息,识别用户的输入为第二内容;确定上述第二内容为识别结果,其中,上述第一内容与上述第二内容不完全相同。
本公开的另一个方面提供了一种人工智能处理系统,应用于电子设备,上述系统包括第一获取模块、第二获取模块和处理模块。第一获取模块用于获取用户的语音或文字输入信息;第二获取模块用于获取参考信息,其中,上述参考信息包括以下信息中的至少之一:上述电子设备的当前展示信息、上述电子设备的历史展示信息、上述用户的历史行为数据;以及处理模块用于基于上述参考信息,解析或修正上述输入信息的涵义或对应的指令。
可选地,上述第二获取模块获取用户的历史行为数据包括监测上述用户在当前时刻以前至上述当前时刻的一定时间段内的的行为数据,其中,该历史行为数据包括以下至少之一:上述用户针对上述电子设备或者其他电子设备的操控数据;上述用户的语音数据;上述用户的运动数据;以及上述用户的身体状态数据。
可选地,上述处理模块包括第一确定单元和展示单元。第一确定单元用于确定第一展示信息与上述输入信息之间的关联关系,其中,上述第一展示信息包括在上述电子设备上打开的页面中展示的信息;以及展示单元用于基于上述关联关系展示与上述输入信息关联的第二展示信息。
可选地,上述输入信息包括基于输入法输入的信息;以及上述展示单元基于上述关联关系展示与上述输入信息关联的第二展示信息包括在基于上述输入法输入上述输入信息的过程中,基于上述关联关系展示与上述输入信息关联的第二展示信息。
可选地,上述处理模块包括识别单元和第二确定单元。识别单元用于若无法成功识别用户的输入信息,或者直接识别用户的输入信息为第一内容的情况下,基于上述参考信息,识别用户的输入为第二内容;第二确定单元用于确定上述第二内容为识别结果,其中,上述第一内容与上述第二内容不完全相同。
本公开的另一方面提供了一种电子设备,该电子设备包括存储器和处理器,存储器用于存储一个或多个程序;处理器用于执行该一个或多个程序以实现如上所述的方法。
本公开的另一方面提供了一种非易失性存储介质,存储有计算机可执行指令,上述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,上述计算机程序包括计算机可执行指令,上述指令在被执行时用于实现如上所述的方法。
附图说明
为了更完整地理解本公开及其优势,现在将参考结合附图的以下描述,其中:
图1示意性示出了根据本公开实施例的适用于人工智能处理方法及其系统的应用场景;
图2示意性示出了根据本公开实施例的人工智能处理方法的流程图;
图3A示意性示出了根据本公开实施例的解析或修正输入信息的涵义或对应的指令的流程图;
图3B示意性示出了根据本公开另一实施例的解析或修正输入信息的涵义或对应的指令的流程图;
图3C示意性示出了根据本公开另一实施例的解析或修正输入信息的涵义或对应的指令的流程图;
图4示意性示出了根据本公开实施例的人工智能处理系统的框图;
图5A示意性示出了根据本公开实施例的处理模块的框图;
图5B示意性示出了根据本公开另一实施例的处理模块的框图;以及
图6示意性示出了根据本公开实施例的电子设备的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。本领域技术人员还应理解,实质上任意表示两个或更多可选项目的转折连词和/或短语,无论是在说明书、权利要求书还是附图中,都应被理解为给出了包括这些项目之一、这些项目任一方、或两个项目的可能性。例如,短语“A或B”应当被理解为包括“A”或“B”、或“A和B”的可能性。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。
因此,本公开的技术可以硬件和/或软件(包括固件、微代码等)的形式来实现。另外,本公开的技术可以采取存储有指令的计算机可读介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。在本公开的上下文中,计算机可读介质可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,计算机可读介质可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。计算机可读介质的具体示例包括:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;和/或有线/无线通信链路。
本公开的实施例提供了一种应用于电子设备的人工智能处理方法及其系统,该方法包括:获取用户的语音或文字输入信息;获取参考信息,其中,参考信息包括以下信息中的至少之一:电子设备的当前展示信息、电子设备的历史展示信息、用户的历史行为数据;以及基于参考信息,解析或修正输入信息的涵义或对应的指令。
图1示意性示出了根据本公开实施例的适用于人工智能处理方法及其系统的应用场景。
如图1所示,在该应用场景中,人工智能处理方法及其系统可以应用在电子设备100中,电子设备100包括但不限于智能手机,笔记本电脑,台式电脑等。具体地,如图1所示,电子设备100可以是智能手机,其可以包括显示单元101,文字输入单元102或者语音输入单元103。其中,显示单元101可以用于展示信息,文字输入单元102可以用于输入文本信息,语音输入单元103可以使得用户通过语音输入的方式与电子设备100进行交互。
根据本公开的实施例,用户可以通过文字输入单元102输入文字信息,或者通过语音输入单元103输入语音信息,在获取用户的语音或文字输入信息的同时或之后,电子设备100可以获取参考信息,其中,参考信息用于解析或修正输入信息的涵义或对应的指令。需要说明的是,参考信息可以包括以下信息中的至少之一:电子设备的当前展示信息、电子设备的历史展示信息、用户的历史行为数据。进一步地,电子设备当前展示信息以及历史展示信息可以包含在该用户的历史行为数据中,电子设备当前展示信息以及历史展示信息也可以包含该用户和其他用户在该电子设备上操作后展示的信息。根据本公开的实施例,任何可以用于解析或修正输入信息的涵义或对应的指令的信息都可以作为本公开的参考信息,本公开对参考信息不做限定。
根据本公开的实施例,用户在与各种应用服务交互时,通过将参考信息与用户的输入信息进行结合分析,可以准确识别用户语音或简单文字指令背后的真正意图,解决了相关技术中用户在与各种应用服务交互时,应用服务仅仅根据接收的当前输入难以识别用户的真实意图的问题,降低了用户与各种应用服务的交互过程的复杂度,提高了可靠性。
图2示意性示出了根据本公开实施例的人工智能处理方法的流程图。
如图2所示,该人工智能处理方法包括操作S210~S230。
在操作S210,获取用户的语音或文字输入信息。
在操作S220,获取参考信息,其中,参考信息包括以下信息中的至少之一:电子设备的当前展示信息、电子设备的历史展示信息、用户的历史行为数据。
在操作S230,基于参考信息,解析或修正输入信息的涵义或对应的指令。
根据本公开的实施例,该人工智能处理方法应用于一电子设备,电子设备获取用户的语音或文字输入信息的同时或之后,获取参考信息,参考信息可以包括以下信息中的至少之一:电子设备的当前展示信息、电子设备的历史展示信息、用户的历史行为数据。
根据本公开的实施例,用户在与电子设备进行交互时,可以输入语音信息,由于语音信息的随意性、突然性、句式结构的不规范性,相关技术中即使能做到语音到文字的逐字的准确识别,但是仍然经常不能准确识别用户语音或简单文字指令背后的真正意图。本公开通过基于电子设备的当前展示信息、电子设备的历史展示信息和用户的历史行为数据中的一种或多种参考信息对用户的输入信息进行解析修正其涵义或对应的指令。具体地,例如,用户刚刚在浏览器里看了一篇文章有大量的关键字是“北京”,然后问语音助手“XXX街在哪里”,基于用户刚刚在浏览器里看了一篇文章,解析用户的输入信息“XXX街在哪里”问的是北京的一个地方。
根据本公开的实施例,用户在与各种应用服务交互时,通过将参考信息与用户的输入信息进行结合分析,可以准确识别用户语音或简单文字指令背后的真正意图,解决了相关技术中用户在与各种应用服务交互时,应用服务仅仅根据接收的当前输入难以识别用户的真实意图的问题,降低了用户与各种应用服务的交互过程的复杂度,提高了可靠性。
根据本公开的实施例,获取用户的历史行为数据包括监测用户在当前时刻以前至当前时刻的一定时间段内的的行为数据,其中,该历史行为数据包括以下至少之一:用户针对电子设备或者其他电子设备的操控数据;用户的语音数据;用户的运动数据;以及用户的身体状态数据。
根据本公开的实施例,用户的历史行为数据可以是用户当前时刻以前至当前时刻的一定时间段内的的行为数据,当前时刻可以是用户此时输入信息的时刻,一定时间段可以是一段时间,具体的时长可以根据用户产生的行为数据量进行确定。历史行为数据可以是用户针对电子设备或者其他电子设备的操控数据,例如,可以是用户搜索或浏览后产生的数据。历史行为数据也可以是用户的语音数据或运动数据,以及用户的身体状态数据。根据本公开的实施例,任何可以用于解析或修正输入信息的涵义或对应的指令的历史行为数据都可以作为本公开的参考信息,本公开对历史行为数据不做限定。
根据本公开的实施例,通过监测并获取用户在当前时刻以前至当前时刻的一定时间段内的的行为数据,可以准确识别用户语音或简单文字指令背后的真正意图,提高了用户体验。
下面参考图3A~图3C,结合具体实施例对图2所示的方法做进一步说明。
图3A示意性示出了根据本公开实施例的解析或修正输入信息的涵义或对应的指令的流程图。
如图3A所示,基于参考信息,解析或修正输入信息的涵义或对应的指令包括操作S231和操作S232。
在操作S231,确定第一展示信息与输入信息之间的关联关系,其中,第一展示信息包括在电子设备上打开的页面中展示的信息。
在操作S232,基于关联关系展示与输入信息关联的第二展示信息。
根据本公开的实施例,在电子设备上打开的页面中展示有第一展示信息,确定页面中的第一展示信息与用户本次输入信息的关联关系,在关联度高的情况下,可以展示与页面中的展示信息以及用户本次的输入信息都相关的第二展示信息;在关联度低的情况下,可以展示仅与本次的输入信息相关的第二展示信息。
根据本公开的实施例,通过确定第一展示信息与输入信息之间的关联关系,可以准确识别用户语音或简单文字指令背后的真正意图,展示与用户真实意图相关联的展示信息,提高了用户体验,降低了用户再次输入信息的可能性,使得输出信息时更加智能化。
根据本公开的实施例,输入信息包括基于输入法输入的信息;以及基于关联关系展示与输入信息关联的第二展示信息包括在基于输入法输入输入信息的过程中,基于关联关系展示与输入信息关联的第二展示信息。
图3B示意性示出了根据本公开另一实施例的解析或修正输入信息的涵义或对应的指令的流程图。
如图3B所示,基于参考信息,解析或修正输入信息的涵义或对应的指令包括操作S231和操作S2321。
在操作S231,确定第一展示信息与输入信息之间的关联关系,其中,第一展示信息包括在电子设备上打开的页面中展示的信息。
在操作S2321,在基于输入法输入输入信息的过程中,基于关联关系展示与输入信息关联的第二展示信息。
根据本公开的实施例,输入法可以包括语音输入法和/或文本输入法,基于输入法输入输入信息可以是语音输入或文本输入信息。根据本公开的实施例,根据所处场景或上下文,在基于输入法输入输入信息的过程中,输入法可以自动联想与输入信息相关的信息,使得电子设备可以基于关联关系展示与输入信息关联的第二展示信息,从而使得可以基于历史数据理解用户的真正意图,提高了电子设备的智能化程度。
图3C示意性示出了根据本公开另一实施例的解析或修正输入信息的涵义或对应的指令的流程图。
如图3C所示,根据本公开的实施例,基于参考信息,解析或修正输入信息的涵义或对应的指令包括操作S233和操作S234。
在操作S233,若无法成功识别用户的输入信息,或者直接识别用户的输入信息为第一内容的情况下,基于参考信息,识别用户的输入为第二内容。
在操作S234,确定第二内容为识别结果,其中,第一内容与第二内容不完全相同。
根据本公开的实施例,当解析或修正输入信息的涵义或对应的指令时,若无法成功识别用户的输入信息,或者在没有基于参考信息的情况下直接识别用户的输入信息为第一内容时,电子设备可以基于参考信息,识别用户的输入为第二内容,并且,将第二内容作为识别结果,用于解析或修正输入信息的涵义或对应的指令,在这种情况下,第一内容与第二内容是不完全相同的。
根据本公开的实施例,在无法成功识别用户的输入信息,或者直接识别用户的输入信息为第一内容的情况下,确定第二内容作为识别结果,使得可以更加智能化的解析或修正输入信息的涵义或对应的指令。
根据本公开的实施例,在获取用户的语音或文本输入信息后,还可以确定输入信息对应的特征信息;获取特征信息与特征码的对应关系;以及根据对应关系将输入信息转化为与对应的特征信息对应的特征码,以使用户再次输入信息时能够将转换得到的特征码代替输入信息使用。将用户的语音或文本输入信息转化为特征码,使得在下一次输入相同的输入信息时可以直接输入该特征码,保护了用户的隐私。
图4示意性示出了根据本公开实施例的人工智能处理系统的框图。
如图4所示,人工智能处理系统400应用于电子设备,包括第一获取模块410、第二获取模块420和处理模块430。
第一获取模块410用于获取用户的语音或文字输入信息。
第二获取模块420用于获取参考信息,其中,参考信息包括以下信息中的至少之一:电子设备的当前展示信息、电子设备的历史展示信息、用户的历史行为数据。
处理模块430用于基于参考信息,解析或修正输入信息的涵义或对应的指令。
根据本公开的实施例,用户在与各种应用服务交互时,通过将参考信息与用户的输入信息进行结合分析,可以准确识别用户语音或简单文字指令背后的真正意图,解决了相关技术中用户在与各种应用服务交互时,应用服务仅仅根据接收的当前输入难以识别用户的真实意图的问题,降低了用户与各种应用服务的交互过程的复杂度,提高了可靠性。
根据本公开的实施例,第二获取模块420获取用户的历史行为数据包括监测用户在当前时刻以前至当前时刻的一定时间段内的的行为数据,其中,该历史行为数据包括以下至少之一:用户针对电子设备或者其他电子设备的操控数据;用户的语音数据;用户的运动数据;以及用户的身体状态数据。
根据本公开的实施例,通过监测并获取用户在当前时刻以前至当前时刻的一定时间段内的的行为数据,可以准确识别用户语音或简单文字指令背后的真正意图,提高了用户体验。
图5A示意性示出了根据本公开实施例的处理模块的框图。
如图5A所示,处理模块430包括第一确定单元431和展示单元432。
第一确定单元431用于确定第一展示信息与输入信息之间的关联关系,其中,第一展示信息包括在电子设备上打开的页面中展示的信息。
展示单元432用于基于关联关系展示与输入信息关联的第二展示信息。
根据本公开的实施例,通过确定第一展示信息与输入信息之间的关联关系,可以准确识别用户语音或简单文字指令背后的真正意图,展示与用户真实意图相关联的展示信息,提高了用户体验,降低了用户再次输入信息的可能性,使得输出信息时更加智能化。
根据本公开的实施例,输入信息包括基于输入法输入的信息;以及展示单元432基于关联关系展示与输入信息关联的第二展示信息包括在基于输入法输入输入信息的过程中,基于关联关系展示与输入信息关联的第二展示信息。
根据本公开的实施例,输入法可以包括语音输入法和/或文本输入法,基于输入法输入输入信息可以是语音输入或文本输入信息。根据本公开的实施例,根据所处场景或上下文,在基于输入法输入输入信息的过程中,输入法可以自动联想与输入信息相关的信息,使得电子设备可以基于关联关系展示与输入信息关联的第二展示信息,从而使得可以基于历史数据理解用户的真正意图,提高了电子设备的智能化程度。
图5B示意性示出了根据本公开另一实施例的处理模块的框图。
如图5B所示,处理模块430包括识别单元433和第二确定单元434。
识别单元433用于若无法成功识别用户的输入信息,或者直接识别用户的输入信息为第一内容的情况下,基于参考信息,识别用户的输入为第二内容;
第二确定单元434用于确定第二内容为识别结果,其中,第一内容与第二内容不完全相同。
根据本公开的实施例,在无法成功识别用户的输入信息,或者直接识别用户的输入信息为第一内容的情况下,确定第二内容作为识别结果,使得可以更加智能化的解析或修正输入信息的涵义或对应的指令。
可以理解的是,第一获取模块410、第二获取模块420和处理模块430可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本发明的实施例,第一获取模块410、第二获取模块420和处理模块430中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以以对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式的适当组合来实现。或者,第一获取模块410、第二获取模块420和处理模块430中的至少一个可以至少被部分地实现为计算机程序模块,当该程序被计算机运行时,可以执行相应模块的功能。
本公开的另一方面提供了一种非易失性存储介质,存储有计算机可执行指令,上述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,上述计算机程序包括计算机可执行指令,上述指令在被执行时用于实现如上所述的方法。
图6示意性示出了根据本公开实施例的电子设备的框图。
如图6所示,电子设备600包括处理器610和可读存储介质620。该电子设备600可以执行上面参考图2、图3A~图3C描述的方法。
具体地,处理器610例如可以包括通用微处理器、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器610还可以包括用于缓存用途的板载存储器。处理器610可以是用于执行参考图2、图3A~图3C描述的根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
可读存储介质620,例如可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,可读存储介质可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。可读存储介质的具体示例包括:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;和/或有线/无线通信链路。
可读存储介质620可以包括计算机程序621,该计算机程序621可以包括代码/计算机可执行指令,其在由处理器610执行时使得处理器610执行例如上面结合图2、图3A~图3C所描述的方法流程及其任何变形。
计算机程序621可被配置为具有例如包括计算机程序模块的计算机程序代码。例如,在示例实施例中,计算机程序621中的代码可以包括一个或多个程序模块,例如包括621A、模块621B、……。应当注意,模块的划分方式和个数并不是固定的,本领域技术人员可以根据实际情况使用合适的程序模块或程序模块组合,当这些程序模块组合被处理器610执行时,使得处理器610可以执行例如上面结合图2、图3A~图3C所描述的方法流程及其任何变形。
根据本发明的实施例,第一获取模块410、第二获取模块420和处理模块430中的至少一个可以实现为参考图6描述的计算机程序模块,其在被处理器610执行时,可以实现上面描述的相应操作。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
尽管已经参照本公开的特定示例性实施例示出并描述了本公开,但是本领域技术人员应该理解,在不背离所附权利要求及其等同物限定的本公开的精神和范围的情况下,可以对本公开进行形式和细节上的多种改变。因此,本公开的范围不应该限于上述实施例,而是应该不仅由所附权利要求来进行确定,还由所附权利要求的等同物来进行限定。
Claims (10)
1.一种人工智能处理方法,应用于电子设备,所述方法包括:
获取用户的语音或文字输入信息;
获取参考信息,其中,所述参考信息包括以下信息中的至少之一:所述电子设备的当前展示信息、所述电子设备的历史展示信息、所述用户的历史行为数据;以及
基于所述参考信息,解析或修正所述输入信息的涵义或对应的指令。
2.根据权利要求1所述的方法,其中,获取用户的历史行为数据包括监测所述用户在当前时刻以前至所述当前时刻的一定时间段内的的行为数据,其中,该历史行为数据包括以下至少之一:
所述用户针对所述电子设备或者其他电子设备的操控数据;
所述用户的语音数据;
所述用户的运动数据;以及
所述用户的身体状态数据。
3.根据权利要求1所述的方法,其中,基于所述参考信息,解析或修正所述输入信息的涵义或对应的指令包括:
确定第一展示信息与所述输入信息之间的关联关系,其中,所述第一展示信息包括在所述电子设备上打开的页面中展示的信息;以及
基于所述关联关系展示与所述输入信息关联的第二展示信息。
4.根据权利要求3所述的方法,其中:
所述输入信息包括基于输入法输入的信息;以及
基于所述关联关系展示与所述输入信息关联的第二展示信息包括在基于所述输入法输入所述输入信息的过程中,基于所述关联关系展示与所述输入信息关联的第二展示信息。
5.根据权利要求1所述的方法,其中,基于所述参考信息,解析或修正所述输入信息的涵义或对应的指令包括:
若无法成功识别用户的输入信息,或者直接识别用户的输入信息为第一内容的情况下,基于所述参考信息,识别用户的输入为第二内容;
确定所述第二内容为识别结果,其中,所述第一内容与所述第二内容不完全相同。
6.一种人工智能处理系统,应用于电子设备,所述系统包括:
第一获取模块,用于获取用户的语音或文字输入信息;
第二获取模块,用于获取参考信息,其中,所述参考信息包括以下信息中的至少之一:所述电子设备的当前展示信息、所述电子设备的历史展示信息、所述用户的历史行为数据;以及
处理模块,用于基于所述参考信息,解析或修正所述输入信息的涵义或对应的指令。
7.根据权利要求6所述的系统,其中,所述第二获取模块获取用户的历史行为数据包括监测所述用户在当前时刻以前至所述当前时刻的一定时间段内的的行为数据,其中,该历史行为数据包括以下至少之一:
所述用户针对所述电子设备或者其他电子设备的操控数据;
所述用户的语音数据;
所述用户的运动数据;以及
所述用户的身体状态数据。
8.根据权利要求6所述的系统,其中,所述处理模块包括:
第一确定单元,用于确定第一展示信息与所述输入信息之间的关联关系,其中,所述第一展示信息包括在所述电子设备上打开的页面中展示的信息;以及
展示单元,用于基于所述关联关系展示与所述输入信息关联的第二展示信息。
9.根据权利要求8所述的系统,其中:
所述输入信息包括基于输入法输入的信息;以及
所述展示单元基于所述关联关系展示与所述输入信息关联的第二展示信息包括在基于所述输入法输入所述输入信息的过程中,基于所述关联关系展示与所述输入信息关联的第二展示信息。
10.根据权利要求6所述的系统,其中,所述处理模块包括:
识别单元,用于若无法成功识别用户的输入信息,或者直接识别用户的输入信息为第一内容的情况下,基于所述参考信息,识别用户的输入为第二内容;
第二确定单元,用于确定所述第二内容为识别结果,其中,所述第一内容与所述第二内容不完全相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710877689.XA CN107728783B (zh) | 2017-09-25 | 2017-09-25 | 人工智能处理方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710877689.XA CN107728783B (zh) | 2017-09-25 | 2017-09-25 | 人工智能处理方法及其系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107728783A true CN107728783A (zh) | 2018-02-23 |
CN107728783B CN107728783B (zh) | 2021-05-18 |
Family
ID=61208006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710877689.XA Active CN107728783B (zh) | 2017-09-25 | 2017-09-25 | 人工智能处理方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107728783B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520746A (zh) * | 2018-03-22 | 2018-09-11 | 北京小米移动软件有限公司 | 语音控制智能设备的方法、装置及存储介质 |
CN108595412A (zh) * | 2018-03-19 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 纠错处理方法及装置、计算机设备及可读介质 |
CN108942925A (zh) * | 2018-06-25 | 2018-12-07 | 珠海格力智能装备有限公司 | 机器人的控制方法和装置 |
CN109346079A (zh) * | 2018-12-04 | 2019-02-15 | 北京羽扇智信息科技有限公司 | 基于声纹识别的语音交互方法及装置 |
CN111222322A (zh) * | 2019-12-31 | 2020-06-02 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
CN111241257A (zh) * | 2020-01-03 | 2020-06-05 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
CN113366466A (zh) * | 2021-05-07 | 2021-09-07 | 华为技术有限公司 | 反馈方法及电子设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102893327A (zh) * | 2010-03-19 | 2013-01-23 | 数字标记公司 | 直觉计算方法和系统 |
CN103645876A (zh) * | 2013-12-06 | 2014-03-19 | 百度在线网络技术(北京)有限公司 | 语音输入方法和装置 |
CN104699236A (zh) * | 2013-12-05 | 2015-06-10 | 联想(新加坡)私人有限公司 | 利用境况解释自然语言语音识别命令 |
US20150269529A1 (en) * | 2014-03-24 | 2015-09-24 | Educational Testing Service | Systems and Methods for Assessing Structured Interview Responses |
CN105045818A (zh) * | 2015-06-26 | 2015-11-11 | 腾讯科技(深圳)有限公司 | 一种图片的推荐方法、装置和系统 |
CN105144027A (zh) * | 2013-01-09 | 2015-12-09 | 微软技术许可有限责任公司 | 在确定动作中使用非言语通信 |
CN105719649A (zh) * | 2016-01-19 | 2016-06-29 | 百度在线网络技术(北京)有限公司 | 语音识别方法及装置 |
CN106896932A (zh) * | 2016-06-07 | 2017-06-27 | 阿里巴巴集团控股有限公司 | 一种候选词推荐方法及装置 |
CN106940798A (zh) * | 2017-03-08 | 2017-07-11 | 深圳市金立通信设备有限公司 | 一种文字识别的修正方法以及终端 |
CN106941000A (zh) * | 2017-03-21 | 2017-07-11 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音交互方法和装置 |
-
2017
- 2017-09-25 CN CN201710877689.XA patent/CN107728783B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102893327A (zh) * | 2010-03-19 | 2013-01-23 | 数字标记公司 | 直觉计算方法和系统 |
CN105144027A (zh) * | 2013-01-09 | 2015-12-09 | 微软技术许可有限责任公司 | 在确定动作中使用非言语通信 |
CN104699236A (zh) * | 2013-12-05 | 2015-06-10 | 联想(新加坡)私人有限公司 | 利用境况解释自然语言语音识别命令 |
CN103645876A (zh) * | 2013-12-06 | 2014-03-19 | 百度在线网络技术(北京)有限公司 | 语音输入方法和装置 |
US20150269529A1 (en) * | 2014-03-24 | 2015-09-24 | Educational Testing Service | Systems and Methods for Assessing Structured Interview Responses |
CN105045818A (zh) * | 2015-06-26 | 2015-11-11 | 腾讯科技(深圳)有限公司 | 一种图片的推荐方法、装置和系统 |
CN105719649A (zh) * | 2016-01-19 | 2016-06-29 | 百度在线网络技术(北京)有限公司 | 语音识别方法及装置 |
CN106896932A (zh) * | 2016-06-07 | 2017-06-27 | 阿里巴巴集团控股有限公司 | 一种候选词推荐方法及装置 |
CN106940798A (zh) * | 2017-03-08 | 2017-07-11 | 深圳市金立通信设备有限公司 | 一种文字识别的修正方法以及终端 |
CN106941000A (zh) * | 2017-03-21 | 2017-07-11 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音交互方法和装置 |
Non-Patent Citations (2)
Title |
---|
岑磊: ""基于个性化推荐的图像浏览与检索相关方法研究"", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 * |
赵亚洲: "《智能+AR、VR、AL、IW》", 31 March 2017, 北京联合出版公司 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108595412A (zh) * | 2018-03-19 | 2018-09-28 | 百度在线网络技术(北京)有限公司 | 纠错处理方法及装置、计算机设备及可读介质 |
CN108595412B (zh) * | 2018-03-19 | 2020-03-27 | 百度在线网络技术(北京)有限公司 | 纠错处理方法及装置、计算机设备及可读介质 |
CN108520746A (zh) * | 2018-03-22 | 2018-09-11 | 北京小米移动软件有限公司 | 语音控制智能设备的方法、装置及存储介质 |
CN108942925A (zh) * | 2018-06-25 | 2018-12-07 | 珠海格力智能装备有限公司 | 机器人的控制方法和装置 |
CN109346079A (zh) * | 2018-12-04 | 2019-02-15 | 北京羽扇智信息科技有限公司 | 基于声纹识别的语音交互方法及装置 |
CN111222322A (zh) * | 2019-12-31 | 2020-06-02 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
CN111241257A (zh) * | 2020-01-03 | 2020-06-05 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
CN111241257B (zh) * | 2020-01-03 | 2023-07-21 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
CN113366466A (zh) * | 2021-05-07 | 2021-09-07 | 华为技术有限公司 | 反馈方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN107728783B (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107728783A (zh) | 人工智能处理方法及其系统 | |
US11669579B2 (en) | Method and apparatus for providing search results | |
EP4113354A2 (en) | Method and apparatus for generating pre-trained language model, electronic device and storage medium | |
CN109002510B (zh) | 一种对话处理方法、装置、设备和介质 | |
US20160372118A1 (en) | Context-dependent modeling of phonemes | |
US20190236142A1 (en) | System and Method of Chat Orchestrated Visualization | |
US11758088B2 (en) | Method and apparatus for aligning paragraph and video | |
US20170092261A1 (en) | System and method for crowd-sourced data labeling | |
CN109429522A (zh) | 语音交互方法、装置及系统 | |
WO2017186050A1 (zh) | 人机智能问答系统的断句识别方法和装置 | |
US9766868B2 (en) | Dynamic source code generation | |
US9619209B1 (en) | Dynamic source code generation | |
US20140164296A1 (en) | Chatbot system and method with entity-relevant content from entity | |
US20210249019A1 (en) | Speech recognition method, system and storage medium | |
CN109582825B (zh) | 用于生成信息的方法和装置 | |
US20150206198A1 (en) | Method and System to Generate Digitized Advertisement Content by Extraction from a Representation of a Completed Instantiation of a Rendered Webpage | |
US20200311350A1 (en) | Generating method, learning method, generating apparatus, and non-transitory computer-readable storage medium for storing generating program | |
US20170154125A1 (en) | Autocomplete suggestions by context-aware key-phrase generation | |
US9946712B2 (en) | Techniques for user identification of and translation of media | |
CN109190123B (zh) | 用于输出信息的方法和装置 | |
EP3506070A1 (en) | Information presentation device and information presentation method | |
CN113569740A (zh) | 视频识别模型训练方法与装置、视频识别方法与装置 | |
CN118070072A (zh) | 基于人工智能的问题处理方法、装置、设备及存储介质 | |
CN115033677A (zh) | 基于对话机器人的事件处理方法、装置、设备和介质 | |
CN111354349A (zh) | 一种语音识别方法及装置、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |