CN102103707A - 情感引擎、情感引擎系统及电子装置的控制方法 - Google Patents
情感引擎、情感引擎系统及电子装置的控制方法 Download PDFInfo
- Publication number
- CN102103707A CN102103707A CN2009102580528A CN200910258052A CN102103707A CN 102103707 A CN102103707 A CN 102103707A CN 2009102580528 A CN2009102580528 A CN 2009102580528A CN 200910258052 A CN200910258052 A CN 200910258052A CN 102103707 A CN102103707 A CN 102103707A
- Authority
- CN
- China
- Prior art keywords
- behavior
- behavior pattern
- emotion
- control module
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种情感引擎、情感引擎系统及电子装置的控制方法,情感引擎适用于电子装置。情感引擎系统包括行为控制单元、感测单元、时间单元及行为数据库。行为控制单元提供第一行为模式及第二行为模式。当感测单元被致能时,产生触发感测信息或初始感测信息至行为控制单元。时间单元产生时间信息至行为控制单元。行为数据库储存多笔行为数据,其中第一及第二行为模式分别对应行为数据中的至少一笔行为数据。据此,行为控制单元依据时间信息、触发感测信息及第一行为模式,决定第二行为模式所对应的行为数据。本发明提供的情感引擎、情感引擎系统及电子装置的控制方法,使电子装置具有较低的制作成本,可细腻地描述及表达机器人的个性特质。
Description
技术领域
本发明涉及一种系统及其控制方法,尤其涉及一种情感引擎、情感引擎系统及电子装置的控制方法。
背景技术
近几年来,由于具有人工智慧的电子装置不断地推陈出新,其情感技术的需求已逐渐地受到重视。例如,作为机器人的电子装置,其情感技术(Emotion Technology)一直以来都是机器人学(Robotics)里独特的技术,其包含了信息工程与控制工程的整合技术。
详细而言,在情感技术中,最核心的概念为情感空间(Emotion Space)的实现,其迷人之处在于控制系统能够通过演算法以及拟生结构的设计来赋予机器人具有近似生命体的感情与互动的能力。其有别于传统的机器人只能通过冰冷的外型或是简单且静态的互动方式来表达拟态情感。因此,情感技术的特点在于,其能够赋予冰冷的机构系统具备更为灵活且更有意义的互动能力,并表现出机器人内心的情感,以让冰冷的机构系统能够在互动的过程中不至于呆板。
然而,长久以来机器人的情感技术一直都有许多的技术瓶颈。在控制系统中,控制单元不仅需要整合大量的信息,更需要高阶的人工智能演算法来作为辨识法则。因此,在低成本的考量下,若要以传统的方式建置一个情感引擎来符合现有市场的需求,将有其困难。
发明内容
本发明实施例的目的是提供一种情感引擎,可使电子装置具有较低的制作成本,且当电子装置作为机器人的应用时,情感引擎可细腻地描述并表达其个性特质。
本发明实施例的目的是提供一种情感引擎系统,可使电子装置具有较低的制作成本,且当电子装置作为机器人的应用时,情感引擎系统可细腻地描述及表达其个性特质。
本发明实施例的目的是提供一种电子装置的控制方法。当电子装置作为机器人的应用时,其可细腻地描述及表达机器人的个性特质。
本发明实施例提供一种情感引擎,其适用于一电子装置。该情感引擎包括一行为控制单元,行为控制单元包括一情感模拟单元,用以接收一时间信息、一触发感测信息,并提供一第一行为模式及一第二行为模式。据此,行为控制单元依据时间信息、触发感测信息及第一行为模式,决定第二行为模式所对应的行为数据,其中第一行为模式及第二行为模式分别对应多个行为数据中的至少一笔行为数据。
本发明的另一实施例提供一种情感引擎系统,其适用于一电子装置。情感引擎系统包括一行为控制单元、一感测单元、一时间单元及一行为数据库。行为控制单元包括一情感模拟单元,用以提供一第一行为模式及一第二行为模式。感测单元连接行为控制单元,且当感测单元被致能时,产生一触发感测信息或一初始感测信息至行为控制单元。时间单元连接行为控制单元,并产生一时间信息至行为控制单元。另外,行为数据库连接行为控制单元,并储存多笔行为数据,其中第一行为模式及第二行为模式分别对应行为数据中的至少一笔行为数据。据此,行为控制单元依据时间信息、触发感测信息及第一行为模式,决定第二行为模式所对应的行为数据。
在本发明一实施例中,上述的情感模拟单元还产生一随机信号,且行为控制单元依据时间信息、触发感测信息、第一行为模式及随机信号,决定第二行为模式所对应的行为数据。
在本发明一实施例中,上述的行为控制单元依据时间信息及初始感测信息中的至少其中之一,决定第一行为模式所对应的行为数据。
在本发明一实施例中,上述的情感引擎系统还包括一元件驱动单元,且初始感测信息为一电源信号。当行为控制单元接收初始感测信息后,提供第一行为模式,并驱动元件驱动单元以执行第一行为模式。
在本发明一实施例中,上述的当行为控制单元决定第二行为模式所对应的行为数据后,驱动元件驱动单元以执行第二行为模式。
在本发明一实施例中,上述的元件驱动单元包括一马达控制单元及一多媒体语音控制单元中至少其中之一,且感测单元包括一接触式感测模组、一声音感测定位模组及一摇晃感测模组中至少其中之一。
在本发明一实施例中,上述的时间信息包括一由接收到初始感测信息后至接收到触发感测信息间的时间长度信息或电子装置的一系统年纪信息。
在本发明一实施例中,上述的情感模拟单元产生一虚拟空间的一情感点及多个情境事件点。在此,各情境事件点具有一对应的座标及一对应的行为模式。情感点依据时间信息、触发感测信息及第一行为模式而由一旧座标移动至一新座标,且情感模拟单元依据新座标找出对应的情境事件点以决定第二行为模式所对应的行为数据。
本发明另一实施例提供一种电子装置的控制方法,其步骤如下。首先,提供一第一行为模式。接着,当电子装置的感测单元被致能时,产生一触发感测信息。之后,产生一时间信息。接着,依据时间信息、触发感测信息及第一行为模式,决定一第二行为模式所对应的行为数据。
在本发明一实施例中,上述的控制方法还包括产生一随机信号,且第二行为模式所对应的行为数据是依据时间信息、触发感测信息、第一行为模式及随机信号而决定。
在本发明一实施例中,上述的控制方法,还包括依据一初始感测信息决定第一行为模式所对应的行为数据。
在本发明一实施例中,上述的时间信息包括一由接收到初始感测信息后至接收到触发感测信息间的时间长度信息或电子装置的一系统年纪信息。
在本发明一实施例中,上述的控制方法还包括分析触发感测信息的类型。
在本发明一实施例中,在提供第一行为模式的步骤中包括在接收一电源信号后,提供第一行为模式,以及执行第一行为模式。
在本发明一实施例中,当决定第二行为模式所对应的行为数据后,驱动电子装置的一元件驱动单元以执行第二行为模式。
在本发明一实施例中,在决定第二行为模式所对应的行为数据的步骤中包括产生一虚拟空间中的一情感点及多个情境事件点。在此,情感点依据时间信息、触发感测信息及第一行为模式而移动,且第二行为模式所对应的行为数据对应于情感点最邻近的情境事件点。
在本发明一实施例中,上述的控制方法还包括下列步骤。首先,依据第一行为模式、时间信息及触发感测信息获得一对应的情感向量。接着,依据情感向量修正情感点在虚拟空间中的座标。之后,求出与修正的情感点最短距离的一情境事件点,并依据求出的情境事件点决定第二行为模式所对应的行为数据。
在本发明一实施例中,上述的控制方法还包括提供一收敛点,且在依据情感向量修正情感点在虚拟空间中的座标的步骤中,提供一回归力以使情感点向收敛点移动。
在本发明一实施例中,上述的随时间信息的不同而变动收敛点所对应的座标。
在本发明一实施例中,上述的虚拟空间为一多维空间,多维空间具有复数个座标轴,且行为控制单元以一向量运算求出新座标所对应的情境事件点,且虚拟空间的各座标轴分别代表电子装置不同的思绪行为。
在本发明一实施例中,上述的依据求出的情境事件点决定第二行为模式所对应的行为数据的步骤包括依据一系统年纪信息及求出的情境事件点,提供第二行为模式所对应的行为数据。
基于上述,本发明实施例所提供的情感引擎及其系统,其可使电子装置具有较低的制作成本,且当电子装置作为机器人的应用时,情感引擎及其系统可细腻地描述并表达其个性特质,并具有可模组化的设计架构,不限于特定的电子装置的外型与设计。另外,本发明实施例所提供的电子装置的控制方法,其利用即时的情感运算及情感点的概念。因此,当电子装置作为机器人的应用时,其可细腻地描述及表达机器人的个性特质。在低成本的考量下,可符合现有市场的需求。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并结合附图作详细说明如下。
附图说明
图1为本发明一实施例的情感引擎系统的示意图。
图2为图1的情感引擎系统的详细示意图。
图3为机器人的情感反应在虚拟空间中运作的示意图。
图4为本发明一实施例的机器人控制方法的流程图。
图5为图4中步骤S407的详细流程图。
主要元件符号说明:
100:情感引擎系统; 110:行为控制单元;
111:时态控制单元; 113:情感模拟单元;
112:初始状态; 114:儿童时态模组;
116:成长/转换界面; 118:成人时态模组;
114a、118a:一般模式; 114b、118b:主动事件模式;
114c、118c:被动事件模式; 114d、118d:睡觉模式;
114e、118e:起床模式; 114f、118f:随机行为模式;
120:感测单元; 130:元件驱动单元;
130a:马达控制单元; 130b:多媒体语音控制单元;
120a:接触式感测模组; 120b:声音感测定位模组;
120c:摇晃感测模组; 140:行为数据库;
140a:儿童时态模组的行为数据; 140b:成人时态模组的行为数据;
140c:索引搜寻单元; 150:时间单元;
152:生理时钟记录表; S:情感点;
Q:情境事件点; T:移动轨迹;
V:情感向量; P:收敛点;
R:区间半径; F:回归力;
S401、S403、S405、S407、S409:步骤;
S501、S503、S505、S507、S509、S511:步骤。
具体实施方式
图1为本发明一实施例的情感引擎系统的示意图。请参照图1,本实施例的情感引擎系统100包括一行为控制单元110、一感测单元120、一时间单元150、一行为数据库140及一元件驱动单元130,其中行为控制单元110包括一时态控制单元111及一情感模拟单元113。在此,感测单元120、时间单元150及行为数据库140分别连接行为控制单元110,用以协助行为控制单元110提供一第一行为模式及一第二行为模式。
在本实施例中,情感引擎系统100适用于一具有情感反应的电子装置,如机器人、电子宠物(未示出)。在本实施例中是以机器人为例,但不以此为限。机器人的情感反应可为与使用者互动所产生的反应机制、时间单元150所设定的行为表现或是因外部情境的需求所产生的对应行为。
下面,将以情感引擎系统100为例,对其运作方式做更详细的描述。
在本实施例中,时态控制单元111及情感模拟单元113可以韧体型式设置在一个或多个控制电路中。例如,将包括多个控制指令烧录至一程序存储器(例如,只读存储器(Read Only Memory,简称为:ROM))中并连接一微处理器而形成具有时态控制单元111及情感模拟单元113的行为控制单元110。因此,当情感引擎系统100运作时,用以形成时态控制单元111及情感模拟单元113的多个控制指令会由微处理器来执行以完成本发明实施例的情感引擎管理机制。
当行为控制单元110接收到一初始感测信息时,行为控制单元110可提供一第一行为模式,并驱动元件驱动单元130执行第一行为模式,其中初始感测信息可以是电源信号或其他的驱动信号。在此,机器人所表现的行为模式可以是一般模式、一主动事件模式、一被动事件模式、一睡觉模式、一起床模式及一随机行为模式中的其中之一,而本发明并不限于此。例如,当机器人的电源被开启时,行为控制单元110即提供起床模式,以细腻地表达机器人如同生命个体所表现的对应行为或状态。
在本实施例中,感测单元120连接行为控制单元110。当机器人受到外部的刺激时,感测单元120会被致能,而产生一触发感测信息至行为控制单元110。例如,当机器人与使用者互动时,感测单元120依据其互动方式而产生触发感测信息至行为控制单元110。举例而言,当机器人被使用者抚摸、拍打、摇动或机器人受到撞击时,行为控制单元110可依据感测单元120判断所接收的触发感测信息的类型,并配合其他的参考信息,而提供机器人表现出如愉悦、生气、悲伤等对应的情绪反应。
另外,时间单元150连接行为控制单元110。在本实施例中,时间单元150可包括一生理时钟记录表152,用以记录的机器人的系统年纪信息,并在一定时间内,产生一时间信息,提供至行为控制单元110,进而使行为控制单元110依据机器人不同的生命阶段而与使用者产生不同的互动需求。此外,当行为控制单元110接收到初始感测信息及触发感测信息后,时间单元150也可提供行为控制单元110一时间长度信息。在此,时间长度信息为行为控制单元110接收到初始感测信息至触发感测信息的时间差,以协助行为控制单元110决定第二行为模式所对应的行为数据。
因此,情感引擎系统100的行为控制单元110可依据机器人的生理时钟及生命阶段,细腻地表达机器人的行为表现,如同生命个体在不同生命阶段过程所表现的对应行为或状态。
在本实施例中,行为数据库140用以储存多笔行为数据,且机器人的行为模式分别对应行为数据中的至少一笔行为数据。在情感技术中,上述多笔行为数据可对应于虚拟空间中的任一座标点,而虚拟空间可以是情感空间的实现。在此,虚拟空间可为一二维(2-Dimension)、三维(3-Dimension)或多维的空间,而行为数据库140所储存的多笔行为数据可包括影像数据、声音数据及运动行为数据,而本发明并不限于此。
在本实施例中,行为控制单元110可依据时间信息、触发感测信息及第一行为模式,决定第二行为模式所对应的行为数据。例如,情感引擎系统100的时间单元150会在中午时间发出一时间信息,以使机器人产生一行为用以向使用者提出需要喂食的需求。同时,使用者在5分钟后喂食,感测单元120会产生接收喂食的触发感测信息至行为控制单元110,以使行为控制单元110控制机器人表现出相对应的情绪反应。例如,若使用者喂食的数量不够,则行为控制单元110控制机器人产生生气的情绪反应。反之,则机器人产生满足的情绪反应。在此,时间单元150在中午时间所发出的时间信息为一初始感测信息,而此时机器人所产生用以向使用者提出需要喂食的需求的行为可对应为第一行为模式。接着,机器人在等待5分钟后接受使用者的喂食,此5分钟的等待也为一时间信息,而此喂食的信号则可为一触发感测信息。因此,行为控制单元110在收到喂食的信号后,则依据提出需要喂食的需求、等待的时间及喂食的数量,来判断要产生满足、生气或再喂食的需求的情绪反应。在此,对应的情绪反应可以是对应于第二行为模式。因此,行为控制单元110可依据时间信息、触发感测信息及第一行为模式,决定第二行为模式所对应的行为数据。
再以另一实施例来说明。例如,机器人在晚间11点时受到一拍打。接着,在1分钟后机器人再受到另一拍打。此时,机器人会产生一表示十分生气的情绪反应。但是,若机器人是在1小时后才受到第二次的拍打,由于机器人与第一次拍打的间隔时间已长,其情绪已平复。再者,机器人生理时间已显示为一睡眠时间。因此,其产生的情绪反应可以是一十分轻微的生气反应。
因此,由上述实施例可知,时间信息(即接收初始感测信息后至接收到触发感测信息的时间长度信息)、触发感测信息及第一行为模式对决定第二行为模式所对应的行为数据皆会产生影响。
另外,在本实施例中,当行为控制单元110接收到电源信号时,行为控制单元110也可提供第一行为模式。例如,行为控制单元110控制机器人不动作或执行问候的行为表现等。但是,在其他实施例中,行为控制单元110也可依据时间信息或触发感测信息,决定第一行为模式所对应的行为数据,以驱动机器人执行第一行为模式。也就是说,第一行为模式并不限定仅对应于开机后所预设的行为数据,而可依据时间信息或触发感测信息,决定第一行为模式所对应的行为数据。
详细而言,在本实施例中,行为控制单元110包括情感模拟单元113。
情感模拟单元113用以产生一具有情感点及多个情境事件点的虚拟空间。情感点及情境事件点分别对应于虚拟空间中的一座标点,且此情感点会因时间信息、初始感测信息而产生相对应地移动,而行为控制单元110则可依据此情感点变动后的位置,找出与其最邻近的情境事件点,以决定第一行为模式。另外,情感点可能又因第一行为模式、时间信息、触发感测信息而移动至另一座标点,行为控制单元110会再次依据情感点变动后的位置,找出与其最邻近的情境事件点,而决定第二行为模式所对应的行为数据。在此,行为数据库140所储存的行为数据分别对应于虚拟空间中的不同情境事件点。也就是说,各情境事件点分别对应于虚拟空间中的一座标点,且情感点是在虚拟空间中依各信息而不断移动。此外。情感模拟单元113会进行一数学演算法以求出最接近情感点的情境事件点,以决定第二行为模式所对应的行为数据。对此将在下面各实施例中作进一步说明。
在另一实施例中,情感模拟单元113还用以产生一随机信号,以使情感点也会因随机信号而变动,以模拟机器人的情绪不仅会受外在信号的刺激,更会反应自我内在不定的心情变化,而产生一较多样化,且更贴进人性的行为模式。因此,以另一角度而言,在本实施例中,行为控制单元110会依据时间信息、触发感测信息、第一行为模式及随机信号,决定第二行为模式所对应的行为数据。同理,行为控制单元110也可依据时间信息、初始感测信息及随机信号,决定第一行为模式所对应的行为数据。
在再一实施例中,行为控制单元可还包括一时态控制单元111,用以依据时间单元150提供的时间信息,来调整行为控制单元110所提供的第一行为模式或第二行为模式所对应的行为数据。例如,时间信息可显示机器人是处于成年阶段或幼年阶段,不同阶段其对受到同一触发感测信息的反应则不一定相同。例如,处于成年阶段机器人受到拍打时的情绪反应为些许愤怒,但是处于幼年阶段的机器人的情绪反应则为生气且悲伤。
图2为图1的情感引擎系统的详细示意图。请参照图2,在本实施例中,时态控制单元111包括儿童时态模组114及成人时态模组118。每一时态模组包括多个行为模式。例如,儿童时态模组114包括一般模式114a、主动事件模式114b、被动事件模式114c、睡觉模式114d、起床模式114e及随机行为模式114f。类似地,在成人时态模组118中,也至少包括上述各种模式,即一般模式118a、主动事件模式118b、被动事件模式118c、睡觉模式118d、起床模式118e及随机行为模式118f。
详细而言,时态控制单元111可依据机器人的系统年纪,细腻地表达机器人在不同时态模组的行为表现,如同生命个体在不同生命阶段过程所表现的对应行为或状态。例如,当情感引擎系统100经初始化后,机器人的生命阶段依据时间单元150的生理时钟记录表152所记录的机器人的系统年纪,由初始状态112开始,进入儿童时态模组114,以执行对应的行为模式。接着,随着机器人系统年纪的增长,时态控制单元111的时态模组,经由成长/转换界面116而被切换至成人时态模组118。
在儿童时态模组114中,时态控制单元111可随机地或通过接收时间单元150所产生的时间信息,来控制机器人所发生的行为。举例而言,时态控制单元111在执行主动事件模式114b时,可控制机器人对使用者提出主动需求,并要求满足。在本实施例中,机器人对使用者提出主动需求,并要求满足的事件可以是机器人经过一预定时间或随机地感到饥饿进而提出需要喂食的需求,或是机器人在喂食后提出需要便溺的需求。此外,主动事件模式114b也可以是时态控制单元111控制机器人执行阅读书报的动作。
另外,在执行被动事件模式114c时,时态控制单元111可控制机器人对其被动接收的行为状态执行对应的表现。举例而言,当机器人被使用者抚摸、摔落或拍打时,时态控制单元111依据生理时钟记录表152所记录的机器人的系统年纪,配合情感模拟单元113的情境事件点,而控制机器人表现出愉悦、疼痛或开心的表现。此外,在随机行为模式114f中,时态控制单元111可控制机器人执行各种的随机行为,例如:游戏模式或漫游模式。在本实施例中,当时态控制单元111被切换至儿童时态模组114时,依据生理时钟记录表152所记录的机器人的生理时钟,时态控制单元111还会控制机器人执行一般模式114a、睡觉模式114d及起床模式114e。
之后,随着机器人系统年纪的增长,时态控制单元111的时态模组,经由成长/转换界面116而被切换至成人时态模组118。同样地,在成人时态模组118中,时态控制单元111也可独立地或通过与情感模拟单元113的配合,驱动元件驱动单元130控制机器人执行各种行为模式的对应表现。值得注意的是,在成人时态模组118中,机器人所执行的各种行为模式的对应表现可能会与其在儿童时态模组114中所执行的对应表现不同。例如,在执行睡觉模式118d时,机器人所需要的睡眠时间会比其在睡觉模式114d中所需要的睡眠时间短。另外,在执行起床模式118e时,机器人所需要的赖床时间会比其在起床模式114e中所需要的赖床时间短。当然,本发明并不限于此。在其他实施例中,可依据生命个体在不同生命阶段过程所表现的对应行为或状态,对各种不同时态模组中的行为模式进行些微的调整。
因此,时态控制单元111可通过共用虚拟空间来产生不同时期的情绪反应,并通过驱动元件驱动单元130来控制外围系统。如此一来,时态控制单元111便可依据机器人的系统年纪,细腻地表达机器人在不同时态模组的行为表现,如同生命个体在不同生命阶段过程所表现的对应行为或状态。
请参照图2,在本实施例中,时间单元150包括生理时钟记录表152,以记录机器人的系统年纪及其生理时钟,并可通过时间信息切换时态控制单元111的时态模组。另外,生理时钟记录表152用以记录一仿生命周期及一生理时钟周期。仿生命周期为模拟生命个体在不同生命阶段过程所表现的对应行为或状态,而生理时钟周期为模拟生命个体日常生活的作息。在本实施例中,仿生命周期及生理时钟周期可预先设定在生理时钟记录表152中,但本发明并不限于此。
因此,时间单元150可依据其所记录的系统年纪与仿生命周期之间的关系,切换时态控制单元111的时态模组。例如,随着系统年纪的增长,时间单元150会切换时态控制单元111的时态模组由儿童时态模组114至成人时态模组118。详细而言,当情感引擎系统100经初始化后,生理时钟记录表152所记录的机器人的系统年纪可以是0岁。之后,随着时间的流逝,生理时钟记录表152持续记录的机器人的系统年纪。例如,当实际时间经过一天时,生理时钟记录表152记录的机器人的系统年纪为1岁。因此,当实际时间经过二天时,机器人的系统年纪为2岁,以此类推。当然,本发明并不限于此。
接着,时间单元150会依据其所记录的系统年纪与仿生命周期之间的关系,切换时态控制单元111的时态模组。例如,若仿生命周期预设系统年纪为20岁时进入成人时态,则当实际时间经过20天时,时间单元150将会切换时态控制单元111的时态模组至成人时态模组118。因此,随着机器人系统年纪的增长,时态控制单元111的时态模组,可经由成长/转换界面116而被切换至成人时态模组118。
另外,当接收到时间单元150的时间信息时,时态控制单元111也会依据生理时钟及生理时钟周期之间的关系,控制机器人执行上述行为模式中对应的其中之一。详细而言,若生理时钟周期预设早上7点时执行起床模式,则当实际时间为早上7点时,时间单元150会提供时间信息至时态控制单元111,以使时态控制单元111控制机器人执行起床模式。类似地,若生理时钟周期预设晚上7点时执行睡觉模式,则当实际时间为晚上7点时,时态控制单元111会依据时间信息控制机器人执行睡觉模式。同理,使用者可预先设定生理时钟周期在特定的时间,使机器人执行上述行为模式中对应的其中之一。
因此,情感引擎系统100便可依据系统年纪与仿生命周期之间的关系,以及生理时钟及生理时钟周期之间的关系,细腻地表达机器人在不同时态模组的行为表现,以及在特定的时间,使机器人执行预设的行为模式,如同生命个体在不同生命阶段过程所表现的状态,以及生命个体在不同的时间所对应的生理行为。
在本实施例中,感测单元120用以侦测或感测不同的致能信号,进而提供行为控制单元110相对应的初始或触发感测信号。感测单元120包括一接触式感测模组120a、一声音感测定位模组120b及一摇晃感测模组120c。
元件驱动单元130受控于行为控制单元110,用以驱动外围装置执行对应的行为。元件驱动单元130包括一马达控制单元130a、一多媒体语音控制单元130b。
举例而言,当使用者在机器人周遭发出拍击声时,感测单元120的声音感测定位模组120b会被致能并侦测发出拍击声的使用者所在的方位,而产生一感测信号至行为控制单元110。因此,行为控制单元110会驱动马达控制单元130a藉此使得机器人往侦测到的方位移动。接着,当机器人到达使用者发出拍击声的位置时,多媒体语音控制单元130b便可驱动机器人发出预设的声响,以与使用者互动。此时,若使用者对机器人加以抚摸或是摇晃时,接触式感测模组120a或摇晃感测模组120c便会传送其感测信息至行为控制单元110,行为控制单元110则再驱动多媒体语音控制单元130b与使用者进行其它的互动。
此外,行为数据库140储存每一时态模组中的行为模式所对应的行为数据,以及机器人的情感反应所对应的行为数据,且上述行为数据分别对应场空间中的多个情境事件点。另外,行为数据库140所储存的行为数据包括影像数据、声音数据及运动行为数据。在本实施例中,影像数据可以是发光二极管画素(LED pixel)的点阵列图库。声音数据可以是各种场景音效信息,其可通过多媒体晶片(media chip)来作变声或发声速度的调整,以达到各种情境变化的需求。运动行为数据可以是有关各种马达姿态动作及运动控制轨迹的信息。
详细而言,在本实施例中,行为数据库140储存了儿童时态模组114中的行为模式所对应的影像数据、声音数据及运动行为数据。因此,当行为控制单元110通过元件驱动单元130控制机器人执行各种行为模式的对应表现时,机器人会依据行为数据库140所储存的儿童时态模组的行为数据140a而表现出对应的行为反应。如此一来,情感引擎系统100即可细腻地表达机器人的行为表现。同样地,行为数据库140也储存了成人时态模组118中的行为模式所对应的成人时态模组的行为数据140b,以使机器人在成人时态模组118中的行为表现同样细腻。
由此可知,本实例的行为控制单元110可依据时间信息、初始感测信息决定第一行为模式所对应的行为数据,或依据时间信息、触发感测信息及第一行为模式,决定第二行为模式所对应的行为数据。
图3为机器人的情感反应在虚拟空间中运作的示意图。请同时参考图2及图3,本实施例的虚拟空间可由行为控制单元110产生,其可为一三维向量空间,其座标轴分别代表机器人的愉快度(Pleasantness)、清醒程度(Arousal)及集中度(Certainty),以表达仿生命个体的情感纯量值。但本发明并不限于此,其也可应用在二维,或其他多维的虚拟空间中。此外,各座标轴也可代表可以是生气度、悲伤度、混乱度、智力度或其他不同的思绪行为。
值得注意的是,在虚拟空间中,座标轴APC(Arousal、Pleasantness、Certainty)为心理学的概念,而仿生命个体不同的情感点在虚拟空间中位于不同的座标,且各情感点分别对应不同的行为模式。再者,在虚拟空间中,情感点S是代表机器人当前的情绪状态。例如,当机器人与使用者互动时,其所产生的情感反应会影响情感点的位置。另外,情感引擎系统100内部的生理时钟所设定的行为表现,以及因外部情境的需求所产生的对应行为也都会影响情感点的位置。
在此,而行为数据库140所储存的行为数据则分别对应于虚拟空间中的多个情境事件点Q。在本实施例中,情感点S会在一区间半径R中随机地产生一偏移值而形成一随之移动的随机震动区间,以使机器人的情感反应不至于呆板。另外,随着时间的变化,行为控制单元110中的情感模拟单元113可控制机器人的情感反应于虚拟空间中形成一移动轨迹T,以模仿生命个体在不同情境下的情感反应。详细而言,情感模拟单元113能够因应外部环境的变化而产生的刺激作一数值化的运算,并藉此在虚拟空间产生一情感向量V以推移情感点S,以模仿生命个体的情感变化。在此,外部环境的变化而产生的刺激例如是时间信息、初始或触发感测信息、第一行为模式及随机信号等量化而得,但是本发明并不限于此。
在另一实施例中,行为控制单元110产生的虚拟空间还可具有一收敛点P。此收敛点P可位于虚拟空间的原点或任一座标点,用以代表机器人的个性特质。例如,收敛点P的座标有较大的愉快度及清醒度,则代表机器人的个性特质为较开朗、理性。相反地,若收敛点P的座标有较少愉快度及较大的集中度,则可能代表机器人较为呆板、固执。在此,收敛点P会即时地提供一虚拟的回归力。换句话说,收敛点P会依据时间信息提供回归力。当机器人未接收到感测信号时,情感点S会向收敛点P移动,以模拟机器人在未受到刺激时的情感反应是渐次地回复至原本的个性特质。进而当机器人受到刺激时,其收敛点P的回归力也会提供行为控制单元110用以决定适当的行为模式,以模拟机器人不同的个性特质在接收到相同事件时,产生不同的情感反应。换言之,接收到初始感测信息后至接收到触发感测信息间的时间长度信息,也会因收敛点P的回归力而影响第二行为模式所对应的行为数据。
在又一实施例中,为了达到仿生命体的情感个性多样化的需求,行为控制单元110还可控制收敛点P依照不同规律的时间或不规律的方式来变动其所在的座标位置,以达到向其个性收敛的特征。例如,行为控制单元110依据时间单元150的信息而在一预定生理期时,移动此收敛点P至愉快度、清醒度及集中度皆较低的座标点。或者,在幼年或成年时,行为控制单元110控制收敛点P,使其处于不同的座标位置。如此,行为控制单元110将可让机器人具有较接近真正生命的情绪表现。
进一步而言,当机器人受到外部刺激时,情感模拟单元113依据外部刺激对情感点S产生一情感向量V,而收敛点P则对情感点S提供一回归力F,藉此而使得情感点S移动至另一座标点。接着,情感模拟单元113计算此时与情感点S最接近的情境事件点Q为何,以决定要执行的行为模式。
在本实施例中,情感运算的过程所经历的情感点会依其与情境事件点的最近距离来选择当下机器人的情感表达方式,其包括情感的强度与深度。在虚拟空间中,情境事件点主要记载着一种特定情感的表达特征,而此种特定情感的表达特征可以是当机器人开心、兴奋、害怕或难过时,其所执行的行为表现。
举例而言,当使用者在机器人周遭发出拍击声时,对行为控制单元110而言,其为一外部的刺激或者可以说是与使用者的互动。此时,机器人的情感反应由虚拟空间中的一情感点开始,通过情感模拟单元113的运算,使其情感点随着时间的变化,形成一移动轨迹。在情感运算的过程中,情感点会依其与情境事件点的最近距离来选择当下机器人的情感表达方式。之后,在收敛点P及其回归力F的拉扯之下,以复原情感。
当然,在此过程中,机器人也有可能再次受到其他的刺激,而表达特定的情感反应。例如,当机器人在受到第一次拍击声的刺激时,执行开心的行为表现,而在情感运算的过程中,当机器人在受到第二次拍击声的刺激时,可执行无助或是疑惑等的行为表现。
在本实施例中,即使机器人没有受到任何的刺激,情感模拟单元113也可进行情感运算,以使机器人表现出多样的情感反应,不致过于呆板。
另外,在本实施例中,可通过增加行为数据库140所储存的行为数据来增加虚拟空间中的情境事件点,来达到机器人个性上的差异。此外,行为数据库140所储存的各笔行为数据为独立,通过索引搜寻单元140c,在虚拟空间中的座标位置,标记住每个情境索引关系。通过行为数据库140的运作,其可依照各种行为表现及情感反应将行为数据归类,并依照时态控制单元111的需求,切换其对应的行为数据。
依据上述实施例所揭示的内容,以下提供一种机器人的控制方法。图4为本发明一实施例的机器人控制方法的流程图。在本实施例中,机器人的控制方法适用于具有情感反应的机器人。上述控制方法包括如下的步骤。
首先,在步骤S401中,通过行为控制单元110,提供一第一行为模式。在此,行为控制单元110可在开机后接收一初始感测信息,并提供预设的第一行为模式。在本实施例中,初始感测信息可以是电源信号,但本发明并不限于此。
接着,在步骤S403中,当感测单元120被致能时,产生一触发感测信息至行为控制单元110。在此,情感引擎系统100可通过感测单元120取得环境信息,以鉴别环境互动行为类型。也就是说,当机器人受到外部的刺激时,可致能感测单元120。
之后,在步骤S405中,时间单元150产生一时间信息至行为控制单元110,用以切换时态控制单元111的时态模组或其他提供决定第二行为所需的信息。在此,决定第二行为所需的信息可以是接收到初始感测信息后至接收到触发感测信息间的时间长度信息。在其他实施例中,也可在步骤S403之前先执行步骤S405以提供时间信息。
接着,在步骤S407中,依据时间信息、触发感测信息、第一行为模式,决定第二行为模式所对应的行为数据。在此,决定第二行为模式所对应的行为数据的方式可以是通过情感模拟单元113进行情感运算。也就是说,通过情感模拟单元113的情感运算,决定情感点当下机器人的情感表达方式。
最后,在步骤S409中,驱动元件驱动单元130以执行第二行为模式。之后,情感点S会在收敛点P及其回归力F的拉扯之下,向收敛点P移动。
在另一实施例中,还可进一步产生一随机信号,并依据时间信息、触发感测信息、第一行为模式及随机信号,决定第二行为模式所对应的行为数据。
图5为图4中步骤S407的详细流程图。请参照图5,在步骤S501中,通过行为控制单元110接收时间信息及触发感测信息。接着,在步骤S503中,通过情感模拟单元113的情感运算,依据第一行为模式、时间信息及触发感测信息的类型或力度得出对应的情感向量V及回归力F。之后,在步骤S505中,再根据情感模拟单元113提供的随机信号,推移位于旧座标的情感点S,而获得情感点S的新座标,如步骤S507所示。接着,在步骤S509中,情感模拟单元113会找出与情感点S的新座标最近距离的情境事件点以提供给时态控制单元111。在步骤S511,时态控制单元111则依据当时的时态及情境事件点提供当下机器人的情感表达方式。
另外,值得一提的是,第一行为模式并不限定仅对应于开机后所预设的行为数据,而可依据时间信息或初始感测信息,决定第一行为模式所对应的行为数据。
综上所述,本发明实施例所提供的情感引擎及其引擎系统,其可细腻地描述及表达电子装置的个性特质,且具有可模组化的设计架构,不限于特定的电子装置的外型与设计。另外,本发明实施例所提供的电子装置控制方法,其利用即时的情感运算及收敛点的概念,可细腻地描述及表达机器人的个性特质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。
Claims (25)
1.一种情感引擎,适于一电子装置,其特征在于,所述情感引擎包括:
一行为控制单元,包括一情感模拟单元,用以接收一时间信息、一触发感测信息,并提供一第一行为模式及一第二行为模式,且所述行为控制单元依据所述时间信息、所述触发感测信息及所述第一行为模式,决定所述第二行为模式所对应的行为数据,
其中所述第一行为模式及所述第二行为模式分别对应多个行为数据中的至少一笔行为数据。
2.根据权利要求1所述的情感引擎,其特征在于,其中所述情感模拟单元还产生一随机信号,且所述行为控制单元依据所述时间信息、所述触发感测信息、所述第一行为模式及所述随机信号,决定所述第二行为模式所对应的行为数据。
3.根据权利要求1所述的情感引擎,其特征在于,其中所述行为控制单元还依据一初始感测信息,决定所述第一行为模式所对应的行为数据。
4.根据权利要求3所述的情感引擎,其特征在于,其中所述时间信息包括一由接收到所述初始感测信息后至接收到所述触发感测信息间的时间长度信息或所述电子装置的一系统年纪信息。
5.根据权利要求3所述的情感引擎,其特征在于,其中所述初始感测信息为一电源信号,且所述行为控制单元在接收所述初始感测信息后,提供所述第一行为模式,并驱动一元件驱动单元以执行所述第一行为模式。
6.根据权利要求1所述的情感引擎,其特征在于,其中所述行为控制单元还在决定所述第二行为模式所对应的行为数据后,驱动一元件驱动单元以执行所述第二行为模式。
7.根据权利要求1所述的情感引擎,其特征在于,其中所述情感模拟单元产生一虚拟空间的一情感点及多个情境事件点,其中各所述情境事件点具有一对应的座标及一对应的行为模式,所述情感点依据所述时间信息、所述触发感测信息及所述第一行为模式而由一旧座标移动至一新座标,且所述情感模拟单元依据所述新座标获得对应的情境事件点,以决定所述第二行为模式所对应的行为数据。
8.一种情感引擎系统,适用于一电子装置,其特征在于,所述情感引擎系统包括:
一行为控制单元,包括一情感模拟单元,用以提供一第一行为模式及一第二行为模式;
一感测单元,连接所述行为控制单元,且当所述感测单元被致能时,产生一触发感测信息或一初始感测信息至所述行为控制单元;
一时间单元,连接所述行为控制单元,并产生一时间信息至所述行为控制单元;以及
一行为数据库,连接所述行为控制单元,并储存多笔行为数据,
其中所述第一行为模式及所述第二行为模式分别对应所述多笔行为数据中的至少一笔行为数据,且所述行为控制单元依据所述时间信息、所述触发感测信息及所述第一行为模式,决定所述第二行为模式所对应的行为数据。
9.根据权利要求8所述的情感引擎系统,其特征在于,其中所述情感模拟单元还产生一随机信号,且所述行为控制单元依据所述时间信息、所述触发感测信息、所述第一行为模式及所述随机信号,决定所述第二行为模式所对应的行为数据。
10.根据权利要求8所述的情感引擎系统,其特征在于,其中所述行为控制单元依据所述时间信息及所述初始感测信息中的至少其中之一,决定所述第一行为模式所对应的行为数据。
11.根据权利要求8所述的情感引擎系统,其特征在于,还包括一元件驱动单元,其中所述初始感测信息为一电源信号,且当所述行为控制单元接收所述初始感测信息后,提供所述第一行为模式,并驱动所述元件驱动单元以执行所述第一行为模式。
12.根据权利要求11所述的情感引擎系统,其特征在于,其中当所述行为控制单元决定所述第二行为模式所对应的行为数据后,驱动所述元件驱动单元以执行所述第二行为模式。
13.一种电子装置的控制方法,适于一具情感引擎的电子装置,其特征在于,所述控制方法包括:
提供一第一行为模式;
当所述电子装置的一感测单元被致能时,产生一触发感测信息;
产生一时间信息;以及
依据所述时间信息、所述触发感测信息及所述第一行为模式,决定一第二行为模式所对应的行为数据。
14.根据权利要求13所述的控制方法,其特征在于,还包括产生一随机信号,且所述第二行为模式所对应的行为数据是依据所述时间信息、所述触发感测信息、所述第一行为模式及所述随机信号而决定。
15.根据权利要求13所述的控制方法,其特征在于,还包括依据一初始感测信息决定所述第一行为模式所对应的行为数据。
16.根据权利要求15所述的控制方法,其特征在于,其中所述时间信息包括一由接收到所述初始感测信息后至接收到所述触发感测信息间的时间长度信息或所述电子装置的一系统年纪信息。
17.根据权利要求16所述的控制方法,其特征在于,还包括分析所述触发感测信息的类型。
18.根据权利要求13所述的控制方法,其特征在于,其中提供所述第一行为模式包括:
在接收一电源信号后,提供所述第一行为模式;以及
执行所述第一行为模式。
19.根据权利要求13所述的控制方法,其特征在于,其中当决定所述第二行为模式所对应的行为数据后,驱动所述电子装置的一元件驱动单元以执行所述第二行为模式。
20.根据权利要求13所述的控制方法,其特征在于,其中在决定所述第二行为模式所对应的行为数据的步骤中,包括:
产生一虚拟空间中的一情感点及多个情境事件点,
其中所述情感点依据所述时间信息、所述触发感测信息及所述第一行为模式而移动,且所述第二行为模式所对应的行为数据对应于所述情感点最邻近的情境事件点。
21.根据权利要求20所述的控制方法,其特征在于,还包括:
依据所述第一行为模式、所述时间信息及所述触发感测信息获得一对应的情感向量;
依据所述情感向量修正所述情感点在所述虚拟空间中的座标;
求出与所述修正的情感点最短距离的一情境事件点;以及
依据所述求出的情境事件点决定所述第二行为模式所对应的行为数据。
22.根据权利要求21所述的控制方法,其特征在于,还包括提供一收敛点,且在依据所述情感向量修正所述情感点在所述虚拟空间中的座标的步骤中,提供一回归力以使所述情感点向所述收敛点移动。
23.根据权利要求22所述的控制方法,其特征在于,其中随所述时间信息的不同而变动所述收敛点所对应的座标。
24.根据权利要求20所述的控制方法,其特征在于,其中所述虚拟空间为一多维空间,所述多维空间具有复数个座标轴,且所述控制方法以一向量运算求出一新座标所对应的情境事件点,且所述虚拟空间的所述复数个座标轴分别代表所述电子装置不同的思绪行为。
25.根据权利要求21所述的控制方法,其特征在于,其中依据所述求出的情境事件点决定所述第二行为模式所对应的行为数据的步骤包括依据一系统年纪信息及所述求出的情境事件点,提供所述第二行为模式所对应的行为数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910258052.8A CN102103707B (zh) | 2009-12-16 | 2009-12-16 | 情感引擎、情感引擎系统及电子装置的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910258052.8A CN102103707B (zh) | 2009-12-16 | 2009-12-16 | 情感引擎、情感引擎系统及电子装置的控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102103707A true CN102103707A (zh) | 2011-06-22 |
CN102103707B CN102103707B (zh) | 2014-06-11 |
Family
ID=44156456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910258052.8A Active CN102103707B (zh) | 2009-12-16 | 2009-12-16 | 情感引擎、情感引擎系统及电子装置的控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102103707B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104516873A (zh) * | 2014-12-12 | 2015-04-15 | 北京智谷睿拓技术服务有限公司 | 建立情感模型的方法和装置 |
CN104881108A (zh) * | 2014-02-27 | 2015-09-02 | 青岛海尔机器人有限公司 | 一种智能人机交互方法及装置 |
CN105389735A (zh) * | 2015-11-18 | 2016-03-09 | 重庆理工大学 | 一种基于spfa算法的多动机情感生成方法 |
CN106113062A (zh) * | 2016-08-23 | 2016-11-16 | 陈中流 | 一种陪护机器人 |
CN106462255A (zh) * | 2016-06-29 | 2017-02-22 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106471444A (zh) * | 2016-07-07 | 2017-03-01 | 深圳狗尾草智能科技有限公司 | 一种虚拟3d机器人的交互方法、系统及机器人 |
CN106537425A (zh) * | 2016-06-29 | 2017-03-22 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106537293A (zh) * | 2016-06-29 | 2017-03-22 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106662932A (zh) * | 2016-07-07 | 2017-05-10 | 深圳狗尾草智能科技有限公司 | 一种基于意图识别控制家电的方法、系统及机器人 |
CN106662931A (zh) * | 2016-07-07 | 2017-05-10 | 深圳狗尾草智能科技有限公司 | 一种机器人人机交互系统、装置和方法 |
WO2018000266A1 (zh) * | 2016-06-29 | 2018-01-04 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
WO2018006373A1 (zh) * | 2016-07-07 | 2018-01-11 | 深圳狗尾草智能科技有限公司 | 一种基于意图识别控制家电的方法、系统及机器人 |
CN110871813A (zh) * | 2018-08-31 | 2020-03-10 | 比亚迪股份有限公司 | 虚拟机器人的控制方法、装置、车辆、设备和存储介质 |
TWI698757B (zh) * | 2018-05-29 | 2020-07-11 | 英屬開曼群島商意騰科技股份有限公司 | 具有多個動態設定檔的智慧型引擎及操作智慧型引擎的方法 |
TWI833646B (zh) * | 2023-05-12 | 2024-02-21 | 緯創資通股份有限公司 | 助行器、助行器輔助系統及其運作方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI577194B (zh) * | 2015-10-22 | 2017-04-01 | 山衛科技股份有限公司 | 環境音源辨識系統及其環境音源辨識之方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1149156A (zh) * | 1995-06-20 | 1997-05-07 | 松下电器产业株式会社 | 数据检索装置、评价输入装置和情感输入装置 |
CN1313781A (zh) * | 1999-04-30 | 2001-09-19 | 索尼公司 | 电子宠物系统、网络系统、机器人以及存储介质 |
JP2003089077A (ja) * | 2001-09-12 | 2003-03-25 | Toshiba Corp | ロボット |
US20030080989A1 (en) * | 1998-01-23 | 2003-05-01 | Koichi Matsuda | Information processing apparatus, method and medium using a virtual reality space |
CN1553845A (zh) * | 2001-11-07 | 2004-12-08 | 索尼公司 | 机器人系统和机器人设备的控制方法 |
-
2009
- 2009-12-16 CN CN200910258052.8A patent/CN102103707B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1149156A (zh) * | 1995-06-20 | 1997-05-07 | 松下电器产业株式会社 | 数据检索装置、评价输入装置和情感输入装置 |
US20030080989A1 (en) * | 1998-01-23 | 2003-05-01 | Koichi Matsuda | Information processing apparatus, method and medium using a virtual reality space |
CN1313781A (zh) * | 1999-04-30 | 2001-09-19 | 索尼公司 | 电子宠物系统、网络系统、机器人以及存储介质 |
JP2003089077A (ja) * | 2001-09-12 | 2003-03-25 | Toshiba Corp | ロボット |
CN1553845A (zh) * | 2001-11-07 | 2004-12-08 | 索尼公司 | 机器人系统和机器人设备的控制方法 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881108A (zh) * | 2014-02-27 | 2015-09-02 | 青岛海尔机器人有限公司 | 一种智能人机交互方法及装置 |
CN104881108B (zh) * | 2014-02-27 | 2018-08-31 | 青岛海尔机器人有限公司 | 一种智能人机交互方法及装置 |
CN104516873A (zh) * | 2014-12-12 | 2015-04-15 | 北京智谷睿拓技术服务有限公司 | 建立情感模型的方法和装置 |
CN105389735A (zh) * | 2015-11-18 | 2016-03-09 | 重庆理工大学 | 一种基于spfa算法的多动机情感生成方法 |
WO2018000261A1 (zh) * | 2016-06-29 | 2018-01-04 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106462255A (zh) * | 2016-06-29 | 2017-02-22 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106537425A (zh) * | 2016-06-29 | 2017-03-22 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106537293A (zh) * | 2016-06-29 | 2017-03-22 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
WO2018000260A1 (zh) * | 2016-06-29 | 2018-01-04 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
WO2018000267A1 (zh) * | 2016-06-29 | 2018-01-04 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
WO2018000266A1 (zh) * | 2016-06-29 | 2018-01-04 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106471444A (zh) * | 2016-07-07 | 2017-03-01 | 深圳狗尾草智能科技有限公司 | 一种虚拟3d机器人的交互方法、系统及机器人 |
CN106662931A (zh) * | 2016-07-07 | 2017-05-10 | 深圳狗尾草智能科技有限公司 | 一种机器人人机交互系统、装置和方法 |
CN106662932A (zh) * | 2016-07-07 | 2017-05-10 | 深圳狗尾草智能科技有限公司 | 一种基于意图识别控制家电的方法、系统及机器人 |
WO2018006373A1 (zh) * | 2016-07-07 | 2018-01-11 | 深圳狗尾草智能科技有限公司 | 一种基于意图识别控制家电的方法、系统及机器人 |
WO2018006380A1 (zh) * | 2016-07-07 | 2018-01-11 | 深圳狗尾草智能科技有限公司 | 一种机器人人机交互系统、装置和方法 |
WO2018006372A1 (zh) * | 2016-07-07 | 2018-01-11 | 深圳狗尾草智能科技有限公司 | 一种基于意图识别控制家电的方法、系统及机器人 |
CN106113062A (zh) * | 2016-08-23 | 2016-11-16 | 陈中流 | 一种陪护机器人 |
TWI698757B (zh) * | 2018-05-29 | 2020-07-11 | 英屬開曼群島商意騰科技股份有限公司 | 具有多個動態設定檔的智慧型引擎及操作智慧型引擎的方法 |
US11501135B2 (en) | 2018-05-29 | 2022-11-15 | British Cayman Islands Intelligo Technology Inc. | Smart engine with dynamic profiles |
CN110871813A (zh) * | 2018-08-31 | 2020-03-10 | 比亚迪股份有限公司 | 虚拟机器人的控制方法、装置、车辆、设备和存储介质 |
TWI833646B (zh) * | 2023-05-12 | 2024-02-21 | 緯創資通股份有限公司 | 助行器、助行器輔助系統及其運作方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102103707B (zh) | 2014-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102103707B (zh) | 情感引擎、情感引擎系统及电子装置的控制方法 | |
US7219064B2 (en) | Legged robot, legged robot behavior control method, and storage medium | |
EP1508409A1 (en) | Robot device and robot control method | |
CN110139732B (zh) | 具有环境控制特征的社交机器人 | |
TWI413938B (zh) | 情感引擎、情感引擎系統及電子裝置的控制方法 | |
US8209179B2 (en) | Speech communication system and method, and robot apparatus | |
US7987091B2 (en) | Dialog control device and method, and robot device | |
US8145492B2 (en) | Robot behavior control system and method, and robot apparatus | |
CN101795831B (zh) | 机器人控制系统、机器人 | |
US20180133900A1 (en) | Embodied dialog and embodied speech authoring tools for use with an expressive social robot | |
KR100843822B1 (ko) | 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템 | |
US10576618B2 (en) | Robot having communication with human, robot control method, and non-transitory recording medium | |
US20170024095A1 (en) | Multi-media platform | |
KR20030074473A (ko) | 스피치 합성 방법 및 장치, 프로그램, 기록 매체, 억제정보 생성 방법 및 장치, 및 로봇 장치 | |
KR20180129886A (ko) | 지속적 컴패니언 디바이스 구성 및 전개 플랫폼 | |
JP2005193331A (ja) | ロボット装置及びその情動表出方法 | |
US20240190012A1 (en) | Robot and control method of robot | |
CN110196632A (zh) | 信息处理装置、信息处理方法以及程序 | |
US20030056252A1 (en) | Robot apparatus, information display system, and information display method | |
US20240027977A1 (en) | Method and system for processing input values | |
JP2006110707A (ja) | ロボット装置 | |
JP4556425B2 (ja) | コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置 | |
JP4552465B2 (ja) | 情報処理装置、ロボット装置の行動制御方法、ロボット装置及びコンピュータ・プログラム | |
JP2001157980A (ja) | ロボット装置及びその制御方法 | |
JP2001157981A (ja) | ロボット装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |