平码五不中公式规律
  • / 7
  • 下载费用:30 金币  

一种机器人人机交互系统、装置和方法.pdf

关 键 ?#21097;?/dt>
一种 机器人 人机交互 系统 装置 方法
  专利查询网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
摘要
申请专利号:

CN201680001719.4

申请日:

2016.07.07

公开号:

CN106662931A

公开日:

2017.05.10

当前法律状态:

实审

有效性:

审中

法?#19978;?#24773;: 实质审查的生效IPC(主分类):G06F 3/01申请日:20160707|||公开
IPC分类号: G06F3/01; G06F3/0487(2013.01)I 主分类号: G06F3/01
申请人: 深圳狗尾草智能科技有限公司
发明人: 杨新宇; 王昊奋; 邱楠
地址: 518000 广东省深圳市南山区粤海街道科苑路16号东方科?#21363;?#21414;1307-09
优?#28909;ǎ?/td>
专利代理机构: 深圳市华优知识产权代理事务所(普通合伙) 44319 代理人: 李丽君
PDF完整版下载: PDF下载
法律状态
申请(专利)号:

CN201680001719.4

授权公告号:

|||

法律状态公告日:

2017.06.06|||2017.05.10

法律状态类型:

实质审查的生效|||公开

摘要

本发明公开了一种机器人人机交互装置,其中包括输入模块,用于接收用户输入的指令信息;可变因素识别模块,用于识别机器人出现的可变因素;以及输出模块,用于输出人机交互的结果。其中指令信息包括有视频、人脸、表情、场景、声纹、指纹、虹膜瞳孔、或光感信息。可变因素信息为基于用户与机器人的交互信息。通过本发明公开的人机交互系统、装置、和方法,有利于及时反馈给用户机器人的状态,并?#19968;?#22120;人通过动画方式主动告知用户,人机交互方式更为有趣、智能,?#20197;?#21152;了人机交互的娱?#20013;浴?/p>

权利要求书

1.一种机器人人机交互系统,包括:
机器人端,用于接收用户发出的指令信息,其中机器人端中还包括可变因素信息,基于
机器人的可变因素输出交互结果;以及
用户端,用于向机器人发送指示信息,并与机器人互动。
2.根据权利要求1所述的机器人人机交互系统,其特征在于,其中指令信息包括有视
频、人脸、表情、场景、声纹、指纹、虹膜瞳孔、或光感信息。
3.根据权利要求2所述的机器人人机交互系统,其特征在于,所述可变因素信息为基于
用户与机器人的交互信息。
4.根据权利要求1所述的机器人人机交互系统,其特征在于,所述可变因素影响人机交
互的输出结果。
5.一种机器人人机交互方法,包括:
向机器人发送指示信息;
接收用户的指令信息;以及
基于机器人的可变因素输出交互结果。
6.根据权利要求5所述的机器人人机交互方法,其特征在于,所述指令信息包括有视
频、人脸、表情、场景、声纹、指纹、虹膜瞳孔、或光感信息。
7.根据权利要求5所述的机器人人机交互方法,其特征在于,所述可变因素信息为基于
用户与机器人的交互信息。
8.一种机器人人机交互装置,包括:
输入模块,用于接收用户输入的指令信息;
可变因素识别模块,用于识别机器人出现的可变因素;以及
输出模块,用于输出人机交互的结果。
9.根据权利要求8所述的机器人人机交互装置,其特征在于,所述指令信息包括有视
频、人脸、表情、场景、声纹、指纹、虹膜瞳孔、或光感信息。
10.根据权利要求8所述的机器人人机交互装置,其特征在于,所述可变因素信息为基
于用户与机器人的交互信息。
11.一种机器人人机交互方法,其特征在于,包括:
接收用户的指令信息;
识别机器人的可变因素信息;以及
根据可变因素信息输出交互结果。
12.根据权利要求11所述的机器人人机交互方法,其特征在于,其中指令信息包括有视
频、人脸、表情、场景、声纹、指纹、虹膜瞳孔、或光感信息。
13.根据权利要求11所述的机器人人机交互方法,其特征在于,其中可变因素信息为基
于用户与机器人的交互信息。

说明书

一种机器人人机交互系统、装置和方法

技术领域

本发明涉及智能机器人技术领域,尤其是涉及一种机器人人机交互系统、装置和
方法。

背景技术

随着社会的进步,机器人不仅在工业、医学、农业或者军事上应用广?#28023;?#26356;是在生
活上开始慢慢地融入人类的社交。常见社交?#31995;?#26426;器人应用于活动现场或者家庭,特别是
在活动现场,机器人的交互往往能吸引群众的关注和兴趣。

目前,机器人主要通过被动的形?#25509;?#20154;们交互,这种被动是交互方式容?#36164;?#24471;人
们对其是去主动逗乐的兴趣。作为社交情感型智能机器人,需要凸显人的属性,然而主动沟
通又是人与人之间发起情感联系的必须过程;在主动沟通中还需抓住人性的情感共鸣点,
?#28909;?#20154;都渴望?#36824;?#24515;、被认可、在社群中的存在感;感性、健忘、偏好轻松、占到便宜、立即见
效是普罗大众的共同特性。

发明内容

本发明公开了一种机器人人机交互系统,包括:机器人端,用于接收用户发出的指
令信息,其中机器人端中还包括可变因素信息,基于机器人的可变因素输出交互结果;以及
用户端,用于向机器人发送指示信息,并与机器人互动。

优选?#27169;?#25351;令信息包括有视频、人脸、表情、场景、声纹、指纹、虹膜瞳孔、或光感信
息。

优选?#27169;?#21487;变因素信息为基于用户与机器人的交互信息。

优选?#27169;?#21487;变因素影响人机交互的输出结果。

本发明公开了一种机器人人机交互方法,包括?#21512;?#26426;器人发送指示信息;接收用户
的指令信息;以及基于机器人的可变因素输出交互结果。

优选?#27169;?#25351;令信息包括有视频、人脸、表情、场景、声纹、指纹、虹膜瞳孔、或光感信
息。

优选?#27169;?#21487;变因素信息为基于用户与机器人的交互信息。

本发明公开了一种机器人人机交互装置,包括:输入模块,用于接收用户输入的指
令信息;可变因素识别模块,用于识别机器人出现的可变因素;以及输出模块,用于输出人
机交互的结果。

优选?#27169;?#25351;令信息包括有视频、人脸、表情、场景、声纹、指纹、虹膜瞳孔、或光感信
息。

优选?#27169;?#21487;变因素信息为基于用户与机器人的交互信息。

本发明还公开了一种机器人人机交互方法,接收用户的指令信息;识别机器人的
可变因素信息;以及根据可变因素信息输出交互结果。

优选?#27169;?#25351;令信息包括有视频、人脸、表情、场景、声纹、指纹、虹膜瞳孔、或光感信
息。

优选?#27169;?#21487;变因素信息为基于用户与机器人的交互信息。

通过本发明公开的人机交互系统、装置及方法,有利于及时反馈给用户机器人的
状态,并?#19968;?#22120;人通过动画方式主动告知用户,人机交互方式更为有趣、智能,?#20197;?#21152;了人
机交互的娱?#20013;浴?br />

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现
有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本
发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可
以根据这些附图获得其他的附图。

图1为根据本发明的实施例一种机器人人机交互系统框图。

图2为根据本发明的实施例一种机器人人机交互装置的模块框图。

图3为根据本发明的实施例一种机器人人机交互方法流程图。

图4为根据本发明的实施例一种机器人人机交互方法流程图。

具体实施例

下面结合附图和具体实施例对本发明的技术方案作进一步更详细的描述。显然,
所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实
施例,本领域普通技术人员在没有作出创造性劳动的前提?#28388;?#33719;得的所有其他实施例,都
应属于本发明保护的范围。

图1所示为根据本发明的实施例一种机器人人机交互系统。如图1所示,该系统包
括机器人端110和用户端120。机器人端110与用户端120相连接,可以相互发送指令信息,以
及交互信息等。其中机器人端110可以是机器人、虚拟机器人或者其他智能装置等,用户端
120可以是用户控制的智能手机设备、IPAD等等电子设备,但不局限于此类设备。

图2为根据本发明的实施例一种机器人人机交互装置的模块框图。具体的图2将结
合图1进行描述。如图2所示,机器人端110中包括有输入模块210、可变因素识别模块220以
及输出模块230。其中输入模块210用于接收用户输入的指令信息,其中用户输入为多模态
输入,这里的“多模态输入”包括但不限于,视频、人脸、表情、场景、声纹、指纹、虹膜瞳孔、光
感等信息。可变因素识别模块220与输入模块210相耦接,用于识别机器人出现的可变因素,
?#28909;?#26426;器人出现扭伤、日程计划改变等等,但不局限于此。多模态作为输入端(声音,?#35745;?br />场景等),可变因素为基于用户与机器人的交互信息。在一个实施例中,机器人由于过多次
的做运动,过多次数跳舞等等的问题,会增大几率扭到脚等等,这种情况就会数显流程图旁
边的例子,从而人机交互会改变,从原本答应跳舞到无法进行跳舞等,此时机器人会告知用
户无法跳舞做出抱歉等动作表情传输到输出模块。输出模块230与可变因素识别模块相耦
接,用于输出人机交互的结果。?#28909;?#36873;择输出用户发出的指令,如跳舞、行走等等,或者在综
合考虑可变因素后,选择输出抱歉等动作表情。

图3为根据本发明的实施例一种机器人人机交互方法流程图。图3将结合图1进行
描述。如图3所示,?#34903;鑃301机器人接收用户指令信息。包括但不限于,视频、人脸、表情、场
景、声纹、指纹、虹膜瞳孔、光感等信息。?#34903;鑃302:基于可变因素输出交互结果。在一个实施
例中,可变因素为基于用户与机器人的交互信息,?#28909;?#26426;器人由于过多次的做运动,过多次
数跳舞等等的问题,会增大几率扭到脚等等,这种情况就会数显流程图?#21592;?#30340;例子,从而人
机交互会改变,从原本答应跳舞到无法进行跳舞等,然后将不能跳舞的结果信息输出告知
用户。

图4为根据本发明的实施例一种机器人人机交互方法流程图。图4将结合图2进行
描述,主要包括以下?#34903;瑁篠401:接收用户发出的指令信息;?#34903;?02:识别可变因素;?#34903;?br />403:基于可变因素输出交互结果。其中指令信息包括但不限于,视频、人脸、表情、场景、声
纹、指纹、虹膜瞳孔、光感等信息。

通过本发明公开的人机交互方法,有利于及时反馈给用户机器人的状态,并?#19968;?br />器人通过动画方式主动告知用户,人机交互方式更为有趣、智能,?#20197;?#21152;了人机交互的娱乐
性。

以上所揭露的仅为本发明实施例中的较佳实施例而已,当然不能以此来限定本发
明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

关于本文
本文标题:一种机器人人机交互系统、装置和方法.pdf
链接地址:http://www.pqiex.tw/p-6091678.html
关于我们 - 网站声明 - 网?#38236;?#22270; - 资源地图 - 友情链接 - 网站客服 - 联系我们

[email protected] 2017-2018 zhuanlichaxun.net网?#26223;?#26435;所有
经营许可证编号:粤ICP备17046363号-1 
 


收起
展开
平码五不中公式规律 2018最快开奖历史记录 澳門足球彩票投注公司 双色球预测下期必出号 极速赛车预测计划软件 微信头条可以赚钱吗 三公玩法 加拿大28计划软件 网上如何创业赚钱 澳门博业历史背景 244彩票送彩金