预览加载中,请您耐心等待几秒...
1/7
2/7
3/7
4/7
5/7
6/7
7/7

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

(19)国家知识产权局(12)发明专利申请(10)申请公布号CN115082603A(43)申请公布日2022.09.20(21)申请号202210745099.2(22)申请日2022.06.27(71)申请人北京蔚领时代科技有限公司地址100015北京市朝阳区酒仙桥路6号院6号楼1至18层101内14层1401室(72)发明人彭振昆郑航费元华郭建君(74)专利代理机构北京智丞瀚方知识产权代理有限公司11810专利代理师白月霞(51)Int.Cl.G06T13/40(2011.01)G06V40/16(2022.01)G06F16/41(2019.01)G06F16/45(2019.01)G06F16/483(2019.01)权利要求书1页说明书4页附图1页(54)发明名称一种虚拟数字人的交互方法及其系统(57)摘要本申请公开了一种虚拟数字人的交互方法及其系统,其中虚拟数字人的交互方法具体包括以下子步骤:获取虚拟数字人的表情动作;根据获取的虚拟数字人的表情动作构建表情动作库;响应于构建完成表情动作库,获取虚拟数字人的实时表情动作;根据虚拟数字人的实时表情动作为虚拟数字人添加特效。本申请通过表情动作库的建立与深度学习技术的结合,解决了目前因虚拟角色人物模型面部表情参数、身体动作参数多,出现识别错误,捕捉不全面,影响虚拟人物表情、动作生成的问题,从而提高了表情动作识别的准确率。CN115082603ACN115082603A权利要求书1/1页1.一种虚拟数字人的交互方法,其特征在于,具体包括以下子步骤:获取虚拟数字人的表情动作;根据获取的虚拟数字人的表情动作构建表情动作库;响应于构建完成表情动作库,获取虚拟数字人的实时表情动作;根据虚拟数字人的实时表情动作为虚拟数字人添加特效。2.如权利要求1所述的虚拟数字人的交互方法,其特征在于,获取虚拟数字人的表情动作包括,获取虚拟数字人的微表情动作。3.如权利要求2所述的虚拟数字人的交互方法,其特征在于,获取虚拟数字人的表情动作还包括,进行虚拟数字人的微动作捕捉。4.如权利要求3所述的虚拟数字人的交互方法,其特征在于,通过手机深度传感器或相机对面部微表情进行捕捉,设定捕捉为一秒60帧,每一帧为一个微表情,记录每一帧的数据参数。5.如权利要求4所述的虚拟数字人的交互方法,其特征在于,根据获取的虚拟数字人的微表情和微动作构建表情动作库,并将微表情和微动作组合为属性类别和特征类别。6.如权利要求5所述的虚拟数字人的交互方法,其特征在于,属性类别具体为虚拟数字人生气、大笑微表情的类别属性。7.如权利要求5所述的虚拟数字人的交互方法,其特征在于,特征类别具体为虚拟数字人面部特征、动作特征类别。8.如权利要求7所述的虚拟数字人的交互方法,其特征在于,在表情动作库中还设置了与虚拟数字人微表情、微动作对应的特效属性。9.如权利要求5所述的虚拟数字人的交互方法,其特征在于,根据虚拟数字人的实时表情动作为虚拟数字人添加特效,具体包括以下子步骤:将获取的实时表情动作与表情动作库中的表情动作进行比对,获取比对结果;据比对结果为虚拟数字人添加特效。10.一种虚拟数字人的交互系统,其特征在于,包括第一获取单元、构建单元、第二获取单元以及添加单元;其中第一获取单元,用于获取虚拟数字人的表情动作;构建单元,用于根据获取的虚拟数字人的表情动作构建表情动作库;第二获取单元,用于获取虚拟数字人的实时表情动作;添加单元,用于根据虚拟数字人的实时表情动作为虚拟数字人添加特效。2CN115082603A说明书1/4页一种虚拟数字人的交互方法及其系统技术领域[0001]本申请涉及计算机领域,具体地,涉及一种虚拟数字人的交互方法及其系统。背景技术[0002]现如今,社会不断发展,人们对生活质量的需求越来越高,人们对科技的追求也越来越高,已经将虚拟化、数字化的技术应用到了各个领域,且可以通过虚拟数字人完成虚拟直播。在虚拟数字人完成直播的过程中就涉及到了人物模型的建立,需要通过对真人的面部识别、捕捉,身体动作的捕捉来完成数字人的直播运作。而现有虚拟角色的人物模型的面部表情参数、身体动作参数较多,容易出现识别不精准,或是捕捉不全面导致参数组合出现问题,影响虚拟人物表情、动作的生成,从而影响整个直播效果。[0003]因此,如何提供一种能够提高虚拟数字人面部表情和动作识别准确率的方法,是本领域技术人员急需解决的问题。发明内容[0004]本申请提供了一种虚拟数字人的交互方法,具体包括以下子步骤:获取虚拟数字人的表情动作;根据获取的虚拟数字人的表情动作构建表情动作库;响应于构建完成表情动作库,获取虚拟数字人的实时表情动作;根据虚拟数字人的实时表情动作为虚拟数字人添加特效。[0005]如上的,其中,获取虚拟数字人的表情动作包括,获取虚拟数字人的微表情动