大家好,小品为大家解答以上问题。虚拟主播联动是怎么做到的,虚拟主播怎么弄这个很多人还不知道,现在让我们一起来看看吧!
解答:
1、 其实,做一个3D虚拟主播无非就是以下几点:
2、 一个3D模型,一个中立的人,一套支持3D虚拟偶像做真人动画的技术。
3、 那么它们是如何结合的呢?
4、 每个虚拟偶像的背后,都有一个表演者负责动作,一个CV负责配音。他们当然可以是同一个人。
5、 1.动作性能表达式匹配
6、 表演者需要戴上动作捕捉设备。然后,每次他们做一个动作,动作捕捉背景就会记录表演者的动作数据。表演完成后,运动数据将保存在一个文件中。我们将这些运动数据与手动K的表情数据通过统一合成一个输出序列。这时,动作会带着表情。最后,动作视频文件的绿屏版本被导出。这些动作都是虚拟主播在我们看虚拟偶像节目时所做的动作。
7、 2.配音
8、 配音文件可以单独在录音棚观看动作素材的配音,也可以在表演时拿着耳机做动作,将声音传输到录音设备中存储。这个音频文件是虚拟主播的配音。
9、 好了~现在我们有了绿屏的动作视频文件,我也有了配音文件。通过AE或Pr,编辑处理以上素材就是我们看到的虚拟偶像的日常视频~
10、 ————————
11、 同样,虚拟偶像都是直播,只用上半身,主体是面部表情。按照传统方法,表达式需要手动K帧。
12、 然而,说到技术,并不是每个人都能一下子学会这些专业的艺术工具。为了方便小白用户更好的解决这些技术问题,我们团队在和其他做虚拟主播的小伙伴沟通后,开发了一个让小白用户轻松做3D虚拟主播的工具——Live 3D,可以通过傻瓜式的操作,简单的解决上面提到的各种复杂的技术问题。
13、 1.先提一下型号。
14、 (1)Live3D有自己的云3D模型库,里面的模型可以免费使用。
15、 (2)支持自定义捏,可以通过捏功能(捏脸、穿衣、捏身)得到新的模型。
16、 (2)Live3D支持导入外部3D模型,目前支持FBX、PMX、VRM格式。你可以导入你的模型,打开虚拟主播的方式。
17、 2.其次,说到面部表情,前面提到的方法都是使用“手动K帧”的方法,难度大,耗时长,同时与个人能力有很强的联系。同样,面部表情需要和动作结合,也需要通过统一导出合成序列。
18、 面部表情:Live3D解决方案-“面部捕捉”
19、 如何实现人脸捕捉
20、 (1)用电脑摄像头捕捉。
21、 (iphoneX及以上手机摄像头抓拍。
22、 具体过程:打开Live3D人脸捕捉按钮——将摄像头对准自己的脸——你会做出什么表情,对Live3D画面中的人物做出什么表情(包括眨眼、假唱、摇头)
23、 PS:对口型的准确性可以达到你说的每一个字都能准确对准朗朗上口。
24、 3.运动捕捉数据需要熟悉unity,才能最终将运动数据和表情数据转化为视觉视频。
25、 动作数据Live3D的解决方案是预制动作库的动作捕捉接口,导入外部动作。
26、 (1)预制动作库有海量云动作数据。通过按下电脑键盘上某个按键的动作(设置键盘上某个按键的动作,将Live3D上的某个动作拖到Live3D上的小键盘上),人们就会做出相应的动作。
27、 (2)动作捕捉界面目前支持诺艺腾的一套动作捕捉设备和诺艺腾Hi5手套捕捉手部细节。使用过程:链接捕获后,在Live3D上打开Noitom捕获Noitom Hi5手套的按钮。你可以在Live3D上看到你用动作捕捉做出的动作。做动作前点击录制画面,选择绿屏背景,就可以录制刚才做的动作视频了。绿屏的视频文件会直接出来,不再像过去那样需要统一处理。
28、 (3)导入外部动作。除了支持外部模型的导入,我们还支持外部动作的导入。您可以将自己喜欢的舞蹈动作、日常生活动作和动作捕捉动作导入Live3D,并将其应用于直播和动画功能。
29、 杨华锋是分享创业想法的平台。这里提供互联网创业项目,还有引流推广、网络营销、实践案例分享。如果你需要网上创业创意,去杨华锋,找项目,学推广,来中国宣传!
本文就为大家讲解到这里,希望大家看了会喜欢。
标签: