作者 | 巴穆克·昆古恩
组织| 简·刘畅
出品| AI科技大本营(ID:rgznai100)
【简介】近日,日本一位热爱Vtubers的粉丝结合了多部之前发表的GAN作品,制作了两款动漫角色生成器工具。 这两款工具一款可以帮助动漫迷快速轻松生成不同姿势的动漫角色ai动漫人物生成器,另一款可以帮助您将真实的面部表情移植到动漫角色中,以后还可以定制您的“动漫双胞胎姐妹/兄弟” 。
作者不仅是资深Vtubers粉丝,还密切关注深度学习技术。 也正是在这两种兴趣的共同刺激下,这两种工具得到了推广:一是基于单个图像生成动态动画角色;二是基于单张图像生成动态动画角色。 第二个工具在第一个工具的基础上,对输入的单张图像进行变换,将通过摄像头获取的实时人脸图像的姿势特征分配给动画角色图像。
人工智能技术是动画创作的重要工具之一。 作为一名深度学习培训师,想要了解这项工作的效果和方法,就必须快速学习。
显示结果
你的皱眉和微笑只不过是言语而已。 这两个工具是如何做到的呢? 我们先来看看最终结果的视频:
首先是第一个工具:基于 GUI 的单图像动漫面部表情生成器。
基于该工作的成功方法,作者还在该系统中添加了面部表情检测功能。 这个动漫人物可以实时模仿人脸的表情。 通过改变输入,使用摄像头获取面部手势和表情特征卡通人物,让动漫人物得到输入后的面部表情。 同一段:
在第二份工作中,作者也尝试将输入改为视频,当然方法也奏效了。
太有趣了,卡哇伊是如何运作的? 下面我们将介绍模型和数据两大方面的方法,但在整个工作中,还涉及到如何标注数据、图像数据处理规范、采样与渲染等诸多细节,不能一一讲其一,但是作者本人给出了详细的解释和介绍,大家可以仔细阅读项目。
项目地址:
方法介绍
(1) 输入输出
从上面的视频中可以看到,界面左侧显示的是输入的单个动画角色图像,中间列出了6个姿势调整栏。 每个姿势都有一定的设定范围,可以多种姿势使用。 右图中,直接输出生成的效果图。 即整个作品只需要输入一张动漫人脸和一个姿势(比如表情)卡通人物,系统就可以在另一个背景下输出给定姿势的动漫人脸。
(输入和输出)
(二)实施的主要两方面
如何产生效果? 这就是模型要解决的问题,通过改变面部表情并控制表情范围(眼睛或嘴巴的张开程度)来设计“面部变形器”和“面部旋转器”两个独立的模型。
(“两步走”系统)
(三)具体模型和方法
(模型总图)
近年来,GAN 在面部表情合成的许多任务中取得了令人惊讶且令人印象深刻的工作。 2017年,StarGAN提出后,我们可以轻松调整头发颜色、纹理、肤色,合成图像中有趣的表情。 随后,提出了一种基于动作单元(AU)的新GAN模型——GANimation。 在无监督训练中,最后只需要控制AU的激活程度,并选择几个AU进行组合,模型就可以生成表情变换,而且效果非常生动。
本系统中的“面部表情”模型是基于GANimation模型设计的。 那么“脸部旋转器”是如何工作的呢? 作者将GANimation模型与ECCV 2016上发表的“View Synthesis by Appearance Flow”方法结合在光流方法上。 第一步网络的输出是第二步网络的输入。
什么是光流法? 光流是对物理世界中物体上每个点的实际移动速度的估计。 解决这种光流估计问题的计算方法称为光流法。 在《View Synthesis by Appearance Flow》的工作中ai动漫人物生成器,主要任务是根据输入图片中物体或场景的视角,从另一个角度生成一个物体或场景,就像我们看到一个物体时,我们的大脑可以还想象一下这个物体如果旋转的话会是什么样子。
“按外观流程查看合成”
- 本文固定链接: https://wen.nuanque.com/katong/12070.html
- 转载请注明: nuanquewen 于 吉祥物设计/卡通ip设计/卡通人物设计/卡通形象设计/表情包设计 发表
- 文章或作品为作者独立观点不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。本文之内容为用户主动投稿和用户分享产生,如发现内容涉嫌抄袭侵权,请联系在线客服举报,一经查实,本站将立刻删除。本站转载之内容为资源共享、学习交流之目的,请勿使用于商业用途。