如果你太空闲,就找点事做。
ab的塔女妖表情包,从官方渠道可以获得的最高分辨率是162*162,方法是右键打开图片,然后去掉后面的@100x100webp图片处理标记,就可以得到原图了阿尔法通道。 大叔,他真的,我哭死了……
如果你想把这么可爱的东西制作成可以保存在其他平台的表情包(不提倡、不推荐),只需要一步ip形象,将其保存为GIF即可。 小而美的逻辑就是永远把GIF当成一种表达方式。
但看了很多专业和流行的表情符号后,你会发现,一般来说,2D动画角色都会有安全的笔画和线条。 这一措施主要是为了应对用户各种花哨的微信背景,同时仍保持正常的观感。 毕竟不是每个人都像我一样小而美丽。 我从不更改默认的灰白色背景。 非常常见的错误来自经典的 pandas 标头:
很多带有随机通道的GIF图片在显示时都会出现白边,但这种事情是无法避免的,因为在GIF这种落后老旧的编码格式中,alpha通道是二进制的,而且又小又漂亮。 显然,应该使用 alpha mask
x = α*0xFFFFFF,
即预乘白色。 我很早之前就意识到了这个问题,所以在给人们制作恶搞表情包的时候,我通常会加一层白色的描边,视觉上会更加和谐。 例如:
其他的
我做到了,+8px描边
默认壁纸的美感很好地体现了龙的美感。
不得不说,cfm的汗真的很好用,现在已经是我最常用的十大表情之一了。
之前搜过一个专栏微信表情包最大分辨率,放了一批巨大的cfm表情包,分辨率提升到了600多,不出意外,我做了4倍的放大,对于表情包来说确实太大了,本身信息量也不大很多。 如此大的下拉菜单,结果就是满眼都是算法和油画。 我每天都会在v栏里看到那组表情包,当我发出去的时候,它就占据了我屏幕的1/4。
玩过这种油画风格的人简直太熟悉了。 waifu2x-caffe自带的cunet不可能这么激进。 不出意外,应该是 RealESRGAN 或 RealCUGAN。 经过查找,发现这个RealCUGAN模型是我叔叔的Ai Lab做的。 据说训练数据都是二维的,在2D内容上效果突出。
我忘了解释我想做什么。 我做的这批表情包(直接根据原图)好像有点太小了。 我想放大2倍后做一整套。
然后我又捡了一批表情包,直接用GitHub上的原版,也就是bilibili/ailab/Real-CUGAN的工具来放大,结果却惨不忍睹:
从结果可以推断出该数据集的用途
其实内容本身的处理效果还是不错的,一如既往的油画味道,只是官方工具似乎忽略或者抛弃了alpha通道的处理。 有时空内容会自动生成绿屏背景,有时会显示我们正在制作的图像。 训练时经常使用的数据增强方法,随机旋转和缩放后填充边缘痕迹。
可以推断,该模型在训练时使用了数据增强方法,引入了大量绿屏背景的二维图像。 怀疑该网站中存在的一种特殊类型的视频(x.GB)被用于训练。
然后我想,当我最后一次玩waifu2x-caffe时,它的最新模型是cunet,为什么不去GitHub上看看有没有什么很棒的模型更新。
虽然没有结果,但我发现了一个缝合怪物Waifu2X-Extension-GUI,这是一个大师,界面充满了国产软件的味道。
但是它做了很多优化,比如帧插入、自定义编码封装、内容增强、批处理挂载等等,而且这个东西可以处理alpha通道,所以用它运行的结果出奇的好,过了一段时间温让我出去了。
因为我在家里度假,这台机器没有Photoshop,所以我无法轻松地进行添加帧并保存为GIF的批量处理。 直接接触了小而美的表情包项目。
然后说说这堆看得懂却看不懂的引擎。 我之前一直是传统的 waifu2x-caffe 用户。 它内置的upPhoto和CUnet不说效果有多好,但是非常可靠。 有时,它甚至会在图像分辨率不足的情况下再现内容边缘的锯齿。 影响观感,但至少不是坏事。
Ab主导的这一系列GAN的处理要激进得多。 一开始,当GAN不涉及超分辨率时,它在图像娱乐领域的应用是风格迁移。 我们很常见的风格化照片软件Prisma的鼻祖(应该没记错吧,现在是个收费很高的app)就很高程度的使用了GAN,虽然当时效果在我看来并不理想。
现在,在NV和Tensorflow的大力推动下,每个厂商都会做GAN图像风格转移,所以这个功能无处不在,无论是社交平台自带的滤镜还是你手机图库里的特效。
基于风格迁移的超分并不是坏事,严格来说,对于冻鳗的内容来说甚至是一件好事,举个简单的例子,这张大台的动态图:
事实上,她的L2D模型的分辨率不足以支持1648*1771的自拍。 当您放大时,您会发现实际上存在由放大和重新采样以及绿屏剪切边缘引起的锯齿。 这么大的图片符合分辨率。 原来只是文字内容。
在这种情况下吉祥物设计,使用传统模型进行放大会在一定程度上保留这些低分辨率特征。
但RealCUGAN不同,你可以将它用作二维滤波器,或者偏离原教旨主义的超分辨率重绘行为。
我看到有人在RealCUGAN的问题上问微信表情包最大分辨率,在Todo中制作1倍放大的模型有什么用——考虑到你可以把它当作一个滤镜,我可以告诉你效果在哪里:
真是太疯狂了!
左边是处理后的图像,右边是原始图像,全部缩放为 100%。
因为RealCUGAN目前只有2 3 4x模型,所以我将原始图像通过up2x-no-denoise,然后将其缩放回1x大小50%。
它可以将分辨率不足的图像重新绘制成分辨率接近100%的新鲜出炉的数字绘画,给我一种在pixiv上浏览绘画的感觉。
当然,这个对抗网络会失去一些纹理特征,比如背景的效果会被适当简化,线条会被锐化。 但这并不影响我的塔堆的新生命! 【永初太妃糖_嘿嘿咻】
因此,这种模式可能会对行业产生一些影响,特别是在印刷和出版物方面。 有些图片的分辨率不足以满足打印起点,但当爱好者以600~1500PPI的精度将其打印在纸/海报/巾枕/〇〇鼠标垫上时,可以直接改变成品的图案经过 RealCUGAN 2x 网络后。
在该系列模型中,标记为GAN-NCNN-Vulkan的批次条目被赋予了非常高的级别。
当然是NCNN和Vulkan。 我很熟悉它。 NCNN是腾爸爸做的。 针对移动设备的纯C++神经网络加速架构非常强大。 Vulkan打算将推理过程从CUDA的垄断中解放出来,无论是CPU、A卡,还是嵌入式设备,都可以从跨平台中受益。
不过这些引擎都是为了waifu2x向非N卡群体的普及和推广。 理论上,网络和算法本身并没有得到改进。 我在摆弄ncnn的时候观察到可能是移动端优化的原因。 运行算法会有一定的准确性损失——当然,我不是 AI 资深人士,这些结论可能是错误的。 但下面的Waifu2X-Caffe-CUDA(使用RealCUGAN模型)和RealESRGAN-NCNN-Vulkan的2倍放大倍数比较是正确的:
左边是Caffe,右边是NCNN
在复杂的线条下重画会产生一定的混乱效果,这是我们齿轮人难以忍受的!
作为一个RTX3090拥有者,我承认自己拥抱Caffe CUDA阵营,也推荐使用超分辨率放大的朋友使用waifu2x-caffe配合RealCUGAN作为2D图像放大的首选模型。
还有一点是,这种基于GAN的放大模型会稍微改变整个图像的色调,得到的图像会更温暖。 可能是因为图片输入网络或输出时没有考虑颜色校准,也可能是网络中重绘造成的。 对数据集的影响所造成的效果。
写下你想要的,思绪就结束了。
- 本文固定链接: https://wen.nuanque.com/biaoqingbao/3872.html
- 转载请注明: nuanquewen 于 吉祥物设计/卡通ip设计/卡通人物设计/卡通形象设计/表情包设计 发表
- 文章或作品为作者独立观点不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。本文之内容为用户主动投稿和用户分享产生,如发现内容涉嫌抄袭侵权,请联系在线客服举报,一经查实,本站将立刻删除。本站转载之内容为资源共享、学习交流之目的,请勿使用于商业用途。