来源:量子位
随便一张照片,就可生成3D头像。而且光线真实,任意角度可调。
这是苹果的最新黑科技生成框架FaceLit。
正如其名,FaceLit的特色就是可以将人脸“点亮”。
“自带光环”的FaceLit在易用性上也不输同类,甚至更胜一筹——
进行3D建模时,需要的照片素材无需专门选择角度,数量上也只需一张。
甚至对表情、发型、眼镜等元素进行调节时,也不需要额外素材。
而传统的头像合成工具或者需要多张图片才能工作,或者对照片角度有刁钻的要求。
正是凭借这一创新,FaceLit获得了3.5的FID评分,较同类产品直接高出了25%。
山东省公共资源交易中心正式发出第一张区块链中标通知书:8月9日消息,济南绕城高速东线小许家枢纽至遥墙机场段改扩建工程房建工程施工项目的中标人收到了山东省公共资源交易中心(省政府采购中心)第一张区块链中标通知书,中标人通过手机扫描中标通知书上的上链二维码获取到交易过程关键数据上链存储凭证,凭证内容包括存证主体、文件名称、文件大小、文件格式、文件哈希值及存证时间等相关信息,并加盖存证主体保全印章。同时,中标人还可点击查询上链存储证明书的上链信息附件,获取存证详细内容,包括项目名称、项目编号、开标时间、中标人名称、中标金额等具体交易信息,实现对交易过程关键数据进行查询、验真。(山东省公共资源交易中心)[2023/8/9 21:33:14]
改进式EG3D合成人像,光线信息单独处理
下面就来看一下FaceLit具体是如何实现头像合成的。
总的来说,苹果采用了将人物本体与光线分别处理再进行叠加的策略。
法官阻止销售Jay-Z的第一张专辑及其作为NFT的版权:一名纽约法官发布了一项临时限制令,以阻止 Roc-A-Fella Records Inc (RAF) 联合创始人 Damon Dash 涉嫌出售 Ja??y-Z 首张专辑“合理怀疑”的代币化版本及其版权。(cointelegraph)[2021/6/23 23:59:56]
早期的三维人像合成工具在转换过程中可能产生形变。
而爆火的NeRF通过将场景拆分成具体因素,提高了3D图像合成效果,改善了这一问题。
但苹果团队认为,在可控性方面,NeRF仍存有不足之处。
于是,在EG3D框架的基础上,苹果创造了FaceLit的合成模型。
EG3D通过三平面解码器,赋予了二维卷积神经网络生成渲染3D模型所需深度参数的能力。
苹果团队对标准的EG3D训练方式进行了扩展,并将之转化成了FaceLit框架。
国内第一张数字银行卡已经正式发行:8月15日,国内第一张数字银行卡已经正式发行。经中国人民银行营业管理部批准,百信银行通过虚拟发卡系统发行的首张数字银行卡正式亮相。据悉,这张由中国银联和百度公司、百信公司三方共同推出的银行卡,同时集合了借记卡和贷记卡的功能于一身,申请时就可以获取几千元到五万元不等的额度。由于该银行卡没有实体卡片,完全存在于数字网络中,因此在安全上也采取了更多的防范措施。(财华社)[2020/8/20]
△FaceLit与传统EG3D渲染流程对比图
标准的ED3G使用相机位置p参数作为基本输入参数。
在建立GAN2操作时,苹果在EG3D的基础上加入了光照参数l。
动态 | Telx技术公司推出世界上第一张加密SIM卡:据AMBCrypto消息,电信公司Telx Technologies宣布推出一款SIM卡,可以通过短信处理加密货币。该项目背后的议程是让人们可以在不需要智能手机、互联网连接或钱包应用/地址的情况下进行国际汇款。据Telx称,这款手机将成为世界上第一张用于这一目的的SIM卡。[2019/8/24]
不同p(左→右)与l(上→下)值下的初始图像
苹果选择了经过球形谐波方式简化后的Phong反射模型作为处理光源的物理基础。
光照参数l就是在这一基础之上独立处理得到的。
在自然界中,反射包括镜面反射和漫反射两种形式。
△不同镜面反射率条件下的效果对比
动态 | 全国港口第一张区块链电子发票在招商港口蛇口集装箱码头(SCT)上线:据航运交易公布微博, 4月26日上午,招商港口在蛇口集装箱码头(SCT)举行全国港口第一张区块链电子发票上线仪式。10点50分,SCT副总经理姚胜兰宣布仪式启动。10点58分,货主代表劦福公司总经理曾杰办理提货办单手续并完成微信支付后,全国港口第一张区块链电子发票顺利生成。[2019/4/28]
因此,苹果在ED3G模型中加入了镜面反射解码器和漫反射解码器。
它们替代了可以直接得到颜色c、密度σ数据的三平面解码器。
△反射解码器流程示意图
通过对GAN2产生的数据进行再次解码,可以得到镜面反射率ks和漫反射率kd。
然后再通过两种反射着色器得到颜色c,密度σ则由漫反射解码器计算得出。
最终,FaceLit以与三平面解码器相同的参数渲染图像,并进行分辨率优化。
有的放矢设计训练策略,数据无需人工标注
生成框架已有,那就来到训练阶段,其特点在于训练过程中无需人工标注。
方法论层面,在训练时,团队使用了FFHQ、MetFaces和CelebA-HQ数据集。
对于不同的数据集,苹果使用了不同的训练方式。
FFHQ包含了7万余条人脸数据,其训练分为两个阶段:先在较低的分辨率下训练,再提高分辨率再次进行。
对于包含2万数据量的CelebA-HQ,训练不需要分阶段进行。
而对于更小的MetFAces,则只需要通过ADA扩容的方式,使用预训练的FFHQ进行优化调整即可。
定性地看,训练结果在机位、光源和反射高光等方面都有出色的表现,图中的细节也有所增强。
△FaceLit生成的头像唇齿部位的细节进行了明显重构
定量结果同样表明,FaceLit在FID、KID等指标上均优于包括标准EG3D在内的传统生成方式。
在使用FFHQ作为训练集的条件下,各生成方式的表现如下表,不难看出FaceLit拥有最低的FID和KID值。
而相比于英伟达的StyleGAN2,FaceLit的表现依旧出色:
光线准确度方面,FaceLit在使用三种不同训练数据集的情况下,与人工设定的标准值平均均方误差均低于0.01。
网友:人们低估了苹果AI
消息发出后,便有网友认为“这是对更重磅产品的预热”。
更有网友直接推测,FaceLit的出现标示着人工智能将进军AR和VR领域,苹果的混合现实将最终实现商用……
也有网友认为,FaceLit不会商用,否则苹果才不会以论文的形式发表。
针对FaceLit本身,也有网友表示,除了LLM,其他都是浮云,他们如果不开发LLM,就没有未来。
但这位网友同时也说,苹果可能已经在做了。
相应的,也有网友称人们“低估了苹果在AI领域的深度”。
所以各位网友对苹果在AI领域还有什么样的期待呢?
论文地址:https://arxiv.org/abs/2303.15437
GitHub地址:https://github.com/apple/ml-facelit
参考链接:https://twitter.com/AlphaSignalAI/status/1648361623004774400
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。