LivePortrait是快手可灵大模型团队近期推出的一款开源可控人像视频生成框架。
自开源以来,LivePortrait迅速在AI圈走红。截至目前,它在GitHub上已经获得了9.2K星标,并在HuggingFace的应用趋势榜上位居第一。
这是我发现的最强大、最真实的深度伪造工具。
基本上,你可以用一张照片,然后输入任何一个人说话的视频,它就会根据视频的运动来制作那张照片的动画。
这非常强大,因为它不仅可以让照片说话,还可以处理复杂的表情。这是极少数能够真正用复杂表情制作照片动画的工具之一。
甚至还可以生成拟人化动物表情。
它是免费的、开源的,你可以下载并在你的电脑上本地运行,也可以在线使用。
我们来看看几段演示效果:
Github地址:
论文链接:
项目主页:
HuggingFace在线体验:
不过,由于排队体验的人不少,有时会因平台算力资源紧张而无法成功生成视频,需要多尝试几次,有硬件条件的玩家可部署到本地使用。
进入LivePortrait项目主页,目前提供图生视频和图生图两种玩法。
图生视频
LivePortrait的图生视频操作步骤很简单:
首先,选择一张高清的正面人像照片作为素材;
其次,准备一段参考视频,用于驱动人像的表情和头部动作,要求视频横纵比为1:1(可用剪映裁剪处理),为了保证生成效果,视频应专注于头部,尽量减少肩部运动,第一帧为中性表情;
AI时代,整蛊名人的创作成本可以说是越来越低了。
目前,HuggingFace在线体验暂不支持V2V视频编辑。对此有需求的玩家可以考虑本地部署LivePortrait模型,并结合开发者Kijai推出的Comfyui插件进行使用。
图生图
与图生视频相比,LivePortrait的图生图操作就更简单了。只需上传你想整活的图片,调节眼睛、嘴巴等部位的张合比例值,可以让图中人物的眼睛或嘴巴相应地张得更大。
未来,LivePortrait所代表的人像生成技术会如何落地应用在可灵基础模型上,值得我们期待。
以上就是本期全部内容,希望对你有所启发和帮助。如果你觉得这篇文章写得不错,就动动小手为我点赞、关注并转发吧,让更多人也能get到这些实用的干货。你也可以在留言区打卡,说说最期待看哪方面的内容,我们下期再会!
领取专属 10元无门槛券
私享最新 技术干货