Character.AI 推出 AvatarFX 模型:AI 实现静转动,让图片角色开口说话

这里是AI贴吧网-AI资讯的硬核前线!我们24小时监测全球实验室动态,算法追踪巨头动向、代码解析学术突破,用最“硅基”视角解秘AI革命浪潮!

Character.AI 公司今天(4月23日)在X平台发布推文,宣布推出AvatarFX模型,能够让静态图片中的人物“开口说话”。

用户只需上传一张图片并挑选一个声音,平台即可生成会说话、会移动的形象。这些形象还能展现情感,呈现出令人惊叹的真实感和流畅度。

公司表示,这得益于一种名为“SOTADiT-baseddiffusionvideogenerationmodel”的先进AI模型。该模型经过精心训练,结合音频条件优化技术,能高效生成高质量视频。

AvatarFX的技术亮点在于其“高保真、时间一致性”的视频生成能力。即便面对多角色、长序列或多轮对话的复杂场景,它也能保持惊人的速度和稳定性。与OpenAI的Sora和Google的Veo等竞争对手相比,AvatarFX并非从零开始或基于文本生成视频,而是专注于将特定图片动画化。

这种独特的工作流程为用户提供了新颖体验,但也带来了潜在风险。用户可能上传名人或熟人照片,制作看似真实的虚假视频,引发隐私和伦理争议。

想掌握最新AI隐藏技能?挖透巨头紧急下架产品的真相?点击【AI贴吧网-AI资讯】,深度解析+实战案例,智能刷新你的认知!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注