腾讯近日正式发布了Hunyuan3D-1.0,这是一款全新的3D生成模型,能够大幅提升3D内容创作的效率和质量。Hunyuan3D-1.0是首个同时支持文本到3D和图像到3D生成的开源模型,通过该模型,用户可以通过简单的文本描述或图像输入,快速生成高质量的3D模型,适用于游戏开发、动画制作、工业设计以及虚拟现实(VR)和增强现实(AR)等多个领域。
双重生成:文本和图像输入到高效3D输出
Hunyuan3D-1.0的核心优势在于其独特的双输入支持。用户既可以通过输入文本描述(如“绿色植物”或“红色椅子”),也可以通过上传图片,快速生成高质量的3D模型。该模型通过两个阶段的生成过程实现这一点:
多视角扩散模型(Multi-view Diffusion Model):该模型首先从不同角度生成多视角的RGB图像,生成时间约为4秒。
前馈重建模型(Feed-forward Reconstruction Model):然后,通过前馈重建网络,将这些图像快速重构为3D资产,生成时间约为7秒。
这一整套流程在10秒内即可完成,极大缩短了3D生成的时间,同时保持了较高的细节和质量。
快速生成与高效渲染
Hunyuan3D-1.0提供了两个版本,分别为标准版和轻量版,以满足不同用户的需求:
轻量版:适合注重生成速度的用户,能在大约10秒内完成3D网格的生成。
标准版:适合追求高质量生成的用户,生成时间约为25秒,提供更高的细节和准确度。
两个版本均能提供高效的3D生成,并支持生成后的纹理映射和渲染,大大简化了从文本或图像到最终3D模型的整个过程。
开源与社区支持
作为开源项目,Hunyuan3D-1.0不仅为开发者提供了完整的代码和预训练模型,还支持多种语言的使用,包括中英文双语文本生成,并通过Hugging Face平台与全球开发者社区分享最新进展。
开发者可以在腾讯的GitHub仓库中找到该项目的源代码,并根据详细的安装指南快速上手。在NVIDIA A100 GPU上,标准版的3D生成时间约为25秒,而轻量版则仅需10秒,极大提升了生成效率。