近日,阿里云在视觉生成技术领域迈出了重要一步,其旗下的万相2.1(Wan)模型正式宣布开源。此次开源行动不仅彰显了阿里云对于技术共享的开放心态,更通过采用Apache2.0这一极为宽松的协议,为全球开发者提供了前所未有的便利。
万相2.1模型此次开源的内容极为丰富,包括了14B和1.3B两个参数规格的全部推理代码和权重。这意味着开发者们无需从零开始,即可直接获取到这一先进模型的核心资源。同时,该模型还支持文生视频和图生视频任务,进一步拓宽了其应用场景和潜力。
尽管1.3B版本的参数规模相对较小,但其测试结果却令人瞩目。据透露,该版本不仅在性能上超越了部分更大尺寸的开源模型,甚至还逼近了某些闭源模型的水平。更令人欣喜的是,它能够在消费级显卡上流畅运行,仅需8.2GB的显存即可生成高质量的视频内容。这一特性无疑将大大降低视觉生成技术的门槛,使得更多开发者能够轻松上手并探索这一领域的无限可能。
目前,全球开发者已经可以在Github、HuggingFace和魔搭社区等多个平台上下载并体验万相2.1模型。这一开源行动无疑将为视觉生成技术的发展注入新的活力,推动该领域不断向前迈进。
随着人工智能技术的不断发展和普及,视觉生成技术已经成为了一个备受关注的热点领域。阿里云此次开源万相2.1模型,不仅有助于推动该领域的技术进步和创新,更为全球开发者提供了一个共同学习和交流的平台。相信在不久的将来,我们将看到更多基于这一模型的创新应用和技术成果涌现出来。