Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了300,794,975字

该文章投稿至Nemo社区   资讯  板块 复制链接


字节跳动豆包视频生成大模型发布:首次突破多主体互动难关,支持多风格多比例的一致性多镜头生成

发布于 2024/09/24 15:51 25浏览 0回复 1,029

IT之家 9 月 24 日消息,火山引擎正式发布了豆包视频生成-PixelDance、豆包视频生成-Seaweed 两款大模型,面向企业市场开启邀测,这也意味着字节跳动正式宣告进军 AI 视频生成。IT之家注:新款豆包视频生成模型目前正在即梦 AI 内测版小范围测试。

该模型支持高效的 DiT 融合计算单元、全新设计的扩散模型训练方法和深度优化的 Transformer 结构,可以实现更充分地压缩编码视频与文本,支持一致性多镜头生成,能够大幅提升视频生成的泛化能力。

官方介绍称,无论是语义理解能力,多个主体运动的复杂交互画面,还是多镜头切换的内容一致性,豆包视频生成大模型均达到业界先进水平。

火山引擎总裁谭待表示,“视频生成有很多难关亟待突破。豆包两款模型会持续演进,在解决关键问题上探索更多可能性,加速拓展 AI 视频的创作空间和应用落地。”

谭待表示,豆包视频生成大模型支持多风格多比例的一致性多镜头生成,可应用在电商营销、动画教育、城市文旅、微剧本等领域。

此外,谭待表示,豆包大模型发布以来使用量爆发式增长。截至 9 月,豆包语言模型的日均 tokens 使用量超过 1.3 万亿,相比 5 月首次发布时猛增十倍,多模态数据处理量也分别达到每天 5000 万张图片和 85 万小时语音。

此前视频生成模型大多只能完成简单指令,豆包视频生成模型则能实现自然连贯的多拍动作与多主体复杂交互。有创作者在抢鲜体验豆包视频生成模型时发现,其生成的视频不仅能够遵循复杂指令,让不同人物完成多个动作指令的互动,人物样貌、服装细节甚至头饰在不同运镜下也保持一致,接近实拍效果。

据火山引擎介绍,豆包视频生成模型基于 DiT 架构,通过高效的 DiT 融合计算单元,让视频在大动态与运镜中自由切换,拥有变焦、环绕、平摇、缩放、目标跟随等多镜头语言能力。豆包视频生成模型具备专业级光影布局和色彩调和,画面视觉极具美感和真实感。

深度优化的 Transformer 结构,则大幅提升了豆包视频生成的泛化能力,支持 3D 动画、2D 动画、国画、黑白、厚涂等多种风格,适配电影、电视、电脑、手机等各种设备的比例,不仅适用于电商营销、动画教育、城市文旅、微剧本等企业场景,也能为专业创作者和艺术家们提供创作辅助。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/797/996.htm]

点赞(0)
点了个评