欢迎访问厦门雄霸电子商务有限公司(漳州分公司)官网!

全国咨询热线

18059884797

产品中心
您的位置:首页 >> 新闻资讯

ETT-VGA-0045 文生视频,硬件成本是最大拦路虎

发布日期: 2024-02-26 作者:
从文生视频模型的配置谈硬件成本

对于目前市面上的一些文生视频模型而言,其配置往往决定了体验的好坏。就拿Runway的Gen-2模型来说,其最大的特点在于可以生成4K级别分辨率的视频,且具备影视级别的构图和运镜,支持图片和文本的指令输入。

然后是最近一炮走红的Sora,其将最大时长做到了1分钟,且支持符合部分物理规律的世界模型,以及多镜头的切换等。不过与Gen-2模型一样,其对分辨率也进行了限制,甚至只能生成1080p的视频。

其他文生视频模型的配置则更加捉襟见肘,比如Meta的Emu Video只能生成最长4秒的512x512分辨率视频等等。从以上文生视频模型看来,由于为了确保画面一致性,视频分辨率、视频长度和每秒帧数往往决定了生成单个视频的硬件负载。目前对于硬件要求最高的应该是Runway的Gen-2和OpenAI的Sora。

这也是为何文生视频应用均采用订阅模式,甚至是按量订阅的付费策略,比如生成视频的项目数量、存储空间、导出质量等,文生视频考验的不仅是服务器算力,还有存储成本。毕竟为了方便用户回溯,这些生成的视频依然需要存储在服务器上一段时间。

就以Runway为例,要想完全无限制地生成视频功能,每月订阅费用高达76美元,且这仅仅意味着450s的Gen-2视频生成,如果用户需要生成更多内容,则还需要额外购买。可见为了维持服务器费用,文生视频应用面临的成本压力要远大于GPT类应用。

不只是云端,硬件成本也决定了本地部署的难度

从ChatGPT和Stable Diffusion这两个最火的AIGC应用就可以看出,硬件是开发这类应用的最大门槛之一。基于低成本硬件打造的类ChatGPT应用响应时间慢,生成内容质量差。而Stable Diffusion这类文生图模型,已经可以在消费级硬件上实现不错的效果,甚至可以普及到一些低功耗的端侧设备上。

但对于Sora这类文生视频的模型而言,要想在消费级实现本地部署可谓是难于登天,在完成内容的基本生成工作后,还需要经历风格化、分镜、遮罩、渲染和自定义等一系列流程,可以说不仅考验硬件的AI算力,也对视频渲染能力提出了更高的要求。

据了解,一批开源开发者已经在构建OpenAI Sora的复制版本,且可以在使用消费级英伟达GPU的高配电脑上跑通。不过马斯克也评论道,他也认为这是可行的,但是帧渲染速率会非常低。如果需要花上数小时,才能生成出一个质量较差的4秒视频,对于绝大多数用户来说,必然不是好的体验。
查看更多 >>

推荐新闻

Copyright © 2022 厦门雄霸电子商务有限公司漳州分公司 All Rights Reserved. 闽ICP备20016028号

厦门雄霸电子商务有限公司(漳州分公司)扫一扫咨询微信客服
厦门雄霸:何姗姗
Baidu
map