勤哲云服务器算力利用率提升30%万兴科技(300624.SZ)等华为云生态链或受益
阿里云免流服务器购买
华为把一套叫Flex:ai的AI容器技术开源了,宣称能把算力资源的平均利用率提高大约30%。一句话看下来,影响直接:同样的硬件能干更多活儿,单位内容成本能降不少。
紧接着,产业链里的一些公司就动起来了。像万兴科技这种靠生成内容吃饭的企业,对这种提效工具很敏感。按财通证券算,万兴天幕做一条5秒的视频,成本只有0.5元,市面上类似服务普遍要花8.8元左右。你可以想象,算力能省下那一截,内容产出就能放大好几倍。产业里有人把这看作是硬件端和应用端的协作带来的直接红利。
再往前说,发布是在一个行业论坛上进行的,名字跟AI容器和落地应用有关。华为在会上介绍了这套技术的工作方式:它不是简单分配GPU、NPU,而是对各种算力资源做更细致的管理和智能调度,目标是让AI任务和算力能更精确地匹配。这种匹配把空闲和低效的算力挖掘出来,平均效率据说能往上提三成。技术细节方面,官方强调了对不同硬件类型的调度策略和资源隔离机制,力求减少浪费并提高并发处理能力。
把视线拉回行业背景,现在很多公司的算力利用率只有三成到四成,远没做到满负荷。业内普遍觉得,算力成本高、资源没被充分利用,是制约AI规模化落地的重要瓶颈。基建上头花的钱不少,真正能用于生成内容的资源却不够高效,这在创意类和生成类企业那里表现得更明显。把资源利用率从30%推到60%这样的事,表面上看是技术优化,底下其实关乎能不能把商业模式做通。
万兴科技在这条链上比较典型。它是国内数字创意软件里覆盖面比较广的一家上市公司,全球业务延伸到200多个国家和地区。官方数据称累计活跃用户超过20亿,最近三个季度里,其AI服务器调用量已超过8亿次。这些数字说明了两点:一是产品使用广泛,二是对算力的需求持续且大。万兴和华为云有合作,双方在算力、AI技术和产品落地上都有对接。合作的深度不仅是买卖算力那么简单,更多是把应用层的模型和云端算力做紧密耦合。
回到万兴的产品线。今年6月,万兴和华为云一块发布了万兴天幕音视频多媒体大模型2.0。这个2.0版本是基于百亿级数据做的训练和优化,官方说比1.0平均性能提升了大约90%。具体体现在几个方面:摄像机运动生成更专业、音效能分层次做出立体感、视频开头结尾的帧过渡能智能补齐。这些细节对短视频和自动剪辑场景很重要,用户体验能有明显改善。海外版本ToMoviee 2.0在VBench-2.0评测里得分排进全球前三,且在摄像机运动和运动合理性两个关键指标上位居第一。
腾讯云是服务器吗
抽云服务器
上面这些技术和评测成绩,并非孤立存在。对于像万兴这样的内容创作公司来说,算力效率的提升和模型能力的增强是同步发生的。算力更省了,模型更强了,输出质量和速度都跟着变好。把两头连起来看,企业能在不大幅增加硬件投资的前提下,把产品扩展到更多用户场景里。
从更细的环节说,Flex:ai这类技术要落地,既要兼容不同厂商的GPU/NPU,也得能和现有云服务、资源池无缝对接。华为在发布时提到的开源,意味着其他云厂商或工具链可以在上面做二次开发或者适配。对产业链来说,这种可扩展性比单纯的性能指标更重要。要知道,实际运行里还有任务调度、网络带宽、存储I/O这些瓶颈,单靠算力调度并不能解决所有问题,但确实是把效率往上拉的关键一环。
说回万兴,用户对AI功能的接受度在提升,这能从他们的调用数据看出来。模型能力越强,功能越实用,用户就越愿意调起这些接口来使用。企业层面上,成本下降直接体现在单条内容的生产花费上,市场竞争力也会跟着走。合作上,万兴与华为云的联动,既包括在技术层面的联合研发,也包括把新模型推向市场的商业配合。
技术圈里有人开玩笑说,这事儿有点像把工厂的流水线重新排布,把以前冷落的机器搬到最前面去用。听着不算浪漫,但对做量的公司来讲,确实是能看见账的改进。发布会、开源、评测名次、调用量这些都是路径上的节点,每个节点都能推动产业链往前走一步。
最后一条事实:ToMoviee 2.0在权威榜单VBench-2.0上的综合得分进入全球前三,摄像机运动与运动合理性这两项拿到全球第一。
云服务器哪个比较好

扫码关注
微信好友
关注抖音