上车大模型,这些500强企业联合京东云这么做!

2025-03-15 09:03 来源:中新网 阅读量:18171   

文章摘要

当企业每天处理的AI数据量堪比3个国家图书馆,价值数亿的千卡GPU集群却闲置超60%;当算力需求以300%的年增速狂飙,CTO们仍在为“两周才能等到训练资源”而焦头烂额。这暴露了一个残酷现实:算力堆砌≠智能转型。 如今,超70%的大中型企...

当企业每天处理的AI数据量堪比3个国家图书馆,价值数亿的千卡GPU集群却闲置超60%;当算力需求以300%的年增速狂飙,CTO们仍在为“两周才能等到训练资源”而焦头烂额。这暴露了一个残酷现实:算力堆砌≠智能转型。

如今,超70%的大中型企业的大模型项目正在因为算力管理低效陷入停滞。在这场AI竞速中,来自不同行业的领军企业与京东云合作,正通过实践证明:构建兼具弹性、效率和成本优势的智能算力底座,已经成为企业“上车”大模型的第一步。

某国内新能源车企面临AI算力需求年增300%的挑战,千卡级GPU集群利用率仅40%。资源调度黑箱化、工具链割裂、系统管理分散、设备运维低效,企业每年因此产生的隐性成本相当于新建两座数据中心,智能座舱模型迭代需排队两周才能获取算力。基于京东云言犀AI开发计算平台,该汽车企业打造智能算力调度系统,分钟级精准预测+容器化错峰共享,让几百块GPU在自动驾驶模型训练中“随叫随到”,算力利用率跃升至89%;京东云全生命周期开发套件,预置200+AI工具“开箱即用”,模型特征工程从14天压缩至3天,研发效率提升40%。

某全球领先的综合通信解决方案提供商,在AI战略深化中需构建高效能、高扩展性的智能算力平台以支撑大模型研发,同时需突破算力利用率瓶颈、优化训练成本并加速业务创新。京东云言犀AI开发计算平台,整合超200种行业算法与全栈工具链,支持Llama、GLM等十余种主流开源框架,助力该通信解决方案提供商快速构建通信领域专属大模型。通过全局万卡级集群智能调度技术,实现跨地域异构算力资源秒级编排,大模型训练算力利用率跃升至75%,单任务训练周期缩短40%。

企业大模型竞赛的下半场,本质是智算底座的效能之争。当行业平均算力利用率不足40%时,89%的利用率意味着同等成本创造2.2倍价值。正如某新能源汽车企业CTO所言:“我们省下的不是成本,而是抢先抵达终点的关键时间窗口。”

-->

免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。

分享:

南方新闻网 | 网站地图 | RSS订阅

本站部分信息来源于网络,如有侵权请与我们联系。本站原创内容转载请注明出处。

Copyright©2020- 南方新闻网 All Rights Reserved.

邮箱:jokerdeyouxiang@sina.com

备案号:京ICP备18027517号