GMI Cloud在WAIC亮相,AI基建有何亮点?出海业务如何降本增效?
GMI Cloud在WAIC 2025展示怎样的AI云服务创新?
2025年世界人工智能大会(WAIC)于7月26日至29日在上海世博展览馆举行,全球AI云服务领域头部企业GMI Cloud以独特姿态亮相。这家深耕AI基础设施的企业携核心产品矩阵和前沿技术成果,通过产品展示、技术体验、专家分享等多元形式,向全球开发者和行业伙伴传递AI算力发展的最新动向。作为NVIDIA全球六大Reference Platform合作伙伴之一,GMI Cloud在H1核心技术馆和H4创新企业展区的双展位布局,展现了其在AI云服务领域的深厚积累和创新实力。
在WAIC展会上,GMI Cloud重点呈现了三款核心产品,为观众打造沉浸式AI基础设施体验。作为一家深耕AI云服务的企业,GMI Cloud凭借全球布局的数据中心网络和NVIDIA芯片深度合作,提供基于H200、B200等高端GPU的云服务方案。其融合公有云和私有云的灵活架构,能够为企业量身打造安全高效的AI基础设施。自主研发的Cluster Engine云管理系统,通过优化资源调度实现算力调配的敏捷性,而Inference Engine推理引擎云平台则依托芯片级算子优化和动态负载调度,显著提升AI推理性能,为AI业务爆发提供坚实支撑。
技术体验区成为展会亮点,两大核心平台直击AI应用构建痛点。刚上线的"AI应用构建成本计算器"让开发者快速获取专属AI Agent或海外应用的成本测算,2分钟内即可明确投入方案。Inference Engine实战体验则让参与者现场调用热门大模型API,感受海外快速落地AI想法的高效流程。其高吞吐量和稳定性特点,让从创意到应用的转化更顺畅,为开发者加速AI应用全球化提供支撑。
在合作伙伴展区,GMI Cloud与DataDirect Networks(DDN)联合展示的AI基础设施解决方案引发关注。DDN作为全球11000家企业的存储解决方案提供商,其A³I存储系列和ES400X3产品广泛应用于大模型训练场景。双方联合推出的解决方案通过GMI Cloud集成DDN高性能存储系统,具备动态可扩展性和定制化架构,为模型训练到实时推理的复杂工作负载提供支撑,显著提升AI研发效率。
跨界互动为展会增添活力,GMI Cloud与小红书联合推出的打卡活动吸引众多参与者。现场打卡的观众可获赠专属拍立得照片,记录精彩瞬间。技术VP钱雨静在小红书舞台分享的《混迹硅谷10年,AI颠覆了我的Coding习惯》引发共鸣,结合硅谷技术研发经验,揭示AI如何重塑程序员的编码思维和工作方式,展现技术对行业生态的深远影响。
在36氪×WAIC 2025直播间,36氪研究院院长邹萍与GMI Cloud亚太区总裁邱君展开深度对话。据悉,36氪研究院发布的《2025年中国AI应用出海企业发展需求洞察报告》大量引用GMI Cloud在AI基础设施领域的技术优势,包括自研Cluster Engine和Inference Engine在资源调度和推理性能优化方面的突破。双方从技术赋能商业视角,剖析AI出海市场现状、核心壁垒和商业变现路径,为行业提供兼具技术支撑的市场分析。
专家分享环节全面展现GMI Cloud的技术实力。亚太区总裁邱君在FUTURE TECH舞台深度解析Inference Engine的高并发、低延迟特性,拆解其支撑全球AI业务爆发的技术路径。技术VP钱雨静则在OpenTalk区域聚焦《GMI Cloud Inference Engine全球大规模集群调度和优化》,详解热门大模型推理优化架构逻辑,探讨KVCache池化策略如何通过访存优化提升推理效率。
GMI Cloud由Google X的AI专家和硅谷精英共同创立,全球数据中心网络覆盖为企业提供最新GPU云服务。服务对象涵盖初创公司、研究机构和大型企业,致力于提供稳定安全、高效经济的AI云解决方案。凭借高稳定性的技术架构、强大的GPU供应链和丰富的产品阵容,GMI Cloud确保企业客户在数据安全与计算效能基础上,实现AI落地的高效低成本。通过自研Cluster Engine和Inference Engine两大云引擎平台,完成从算力原子化供给到业务级智算服务的全栈跃迁,持续推动通用人工智能(AGI)发展。
此次WAIC 2025之行,GMI Cloud充分展现其在AI基础设施领域的硬实力。通过与全球行业伙伴的深度交流,进一步巩固行业地位。未来,GMI Cloud将持续深耕AI基建领域,为全球AI发展注入更多创新动力。