大模型选择难?中国移动的MoMA能帮上忙吗?

2025-10-14 10:40:21 作者:Vali编辑部

7月26日,中国移动在世界人工智能大会上正式推出MoMA引擎,这款多模型与智能体聚合服务系统,为解决复杂任务提供了全新方案。通过整合业界优质模型与智能体资源,MoMA能够根据应用场景自动匹配最优专家模型,形成具备持续进化能力的超级大模型服务基座。这项技术突破不仅提升了任务处理效率,更让企业用户在面对多模型协同难题时有了更灵活的选择。

多模型协同为何成为行业新挑战?

当前市场上的大模型虽然在特定领域表现出色,但面对复杂任务时往往存在局限。例如代码编写模型擅长逻辑推理,但对自然语言理解能力稍弱;翻译模型虽然能处理多语种转换,但在专业领域术语识别上仍有不足。这种单一模型的局限性,使得企业在实际应用中面临三大难题:如何高效组合不同模型优势、如何精准理解用户意图、如何在成本与效果间找到最佳平衡点。MoMA引擎通过创新性的多级路由技术,为这些问题提供了系统性解决方案。

MoMA引擎如何实现智能体动态编排?

MoMA的核心在于构建了一套完整的智能体协同体系。系统通过标准化接口接入15+个高质量模型,涵盖编程、医疗、翻译等多个专业领域。在实际应用中,系统会根据用户输入内容自动分析任务复杂度,判断需要调用的模型类型。例如处理医疗咨询时,系统会优先选择具备医学知识的专家模型;面对多语言翻译需求时,则会匹配支持多种语言的智能体。

这种动态编排机制带来了显著优势。据实际测试数据显示,在覆盖百万级用户的情况下,MoMA的动态路由机制能在不同参数模型(1B、3B、8B、75B、200B)间灵活切换,整体速度相比固定75B参数模型提升了42%。这种灵活性不仅降低了计算成本,更让系统能适应不断变化的业务需求。

智能体协同如何突破传统模式瓶颈?

传统AI系统往往采用固定模式处理任务,规划执行步骤越多,所需计算资源也越多。MoMA则通过创新性的Planner-Executor-Summarizer架构,实现了任务的自动拆解与并行调用。在处理复杂任务时,系统会根据用户意图动态选择ReAct、Route、Parallelize、Swarm等混合模式,确保每个环节都能发挥最佳效能。

这种动态调整机制带来了明显效果。在实际应用中,MoMA能够将请求发送给专门的规划模型,选择最适合的执行模式。例如在处理多意图用户请求时,系统会自动分配不同的智能体或大模型协同处理,通过实时监控推理输出内容进行动态调整,从而保证回答的准确性和效率。

技术架构如何保障系统稳定性?

MoMA的底层架构融合了多项创新技术。首先是多级路由机制,通过分层次完成任务拆解与实现。一级路由负责专家模型与简单任务的分发,二级路由则在综合准确度和成本基础上,将复杂问题分配给不同参数规模的专家模型。这种分层设计既保证了处理效率,又避免了资源浪费。

其次是闭环监控反馈系统,构建了"实时感知-动态调整-持续验证"的循环链路。系统会持续收集运行数据,根据实际效果优化模型选择策略。这种自我优化能力,让MoMA能在长期运行中保持高效性能。

行业应用如何体现技术价值?

MoMA目前已在多个领域落地应用。在通信领域,系统帮助中国移动打造了灵犀智能体2.0,实现了跨领域、多任务的智能服务。在生活场景中,智能体可协助用户管理日常事务;在办公场景中,系统能提供会议支持与文档处理;在医疗领域,专家模型可辅助医生进行诊断分析。

这种多场景应用不仅提升了用户体验,更让企业用户在处理复杂任务时获得显著效率提升。实际案例显示,MoMA在医疗咨询场景中,能将专业术语识别准确率提升至95%以上,大幅降低了人工审核成本。

未来发展方向如何规划?

中国移动正通过MoMA引擎构建全新的产业协同生态。这项技术不仅为行业提供了高效解决方案,也为未来AI技术发展指明了方向。通过整合算力资源,MoMA形成了百模互联、千智协同的产业生态体系,让优质大模型和智能体资源实现灵活调度。

随着更多行业实践的深入,MoMA将持续释放生产力价值。通过技术迭代与生态建设,中国移动正推动人工智能技术向更广阔领域延伸,为产业创新和规模化发展提供坚实支撑。这项技术突破,标志着中国AI产业迈入发展新阶段。