苹果AI新招,到底改在哪?Siri的未来,还值得期待吗?

2025-10-19 09:15:26 作者:Vali编辑部

苹果这次WWDC大会,真的有大动作吗?

今年早些时候,苹果把全球开发者大会的时间提前到了6月,这让很多关注AI技术的用户都期待值爆表。毕竟,作为科技圈的年度盛会,苹果的每一次更新都牵动着开发者和消费者的神经。这次大会上,苹果没有像往年那样直接推出颠覆性产品,而是选择把重点放在系统升级和AI功能的深化上。从命名规则到设计语言,从端侧模型到开发工具,苹果似乎在用更温和的方式推进技术迭代。

系统升级:从命名规则到设计语言

苹果这次最大的改变是系统命名方式。以往的iOS、macOS等系统版本号都是按照数字递增,现在直接用年份命名,比如iOS 26、macOS Tahoe 26等。这种做法让用户更容易判断设备是否运行了最新版本系统。从技术角度看,这种命名方式更符合用户习惯,也方便开发者快速识别系统版本。

设计语言方面,苹果展示了全新的"液态玻璃"设计。这种设计灵感来自Vision Pro的visionOS系统,通过实时渲染实现动态响应。在实际应用中,这种设计让界面更流畅,半透明效果让操作体验更自然。比如在信息查看时,界面会根据光线变化自动调整明暗,这种细节处理让用户体验更直观。

AI功能:从智能翻译到视觉搜索

苹果这次把AI功能作为重点,推出了实时翻译、视觉搜索等实用功能。实时翻译功能已经集成到信息、FaceTime和电话中,支持跨语言沟通。这项功能最大的优势在于完全在设备端运行,用户的通话内容不会被上传到云端,隐私保护更到位。

视觉搜索功能则让用户的浏览体验更便捷。比如在手机上看到一件衣服的图片,可以截图搜索,AI会自动找到同款商品。这种功能不仅方便了用户,也为电商和内容平台提供了新的交互方式。苹果表示,这种功能可以跨应用使用,用户可以在不同App中直接调用搜索结果。

开发者工具:端侧模型开放带来的新机遇

苹果这次为开发者带来了好消息,开放了端侧大模型的访问权限。这意味着任何App都可以直接调用Apple Intelligence的核心模型,实现离线可用的智能体验。对于教育类App来说,这种功能可以基于用户笔记生成个性化测验;户外类App则能添加自然语言搜索功能,即使在没有网络的情况下也能使用。

从技术实现来看,苹果提供的Foundation Models框架支持Swift语言,开发者只需三行代码就能接入AI模型。这种低门槛的接入方式,让更多开发者能够快速将AI能力融入现有应用。这种开放策略也让苹果在开发者群体中获得了更多支持。

开发套件升级:Xcode 26的智能功能

苹果这次还发布了Xcode 26,这是开发者必备的开发工具。新版本加入了对大语言模型的支持,开发者可以直接在编程体验中使用AI辅助。比如在编写代码时,Xcode可以提供操作建议,生成预览或Playground,甚至直接处理其他任务的提示。

这种智能功能让开发效率提升明显,尤其是在处理复杂代码时,AI助手能快速定位问题并提供解决方案。Xcode 26还改进了导航体验和语音控制功能,让开发者可以通过语音操作Swift代码,这种交互方式更符合现代用户的使用习惯。

AI延迟:Siri的升级还在路上

虽然苹果在AI领域推出了多项新功能,但Siri的升级依然没有兑现承诺。去年WWDC大会上,苹果曾表示要推出更具个性化、交互更自然的Siri,但今年的发布会只是简单提及,表示会继续优化,但需要更长时间。

这种延迟让很多用户感到失望,尤其是在当前AI技术快速迭代的背景下。苹果将Siri的AI功能推迟到明年,也让投资者对苹果的AI战略产生担忧。从技术角度看,这种延迟可能意味着苹果在AI技术上暂时落后于OpenAI、谷歌等竞争对手。

整体评价:温和升级下的技术突破

综合来看,苹果这次WWDC大会并没有带来颠覆性的产品,但通过系统升级和AI功能的深化,展示了技术发展的新方向。从开发者角度看,开放端侧模型和改进开发工具,为技术落地提供了更多可能性。不过,Siri的延迟也让人们看到了苹果在AI领域需要加速追赶。

对于普通用户来说,这次更新带来的功能提升并不算特别惊艳,但实用性强,比如实时翻译和视觉搜索等功能,确实能改善日常使用体验。在AI技术快速发展的背景下,苹果这次的温和升级,或许正是为未来更大的变革铺路。