×
加载中...
苹果的局面,很迷惑
MacTalk 2025-06-10 16:08

又是一年一度的 WWDC。和前几年不一样的是,我没再熬夜看发布会。事情太多,扛不住。趁着中午的时间,我简单写点自己的看法,不算全面和系统,都是一些暂时的感受。

其实这场发布会没开之前,我大概已经能预料到大众的评价。

上个月结束的 Google I/O 大会,我也写过,整体来看,谷歌已经走出被 OpenAI 压制的阴霾之中,慢慢找到了自己的节奏。而且谷歌发布的 Veo3 等模型,还是备受市场青睐。

对比着谷歌回来看苹果,确实有些让人失望。大家都等着你有突破性的 AI 变革,结果,苹果扭扭捏捏,交不了答卷。

在其他几家科技公司马不停蹄的发布 AI 产品和模型时,苹果却逆天的宣布要迭代自己的设计语言。早上醒来打开 X,库克关于液态玻璃的帖子下面,几乎都是吐槽。

液态玻璃的效果,我看着也还行,怎么市场这么不买单,我也搞不清楚。或者这事,本身也没什么好讨论的。新的设计总需要时间来接受。所以,走走看再做评价。

更新 UI,这是牵一发而动全身的事情,接下来一段时间,开发者也得对应的做出 UI 调整。对于如此重要的变化,我相信苹果这家以设计见长的公司,肯定是对此进行过深思熟虑的讨论。

我猜测这么做主要有两个原因。第一,苹果需要统一全平台的设计语言,包括最新的 VisionOS,而目前看,他们觉得液态玻璃是最好且最主流的实现方案,毕竟我们和所有苹果设备的交互都是通过玻璃屏幕进行。液态玻璃的效果,也是与之匹配的界面。第二,随着硬件的增强,苹果已经能够支持实现更丝滑的液态玻璃动画效果。

我们再说回到 AI。苹果的 AI 模型和 OpenAI、谷歌等公司的模型有着本质的不同。我们目前高频使用的 OpenAI、Anthropic 的模型,都是云端参数量超级大的大模型,但苹果需要在端侧模型上有所突破。

端侧模型的意思是,它不需要依赖云端的模型,可以在本地的硬件设备上,单独跑一个小参数量的模型。这一点对于苹果至关重要。

比如这次 WWDC 上发布的翻译功能,官方已经明确表示说这就是通过小模型实现,不需要联网,不需要数据外传。还有相册、短信、电话等模块的 AI 功能,也都是通过端侧模型实现的。

最近我写 Cursor 之类产品的文章时,评论区总会有人提到数据安全的问题。你想想,AI 编程尚且如此,何况是我们的手机。

手机作为最私密、最贴身的个人设备,存储了我们的大量照片、聊天记录、定位、健康数据、甚至指纹和面部信息。试想一下,如果这些数据不断的被喂给云端的 AI,无论厂商如何承诺安全、合规,那用户肯定本能地都会有顾虑。

目前,从披露出来的数据可以看到,苹果开放的本地语言模型参数为 30 亿,没有推理能力。

做个对比,DeepSeek R1 最新满血版本,参数量高达 6850 亿。参数量差距可想而知。现在行业内端侧模型的讨论还比较少,但我估计,接下来这肯定会成为一个新的战场,手机,还有汽车这些场景,都需要端侧 AI 能力。

并且苹果开放了自己的 Foundation Models Framework。开发者可以通过 Swift 语言,用几行代码来调用苹果的端侧 AI。因为每个 iPhone 手机上都跑了一个端侧模型,所以,不需要支付任何的 API 费用。

这也算端侧 AI 的优势,不依赖网络,数据不外传,而且无需支付高昂的 AP 费用。

不知道是不是因为我是苹果的用户,反正我总觉得苹果在 AI 方面还是有非常大的优势。尽管现在它并不领先,但整个 AI 的竞争,不也才刚刚开始。

和大家熟悉的 Android 阵营相比,苹果这些年已经悄悄把手机、电脑等各种终端的芯片做到了高度统一。

这意味着在端侧 AI 落地上,苹果只需要针对自家那一套芯片做适配,技术推进会简单很多。而 Android 则不同,市面上各种品牌、各种芯片型号层出不穷,端侧的 AI 模型,可能要面向几十甚至上百种硬件环境做兼容和优化,难度大得多。

无论是云端的 AI,还是端侧的 AI,目前一个趋势是:各家公司的竞争,已经发展到端到端的竞争阶段。从芯片到模型,到应用,这是一个有机的整体。

拿这次苹果跳票的 Siri 而言,大众期待的需求,不就是现在流行的通用 Agent 吗?而你跳出来想想,通用 Agent 真的已经成熟到可以放到 iPhone 中了吗?我打个问号。(转载自:MacTalk)

扫码下载app 最新资讯实时掌握