那么,具体都有哪些基础模型?
在去年的 WWDC 大会上,苹果公司推出了一款参数量高达30亿的端侧语言模型,而且该模型在之后还进行了多次更新。
面向端侧/苹果定制的 GPT 模型。
已知至少存在两大类,具体型号尚未明确,苹果公司尚未向非开发者提供详细信息。目前,该“基础模型框架”原生支持Swift编程语言(其他语言支持情况尚不明确),开发者仅需编写少量代码即可实现接入,并支持内容创作、工具调用等多种大型语言模型(LLM)功能。
然而,如今开发者面临的选择繁多:DeepSeek、Claude、O 系列、Gemini……还有它们各自的官方版本,以及针对特定场景的再训练版本,他们究竟凭借什么与苹果的基础模型竞争呢?
苹果给出的价值主张非常直接。
概括而言,采用此类大型语言模型会带来明显的经济负担,用户数量以及活跃度和用户粘性越高,调用云端API以及生成token的费用也就越高。
面对这样的开销,明星级创业企业能够借助风险投资进行资金注入,而大型企业则可动用其现金储备进行弥补,因此,现在的用户已经习惯了免费的大型语言模型产品。
然而,对于众多中小型开发者,尤其是那些独立开发者来说,这确实是一个相当现实的问题:试想一下,用户刚下载了你的应用程序,想要尝试一下你的AI功能,结果一打开就看到“本月剩余3次免费生成额度”这样的提示……又或者,如果你的对手中恰好有那些大型企业,你又该如何与它们抗衡呢?
苹果带来了“基础模型框架”,并向你免费提供端侧模型,允许你利用 iPhone、iPad 或 Mac 的本地计算能力,实现快速、高效且保护隐私的 LLM 推理,以满足用户的各种需求。
不再为云端API的付费问题而感到资金压力;不再因token的投入而在定价上做出妥协,你可以自信且不失尊严地挑选你心仪的、同时也能让用户感到满意的商业模式——尤其是对于中小型或独立开发者来说,这难道不是一件令人愉悦的事情吗?
这便形成了一种既能让开发者获利又能让用户满意的局面——当然,若再加上苹果公司的参与,那么便实现了三方共赢。
「虽迟但到」,AI 版
著名开发者及苹果公司分析师约翰·格鲁伯近期发布了一篇颇具趣味的博客帖子。
他提到,苹果在关键产品和技术方面往往落后于竞争对手,这一点众所周知;然而,不得不承认,在苹果公司持续发展的历程中,它并未错过任何一次重大且具有里程碑意义的科技革命。
例如,苹果公司的 Safari 浏览器,还有其内核 WebKit,它们的问世时间是 2003 年的开头,这比曾经引起全球关注、甚至敢于挑战微软市场地位的网景浏览器晚了整整 8 年,甚至比「.com 泡沫」的破灭还要晚 3 年——尽管如此,晚于他人总比缺席要好,更不用说在 Safari 问世之前,Mac 平台上并无一款出色的浏览器可用。
若依照此逻辑推演,苹果公司若被迫融入AI时代,则亟需一套与当前Safari/WebKit地位相当的新产品技术体系。
喜讯传来:正如文初所述,iPhone的销量及市场份额优势显著。尽管外界不时对苹果在人工智能时代的表现进行贬低,但一个事实不容忽视:
在未来的较长时间内,苹果公司依然掌握着足够的影响力,足以决定用户在iPhone、iPad、mac和Vision系列产品上如何运用人工智能技术,而非让AI技术来决定其产品的形态。
你注意到 OpenAI 完成了对前苹果设计负责人 Jony Ive 所属公司的收购,并正致力于打造一款全新的「纯AI原生」设备;同时,你也会发现 OpenAI 与苹果达成了合作协议,使其成为苹果生态系统中唯一的「全球独家合作伙伴」——这也就意味着它将成为苹果唯一的第三方基础模型提供商。
苹果是否觉得自己在技术上落后于OpenAI?答案是否定的。若真是如此,苹果理应向OpenAI支付费用。然而,据The Information报道,实际情况正好相反,OpenAI为了能够成为苹果生态系统的默认基础模型,将效仿前辈Google在iOS系统中的做法,向苹果缴纳所谓的“入场费”。
若GPT用户的月费为20美元,苹果公司从中抽取的分成或许会达到30%。此外,这部分收入几乎等同于公司的净利润。
瞧,苹果公司向OpenAI支付费用,同时以间接方式对开发者和最终用户给予资助——这恐怕会让很多人感到出乎意料吧。
在 2009 年的首个财季,苹果公司公布的财务报告会议上,由于乔布斯病情严重,库克再次临危受命,担任了苹果公司的代理首席执行官。在那次会议上,库克发表了数段讲话,这些讲话后来被统称为“库克信条”。其中,有一段讲话内容是这样的:
我们坚信,必须掌握并控制那些支撑我们生产产品的核心技术,同时,我们仅愿意投身于那些我们能够显著贡献的市场之中。

综合 John Gruber 的见解,我将这一想法凝练为一句简洁的话语:
苹果有必要研发一款新型设备,该设备应具备运行人工智能产品、服务或大型语言模型的能力。通过这款设备,苹果能够设定人们如何利用AI,而非让AI自行决定产品的开发方向。
自 WWDC25 大会落幕之后,人们在审视和讨论苹果公司的人工智能进展时,或许能够换一个全新的角度去思考。
苹果智能,微更新
最后我们来看一下 WWDC25 的其他 AI 新发布内容。
实时翻译
苹果在 iOS/iPadOS/macOS 系统中成功整合了一套实时翻译功能,这套功能在业界已经达到了(两三年前)的行业标准。
目前,实时翻译功能覆盖了信息、电话以及FaceTime这三款应用。这些翻译服务均能在设备端独立完成。
发送信息时,用户可自选文字进行输入,系统即时在用户界面展示对应的译文,用户随后可手动点击发送消息;类似地,对于接收到的信息,系统同样会在用户本地界面自动进行翻译处理。
在电话中,先说出原文,然后双方都能听到翻译后的语音
在FaceTime的交流环境中,当其中一人开口交谈时,另一人可以清晰看到屏幕上显示的翻译字幕。
Genmoji 和 Image Playground
Genmoji功能已升级,用户现在能够通过输入LLM提示指令,轻松创建融合多种新颖元素的Genmoji头像。例如,将树懒与灯泡巧妙融合。
在 Image Playground 平台,用户得以运用 GPT 的多模态模型创作出各式各样的照片,风格各异或随机生成——这可以看作是对苹果官方 OpenAI 40 的一次模仿或包装。
视觉智能 Visual Intelligence
视觉智能功能早已具备了摄像头拍照识别的能力。而在今年的WWDC大会上,它又迎来了一项令人惊叹的升级:新增了对截图内容的搜索以及后续的交互操作。
截图中的物品可便捷地通过访问App Store中的各类应用进行检索,亦或是对截图中的具体时间、地点信息进行提取,进而实现将这些信息录入日历、备忘录等应用中。
目前,视觉智能技术已经达到了与六、七年前Google图片搜索和Lens所具备的功能相当的水平。
然而,关键问题在于交互手段过于陈旧:它需要截图,这与2025年上半年发布的Android手机截然不同,后者能够无需截图即可直接读取用户屏幕内容并作出响应,甚至还能拥有类似代理的能力,直接代用户操作屏幕。
我的看法是,苹果此举或许基于两个主要因素:一是它们在技术实力上确实不及谷歌或安卓设备制造商;二是考虑到隐私保护,苹果要求用户手动进行截图操作,并主动点击开启视觉智能识别功能。
快捷方式
苹果智能设备已兼容快捷方式功能,开发者得以对自家的应用程序进行调整和兼容,从而使用户能够便捷地创建应用程序的快捷操作。对于快捷方式的使用频率,我并不清楚具体有多少人采用,但估计全球范围内或许仅有数十人使用。
Copyright C 2018 All Rights Reserved 版权所有 聚贤人力 皖ICP备20008326号-40
地址:安徽省合肥市高新技术开发区人力资源产业园 EMAIL:qlwl@foxmail.com
Powered by PHPYun.