苹果自研AI受阻,转投第三方大模型布局
7月1日,据媒体报道,苹果可能正与OpenAI或Anthropic进行洽谈,双方正在探讨一项潜在的合作方案。苹果计划引入OpenAI或Anthuctive的第三方大语言模型,以提升Siri的技术支持能力。
据悉,据消息人士透露,苹果正在测试OpenAI和Anthropic等公司训练的AI模型,以适配其私有云计算服务器。目前,苹果发现Anthropic的AI模型在性能上最符合Siri的需求,并已与Anthropic初步探讨了财务条款。据悉,Anthropic要求苹果每年支付数十亿美元的费用,且该费用可能随时间逐步上升。这也促使苹果同时考虑与其他公司如OpenAI展开合作。 从行业角度来看,苹果此举反映出其对AI技术的高度重视,尤其是在提升语音助手体验方面。然而,高昂的费用可能会成为合作中的关键考量因素。苹果选择多线并进,既体现了其在技术选择上的谨慎,也显示出在AI领域寻求长期稳定合作的意图。未来,这种合作模式或将成为科技巨头在AI发展中的常见策略。
苹果一直在为Siri训练大语言模型,但苹果在AI领域苦苦挣扎,这早已不是行业秘密,此前在2024年6月的全球开发者大会(WWDC)主题演讲中,苹果提前展示了Siri的几项新功能,并在iPhone 16系列的宣传片中强调了这些功能,但最终未能兑现。
今年3月,苹果公司宣布将与Apple Intelligence相关的Siri功能推迟至2026年,这一决定引发了用户的不满,并已导致多起诉讼。据悉,苹果计划在iOS 26.4版本中推出这些功能。 苹果此次推迟Siri的升级功能,反映出其在技术实现和用户体验之间寻求平衡的努力,但也暴露出用户对新技术期待与实际交付时间之间的落差。面对诉讼压力,苹果选择在后续系统更新中逐步推进,或许是为了确保功能的稳定性和可靠性。然而,对于已经等待已久的用户而言,这样的调整无疑增加了失望感。
值得注意的是,苹果在Siri中引入大型语言模型(LLM)的开发工作,与iOS 26中推出的个性化Siri功能是两个独立的项目。目前,基于LLM的Siri版本将在后续更新中推出,预计可能要等到明年的iOS 27才能正式亮相。 从技术发展的角度来看,苹果在语音助手领域的持续投入体现了其对人工智能应用的重视。虽然LLM版Siri尚未上线,但这一方向无疑将为用户带来更自然、更智能的交互体验。不过,也需注意到,苹果在系统更新上的节奏相对保守,这或许意味着新技术的落地需要更长时间的打磨与优化。对于用户而言,耐心等待或许是合理的预期。
苹果与Anthropic或OpenAI的合作,有助于其在自主研发AI模型的同时,依然满足用户对个性化AI功能的期待。事实上,苹果已与OpenAI展开合作,将ChatGPT集成至Siri中,iOS 18用户现已可以通过Siri将问题转交给ChatGPT,以获得更为详尽和精准的回答。 从行业角度来看,这种合作模式体现了科技巨头在AI发展上的务实策略。一方面,苹果可以借助现有成熟模型提升用户体验;另一方面,也为自身AI技术积累提供了时间与空间。这种“借力”与“自研”并行的方式,或许将成为未来大型科技公司推动AI落地的重要路径。