近日,科技圈迎来一次重量级联手。苹果公司正式官宣,将引入谷歌旗下gemini大模型,为即将上线的“apple intelligence”智能系统注入更强ai能力。这意味着,最快在今年内,iphone用户即可率先体验这场由全球两大科技巨头协同打造的ai升级盛宴。

尽管苹果尚未公开披露哪些具体功能将接入Gemini模型,尤其在“Apple Intelligence”及Siri层面,但多方消息指出,搭载Gemini的新版Siri将迎来深度重构,整体能力实现跨越式跃升。
升级后的Siri将突破传统语音助手边界,进化为具备语境感知、情绪识别与主动交互能力的智能伙伴。据CNMO获悉,其核心升级方向涵盖以下多个维度:
情绪陪伴:当用户流露出“孤单”“低落”等情绪信号时,Siri可作出更具共情力与支持性的回应。
知识检索:提供更权威、更实时的全球信息与事实性答案,“对话式问答”体验将趋近于ChatGPT、Gemini等前沿AI助手。
复杂任务处理:支持跨应用、多步骤操作,例如依据用户指定主题,在“备忘录”中自动生成结构化文档。
深度个性化:胜任高度定制化服务场景,如根据用户偏好与日程自动完成机票或酒店预订。
模糊意图解析:显著提升对含糊、不完整甚至语法不规范语音指令的理解与应对能力。
创意内容生成:新增讲故事能力,可根据用户设定的角色、风格或场景即兴创作短篇故事。
长期对话记忆:支持跨会话上下文留存,使连续对话更自然、更连贯。
智能前置建议:具备主动干预能力,例如结合实时路况与朋友航班信息,提前推送“建议现在出发,避开晚高峰”的贴心提醒。

与此同时,Gemini模型也将成为“Apple Intelligence”功能体系的核心驱动力。该框架最早亮相于WWDC 2023,原定随iOS 18落地,后因技术整合进度调整而延后。目前已知重点能力包括:
个人语境理解:Siri可调用设备本地数据(如通讯记录、邮件、照片等),精准定位用户所需信息,例如快速查出某条特定日期的微信消息或会议邀请邮件。
视觉屏幕理解:实时识别当前屏幕显示内容,并据此执行对应操作,如截图中出现航班信息时自动提取并添加至日历。
应用内智能操控:响应用户语音或文字指令,在目标App内部完成指定动作,无需手动跳转界面。
据悉,首批基于Gemini大模型的iPhone AI功能,将随iOS 26.4版本正式登场,该系统预计下月启动开发者测试。











