其中,荣耀更是一直将「智能推荐」作为核心建设重点。尤其在 MagicOS 7.0 上,荣耀凭借 Magic Live 智慧引擎的全面升级,不仅建立了对「环境」与「人」的精准感知,更通过 Magic Live 对系统方方面面的使能,带来了「懂你所需的主动服务」。比如当你走到地铁站时,系统会自动感知你有乘车需求,以卡片形式主动弹出乘车码;到了上下班时间会主动提醒考勤打卡。
从 MagicOS 8.0 开始,Magic Live 智慧引擎的感知能力上升到了大模型层面,基于 AI 图像语义理解的 Magic 文本升级,可一键识别图片中的电话、地址、航班号、快递号等文本信息,提供一步直达的关联服务,如快递可一键查询,地址可直接导航。荣耀将这部分感知能力与「任意门」功能结合,实现了一系列快捷操作。
而到了 MagicOS 9.0,荣耀则将意图识别的能力带到了 AI 的交互层,它能够将自己感知到的位置、时间、日程等信息,作为用户指令的前置判断条件,建立更完善的个人常识库,实现「猜你所想,懂你所需」。
这就是 MagicOS 打造了 8 年之久的 Magic Live 智慧引擎,它能够对环境、场景,用户意图进行全面的感知分析,建立起一套个性化的「个人常识库」,将这些常识用于各种应用场景的前置判断。这意味着不同的人向 YOYO 发出同一指令、问题,YOYO 会给到不同的回答,这与当下任何 AI 助手服务都不一样。通过不断进化的 Magic Live 智慧引擎,荣耀 MagicOS 为 AI 增加了更多「感觉器官」,实现了个性化的智能。
而且,因为智能体拥有「理解用户意图」的能力,这意味着用户有时候不需要有明确的指令,而是可以说出一些模糊的想法,通过 AI 引擎来提供服务的推荐,完成复杂任务。
就比如同样是在点餐的场景下,你甚至不需要发出「点咖啡」这个指令,而是可以模糊地表达「我困了,帮我点个喝的」,YOYO 也能从语义里理解你需要的是咖啡,并基于你的「个人常识库」,从你最常喝的咖啡品牌点你常喝的那一款咖啡。即便碰到了无法一次完成理解的场景,YOYO 也能够进一步就细节进行追问,就是说与 AI 智能体的交互不再只有「成功」和「失败」两个选项,而是像真人一样,可以通过持续的双向对话,一点点接近你想要的目标。
总之,下一代 AI 界面的核心就在于「立体」。它可能要用到语音、用到相机,可能要直接识别屏幕,也会有滑动屏幕,点击按钮……但这些交互都不是独立存在,而是流动的,用户可以根据需要随时切换到更高效的交互方式上,而智能体要做的,就是保持「待命」的状态,并且不断完善和增强自己的多模态信息处理能力。
如果说 AI 的核心模型是「大脑」,感知和交互界面是「眼耳口鼻」,但最终,想要为用户真正「办成事」,还需要强壮的手脚。今天大部分 AI 助手,在接到用户指令后,都只能以文字、图片形式输出一系列「方法」,最后的实行这一步依然要用户自己去做。
想要改变这一点,荣耀 AI 战略的最后一块拼图,就在于「实行能力」。
想要让 AI 实现自动实行,当然就需要打造一个跨系统、跨设备、端云协同,具备流转能力的平台级 AI。如果让更多服务都接入到智能体,用户在发出指令,AI 理解后,就能直接调用对应的服务接口,自动完成最后一步的「操作」。
但想要让 AI 接入所有的第三方服务,在今天看起来还有点遥远,是一个理想。所以目前荣耀所做的,就是通过纯视觉方案,来实现 AI 的「代理操作」。简单来说,就是 AI 可以通过模拟用户的触控交互,实行用户的指令。比如在点餐的时候,实际上 YOYO 并没有直接与外卖 APP 的接口对接,而是通过模拟用户的「搜索店铺」、「选择餐品」、「选择定制化选项」、「下单」这一系列操作实现的。
对荣耀来说,打造一个 AI OS 并不是大模型风潮后定下的短期目标,Magic 系列从 8 年前启动之初,就开始了这场面向未来的漫长征程。在接受采访时方飞坦诚表示:「MagicOS 8.0 的时候大家发了一个 7B 的端侧魔法大模型,发完之后发现使用频率并不是很高,所以后来大家通过研讨,发现 AI 时代不是说做怎样的 AI 技术,而是要做什么样的场景,能够真正帮助消费者解决问题。」