幸好苹果国行AI 没有选择DeepSeek

本文来自微信公众号:APPSO (ID:appsolution),作者:发现明日产品的,原文标题:《幸好苹果国行 AI 没有选择 DeepSeek》

当所有人都在猜测苹果国行AI的下一步棋会落在哪里时,答案既出人意料又在情理之中。不是最热闹的,不是呼声最高的,也不是反对声最强烈的,而是最低调的那个——阿里。

据外媒The Information报道,苹果最终选择了阿里作为其国行版AI的合作伙伴。

在昨晚发布的文章中,我们也注意到评论区网友态度的两极分化。有人认为阿里是实至名归的最佳人选,也有人对苹果绕过DeepSeek而选择阿里表示不解。

但如果回望整个筛选过程,DeepSeek被苹果放弃或许真的不冤。

阿里Qwen模型什么水平

在诸多AI大厂里,阿里大概是最深藏不露的那位。

很多时候这不一定是劣势,在动辄瞬息万变的AI行业里,有时候「不够性感」反而是最大的优势,因为它的另一面往往意味着脚踏实地。

从技术实力这个最核心的维度切入,开源社区就像一面照妖镜,能照出真实的技术实力。而阿里是国内少数能在这面镜子前立得住、站得稳的厂商之一。

这一点,从全球最大AI开源社区Hugging Face的最新开源大模型榜单就可见一斑,排名前十的开源大模型全部是基于阿里通义千问(Qwen)开源模型二次训练的衍生模型。

该榜单是目前全球最具权威性的开源大模型榜单,其测试维度涵盖阅读理解、逻辑推理、数学计算、事实问答等。

另一个不争的事实是,打造技术品牌这句话的含金量还在不断上升。叫好又叫座的通义千问Qwen大模型已然超越Llama,成为开源社区公认的标杆基座模型。

作为业界率先实现「全尺寸、全模态、多场景」的开源大模型,阿里云Qwen模型更是为开发者和企业提供了从1.5B到72B乃至110B的尺寸及版本,充分满足不同应用场景的需求。

其中,仅视觉理解Qwen-VL及Qwen2-VL两款模型,全球下载量就突破3200万次。一周前,Qwen2.5-VL迎来全新升级,再次点燃了开源社区的热情。

数据会说话,在Hugging Face 2024年的开源模型榜单中,Qwen2.5-1.5B-Instruct以26.6%的下载占比,成为全球开发者最青睐的开源模型。

目前,Qwen衍生模型数量已突破9万,发展成为全球最大的开源模型族群。

在推理模型的技术浪潮中,Qwen展现出强大的引力场。近期,被称为「AI教母」的李飞飞团队用较少的资源和数据训练出的s1推理模型同样基于Qwen-32B蒸馏的模型,在多项能力上实现了对标OpenAI o1-Preview的效果。

这些成果皆源于Qwen模型过硬的基础实力,但同理也正是这份实力,让阿里有底气接下苹果对AI功能的高标准要求。

此外,与其他AI初创企业相比,阿里作为中国老牌AI巨头的优势不言而喻,它更熟悉国内用户需求,也更了解数据合规政策,这些都为苹果AI功能的本地化适配和快速落地提供了重要保障。

当然,虽然阿里最终胜出,但这个结果并非一开始就已注定。在过去数月里,苹果对包括腾讯、字节跳动、DeepSeek在内的多家候选企业进行了多轮考察。

在近期财报电话会议上,苹果CEO蒂姆·库克(Tim Cook)就曾盛赞DeepSeek。

库克指出,DeepSeek在降低V3模型训练和运行成本方面取得了显著创新。他强调,推动效率的创新是非常积极的事情,这也是DeepSeek所展示出来的。

然而,受限于团队规模和大客户服务经验的不足,DeepSeek遗憾出局也不足为奇,这一点在「服务器繁忙,请稍后再试」上就有所体现。相比之下,阿里云的技术底盘和基础设施可为苹果提供本地化算力支持的优势则更加突出。

更重要的是,通过与阿里合作,苹果希望推出符合中国用户习惯的AI功能(如智能语音、视觉理解等),提升产品竞争力,扭转市场颓势。

报道称,目标明确的苹果希望找到一个能够基于用户个人数据,并理解中国用户需求的合作伙伴,这也是打造Apple智能的重要一环。

而当苹果评估多家中国公司开发的AI模型时,苹果对这些模型在理解用户意图及将用户的实际手机使用情况融入生成的响应方面的能力感到不满意。

能否经得起挑剔目光的审视,扛得住严苛场景的考验,苹果国行AI选择阿里或许是这个问题最好的回答,也是对Qwen实力最好的认证。

iPhone用上Qwen后,这些体验将被重塑

在手机行业迎来新一轮技术变革之际,OPPO首席产品官刘作虎早在去年OPPO AI战略发布会上做出了一个重要判断:「AI手机将是继功能机、智能机之后,手机行业的第三个重大的变革阶段。」

AI手机的发展描述为三个阶段,首先是应用级AI,让单个应用更智能;其次是系统级AI,将AI能力整合到操作系统层面;最终达到「AI即系统」的阶段,让AI成为手机交互的核心。

包括近期随着Deepseek的爆火,AI在手机领域的应用形态也越发清晰,手机厂商普遍采用「端云协同」的方案:轻量级任务由手机本地处理,复杂任务则转交云端。

Apple智能在去年WWDC大会后也展示了类似的分层架构:

本地模型:主要是经过微调的3B小模型,专用于摘要、润色等任务,经过适配器的加持后,能力不弱

私有云计算:本地模型满足不了要求的,会传到云端运算。苹果确保端到端加密,保障用户数据的安全和隐私

第三方LLM:用于泛用的知识问答聊天,如Siri等应用接入了ChatGPT等外部模型

如无意外,在与阿里的最新合作中,Qwen模型很可能以两种形式融入iPhone生态,其一就是本质上类似于插件的形态,以第三方LLM的身份提供全功能AI服务。

这种策略与苹果在海外市场接入ChatGPT的思路一致。但正如其与OpenAI的合作并非独家,未来可能会将Google Gemini或Claude等模型整合到海外iPhone中,国内市场同样可能引入更多本土国产AI模型。

其二则是与阿里合作部署开发蒸馏版小模型。与DeepSeek V3/R1专注于671B超大模型不同,Qwen走的是全方位路线,即便是声名鹊起的DeepSeek公司,在其6个开源蒸馏小模型中,也有4个选择基于Qwen构建,而这本身就是对阿里技术实力的最好背书。

插个题外话,尽管Deepseek曾发布超越OpenAI DALL·E 3的多模态模型Janus-Pro-7B,但DeepSeek在C端目前尚不支持多模态能力。而Qwen真就人无我有,人有我也不差,最新发布的Qwen 2.5 Max同样跻身最具竞争力的顶级多模态模型。

值得关注的是还有模型压缩技术的突破。2024年,中国厂商在AI模型优化方面取得了显著进展,通过最新量化和剪枝技术在保证输出质量的同时大大精简了参数规模。

比方说,据Canalys报道,小米的MiLM2将模型参数从60亿剪枝至40亿,而荣耀和vivo也分别将其模型参数从先前的70亿剪枝至30亿。而通义千问使用结构化剪枝同样将7B参数的模型压缩到2.2B,并保持相当的理解和生成能力。

在工具层面,苹果的Core ML Tools同样支持对模型权重进行量化,可以将默认的float 32精度降低至float 16、8位、7位,甚至1位,不仅能够大幅降低模型的存储空间和计算资源消耗,还能提高推理过程的稳定性和结果可靠性。

量化过程不会改变中间张量的精度,这些张量通常保持为float 32或float 16精度,并在运行时将权重去量化以匹配中间张量的精度,从而提高推理结果的准确性。

甚至早在去年,通过一系列优化技术,包括低比特位面化、激活量化、嵌入量化、高效的KV缓存更新以及使用Talaria工具进行延迟和功耗分析,苹果在iPhone 15 Pro上运行的3B模型实现了首个token仅需0.6毫秒的延迟,每秒可生成30个token,打造了流畅的体验。

当然,Apple智能的终极目标是打造一个真正的系统级AI助理。

模型是入场券,生态才是最终的王牌。阿里生态涵盖电商、支付、本地服务、文娱,与iPhone AI深度合作后,未来,用户可能只需通过简单的语音指令,就能无缝完成服务预订的全流程操作,甚至还有望撬动来自钉钉等企业端的资源,进一步拓展应用场景。

AI手机的竞争正在从单纯的技术比拼,转向生态整合和用户体验的比拼。厂商们需要在本地算力、云端能力和生态协同三个维度上共同发力,才能打造真正打动用户的AI手机。

从市场反应来看,这次合作也远超预期。而无论是DeepSeek的爆火,还是这次苹果与阿里的「联姻」,属实是应了那句话——真正的高手,宛如大江东去,看似平缓无声,却暗藏汹涌伟力。