本文来自微信公众号:极客公园 (ID:geekpark),作者:曹思颀,编辑:靖宇,原文标题:《20+ 车企接入 DeepSeek,为啥没有“蔚小理华米特”?》,题图来源:AI生成
DeepSeek成为了蛇年开年最火的事物,连家里的爸妈甚至爷爷奶奶,都在过年的饭桌上叫我给他们讲讲AI是怎么回事。
由于同时具备强大的推理能力及开源模型两个特质,导致几乎所有科技公司都在研究怎样和DeepSeek“深度融合”一下。华为、腾讯、百度、字节等互联网巨头,尽管都有各自自研的模型,但不妨碍纷纷第一时间在自己的云服务器里接入DeepSeek,一群因为“服务器繁忙,请稍后再试”的用户得以曲线救国,云服务商得以也接住了泼天流量。
芯片、金融、电信等行业的头部玩家也因为相似的逻辑接入了模型。毕竟大家都希望体验一下R1模型的最强大脑。不管在业务层面起到了多大的帮助,大部分公司的股价至少都涨了。
不过有一个行业稍显例外,那就是汽车行业的主机厂们。
截至2月13日,已经有包括比亚迪、吉利、东风、长城、极氪、智己等超过20家车企宣布完成和DeepSeek的深度融合。不过,新势力里的蔚小理华米,以及特斯拉均没有宣布和DeepSeek的相关融合信息。
大模型上车,现阶段最大的问题,是还没有展示出足够好的场景。相反,在一些主机厂的微博评论区里,车主更在意一些已有的功能能否及时通过OTA得到优化。
可以看出,技术并不是用户最在意的点,用户真正在意的是产品体验。如何用更好的模型获得更智能化的体验,才是用户真正在意的。相反,如果现阶段不能达到更智能的体验,那么用户更在意的是这车好不好开,内饰舒不舒服,还有便宜不便宜。
用户想得到的是一辆“更智能的车”,但并不代表他们要在车上用车机写出一篇高考满分作文。
车企排队接入DeepSeek?“如来”
在目前各主机厂释出的有限信息里,DeepSeek上车后,智能座舱中的人机交互,有望成为第一个深度融合的典型场景。
智己、吉利发布的两条视频里,展示了3个和智能座舱有关的使用场景,分别是:
场景1:激活座舱模型,调用DeepSeek进行文本生成,如案例演示中“生成一篇文章庆祝亚冬会金牌诞生”。
智能座舱通过DeepSeek进行文本生成|图片来源:视频截图
在这个场景中,座舱通过接入DeepSeek的API,把DeepSeek“好文笔”搬上了车。和绝大多数人习惯在手机、电脑端操作略有不同的点在于添加了语音作为新的交互方式。
场景2:提问在某段里程中遇到的一个湖叫什么名字。DeepSeek通过调用车辆行程记录、地图等信息,推理给出了相应答案。
通过DeepSeek推理回答车主问题|图片来源:视频截图
在这个场景中,通过接入DeepSeek,把车机内储存的端侧信息(行程记录、地图)作为推理语料提供给了模型,由此可以得到更个人向的推理问答。
场景3:直接对车机表达“我累了,一会叫我”的模糊指令,车机识别后分别调整了车窗、座椅、空调、氛围灯、闹钟的硬件或功能,生成了一个休闲场景。
通过DeepSeek实现模糊语义识别及相关车控操作|图片来源:视频截图
和手机里的DeepSeek应用不同,接入车机后,最显著的不同在于模型可以调用车端信息作为推理语料,为车主提供更个性化的服务。
不过,这些推理要消耗多少运算资源、需要怎样的硬件支撑、以及是否需要联网服务,目前主机厂还没有释出太明确的信息。
更聪明的智能语音,未必是真PMF
DeepSeek有希望让车内的智能语音变得更聪明,更能理解用户的各种模糊指令。不过,这真的此刻主机厂和用户最紧迫的真实需求吗?
从企业端来说,目前积极接入DeepSeek主要分为三类,分别是:芯片、云服务和终端硬件厂商(手机+智能汽车)。
对于芯片厂商而言,由于DeepSeek是基于英伟达芯片进行推理的,而不同芯片间架构不同,所以其他厂商必须进行软件和算法层面的适配,才能兼容DeepSeek的模型训练和推理。换句话说,芯片商参与到这轮DeepSeek热里,是出于用户最真实且紧迫的需求,这是保住和扩大市场必须要做的一个关键动作。
云服务商的积极接入,也有类似的逻辑。对于C端用户而言,在频繁遭遇“服务器繁忙,请稍后再试”的提示时,云服务商的出现提供了新的入口,接住了这次泼天的流量,让人多普通消费者认识了自己;对于B端用户如开发者和企业用户而言,在云上部署DeepSeek,可以降低企业使用模型的门槛,提供更好的开发体验。
因此,在这轮DeepSeek热潮里,包括华为云、腾讯云、阿里云、百度云、火山引擎等主力玩家,都先后对DeepSeek进行了云端部署——哪怕这些云厂商背后的科技公司都有自己独立研发的模型,但用户要用DeepSeek,他们就要接入这个开源模型。
“不堪重负”的DeepSeek服务器|来源:网络截图
但到了硬件领域,对终端厂商和用户来说,此刻在产品完成对端侧DeepSeek的部署,既有难度,也不是优先级最高的需求。
首先,目前的端侧计算资源并不支持“满血版”DeepSeek的本地化部署。不同于云端服务器,如果要在个人设备上部署671B参数模型的R1模型,需要将近1300G的显存,远超PC、手机、汽车的端侧计算资源。如果退而求其次,用7B或10B的蒸馏模型,其推理能力又和满血版有显著差别。
所以,如果把DeepSeek模型接入车机,但实质只是多了一个语音入口,对用户来说,为什么非要在车上使用DeepSeek而不是打开手机或电脑上的应用呢?
对于智能汽车用户而言,相比车机是否可以解答一道数学题或者写出一篇好作文,显然更在意它是否能发挥好“助理”的角色。这才是真正的需求。例如,手机微信里接收到的地图甚至大众点评的餐厅位置信息,是否可以一键流转到车机导航,并显示在HUD导航里。这是减少车机端操作,提升体验的一个具体场景。
而要执行这类任务,需要的核心能力并不在于DeepSeek所擅长的“推理”,而是打通不同设备间接口的工程能力。目前,包括鸿蒙智行、小米、蔚来等拥有多端设备的企业实际已经具备了类似功能。这大概也是为什么华为云宣布和DeepSeek融合,但鸿蒙智行旗下车企却暂时没有相关发声的原因。
其实,无论是手机还是汽车用户,大家真正期待的是将AI的“大脑”和硬件的“身体”结合起来后的智能化体验,也就是OpenAI定义的人工智能阶段里,从L2(推理者)到L3(Agent)的提升。但在产品层面,这并不单单取决于某个模型的能力,还和硬件层面的产品定义、接口、功能开发都息息相关。
除了座舱,DeepSeek还能为车企做点啥?
在产品层面之外,在近年角逐越来越激烈的智能驾驶层面,DeepSeek能为车圈提供什么帮助吗?
要回答这个问题,首先我们得知道目前智能驾驶开发层面最大的问题是什么?
一句话概括,就是:目前智驾系统还搞不定复杂的城区路况,接管次数频繁,使用体验不佳。
接管次数多的原因除了一些难以预测的安全情况,如行人横穿、车辆加塞、电瓶车逆行等,还包括系统对一些特殊交通规则的识别和判断,比较典型的场景包括:一线城市的潮汐车道、公交车道;不同城市左转、掉头车道设计思路不同(有些在最左侧,有些在最右侧);以及临时施工或管制时的各种电子屏幕信息。
这些烧脑的交通变化,别说是智驾系统了,就算是人类司机,当第一次遇上这些情况,也得打起100%的专注度才不会走错道。
理想汽车的CEO李想去年年中有个著名的演讲,把人类驾驶者的大脑分为系统1和系统2,系统1负责以低能耗的方式处理直觉类工作,而系统2则负责在复杂情况中进行推理,处理各种Corner Case。
而以推理见长的语言模型DeepSeek-R1,从原理来说是有望提升“系统2”的能力的。例如,更精准识别和理解不同交通标识(公交车道、潮汐车道),从而做出更好的驾驶判断。并且,DeepSeek-R1提高了模型的训练效率和推理能力,也有望优化车端的推理速度,在算力有限的端侧也达到更好的智驾能力。
智驾开发的另一个难度,体现在数据采集侧。不同于语言大模型可以直接利用海量的数字文本资源进行训练,智驾往往需要先在真实物理世界中采集数据,才能进行训练。
由于引入了MoE(混合专家架构)、MLA(多头潜在注意力机制)等技术,DeepSeek本身降低了对数据标注的需求,因此可以帮助智驾企业进行数据挖掘和生成,降低数采和标注的成本。
而在另一个层面,DeepSeek的多模态模型(非R1)可以模拟生成一些难以采集的场景数据,如极端路线、罕见交通标识等。而通过仿真数据进行智能驾驶的训练或验证,也是包括华为、蔚来等多家车企进行智驾模型训练的重要工作之一。
以上这些工作,虽然不像云服务商接入DeepSeek,可以直接解决用户访问主站时转圈圈的燃眉之急,但对车企而言同样重要。毕竟比亚迪已经喊出了“全民智驾”的口号,智驾毫无疑问将成为2025年竞争的重点。在同价位段车型里提供更好的智能化功能,将成为消费者选择决策中新的重要考量因素。
当然,正如前文所言,一辆智能汽车各项功能的发挥,不仅只仰仗于某些单一技术的突破,车端其他硬件层面的优化(如更大算力的智驾芯片)以及模型侧其他能力的优化,将共同决定我们何时达到L3级别的智驾智舱能力。
DeepSeek在智能化浪潮里,给了所有创新者一个小成本高性能的样本,但不是一套可以照抄的答案,未来的汽车产品应该走向何方,还需要真正懂产品懂AI的人来“深度求索”。