归元S平台发布 魏牌V9X预售37.18万元起
来源:汽车商业评论(温莎)今天 09:48
春节前,湖北一个县城,一个车主在车里连续玩了17个小时游戏没有停过。腾讯云游戏生态合作负责人陈明明在台上讲出这个数据的时候,语气里带着自己也没预料到的意思。
2026年4月25日上午,北京望京凯悦酒店,华为鸿蒙座舱生态论坛。华为智能汽车解决方案BU CTO卞红林致辞,智能座舱领域总经理金永福发布HarmonySpace 6,爱奇艺、腾讯云游戏、支付宝、珞博智能四个生态伙伴依次登台。
这场论坛最值得注意的不是又发布了什么新系统,而是四个生态伙伴带来的付费数据——座舱开始有人花钱了,而且花得比手机上猛。

钱从哪里来
爱奇艺创新终端事业部总经理黄双喜带来一组数据:APP月活连续四个季度环比增长,季度均值环比增长率40%以上;播放渗透率高于车联网大盘8个百分点;会员收入连续五个季度增长,2026年Q1同比涨近300%。
腾讯云游戏的数字更反直觉。上线数月,座舱用户会员转化率是手机端约10倍,最高客单价1200元年卡,50%以上选择连续包月,退订率不到5%。
用户结构也出乎预期:90%以上座舱游戏用户已是腾讯游戏大盘用户,不需要教育;70%玩休闲游戏,日均30分钟;30%自带手柄玩重度游戏,日均60分钟。
支付宝智能座舱业务总经理钮一波不讲内容付费,讲的是交易闭环。他发布“支付宝车载助手”,语音调起停车助手全程自动缴费——“看似简单的功能,背后是我们已经把全国40多万收费的停车场数字化了”;通过小艺和小程序完成点咖啡等生活服务;免密扫脸和声纹支付授权。他的概括是“AI感知的终点是支付宝履约的起点”。
三组数据指向同一个事实:座舱不再是试用装,有人开始为它持续付费。
为什么收得到
黄双喜自己解释了爱奇艺数据背后的原因:“最重要的是我觉得鸿蒙座舱所搭载的车型和用户质量是非常高的。“用户质量是一个因素,但不是全部。
卞红林给了一个更根本的判断:“座舱生态不是简单的从手机生态、平板生态来说把这个应用搬到车上,屏幕适配一下,如果没有跟车相结合的话,就不会带来这么大的影响力和创新力。"
四个生态伙伴的实践在不同方向验证了这句话。
陈明明说他们要解决的核心问题是:“当用户在座舱里面想玩游戏的时候,为什么要去玩座舱上的游戏,为什么不掏出自己的手机?"答案是做手机上做不到的体验。
赛车游戏与线控方向盘结合,画面投射到HUD前挡风玻璃,“感受路跟赶路真的不一样”;Just Dance与车灯投影结合,投到墙壁或露营幕布,车机摄像头捕捉动作。方向盘、HUD、车灯、摄像头——全是车上才有的东西。
爱奇艺的“爱听频道”为驾驶员提供纯音频内容,支持方向盘控制,在鸿蒙座舱首发。黄双喜的逻辑很清楚:“座舱里有一个人‘驾驶员’是没有被照顾到的,驾驶的时候没法看视频,但听是自然需求。"

沉浸式影音走得更远——通过AI算法对内容做情节打点,联动座舱香氛系统和氛围灯。“如果画面呈现是一片美丽的草原,山上开满了鲜花,这时候你会同时闻到浓郁的杏花香味。”
“香氛系统是车的硬件,手机没有。定制皮肤让爱奇艺视觉界面匹配车企品牌调性——“能够让品牌的调性渗透在车里前景娱乐座舱的视觉界面上去”——这也是手机端不会做的事。
钮一波把座舱痛点归为四个:缺乏意图理解的办事能力、缺乏应用视角和使用数据、缺乏座舱化三方服务智能化、缺乏支付闭环。
他以高阶智驾中的停车和高速两个场景为例——智驾感知到停车场和收费站,恰好是支付宝深耕多年的服务场景。声纹是他强调的差异化能力——“车内情况都不一样,但声纹是非常有特征的”。智驾感知加支付闭环,这个链条只有在车里才成立。
共性浮出来了:转化率10倍于手机的前提,是做了手机做不到的事。
怎么让这件事成立
生态伙伴能跟车结合,前提是平台把车的能力开放出来。
卞红林给了两个数字做背景:10亿与5500万,前者是整个鸿蒙生态的设备池,后者是真正跑新系统的终端数量。他的定位很明确:“我们不可能做那么多事情,我们会坚守好自己的本分,做好平台,欢迎大家在这个平台上创新,找到自己的商业机会。"
金永福发布的HarmonySpace 6是这个平台的具体形态。
底座层先解决基本功:“车机首先不能死机、不能黑屏。“基于芯片级巡检和系统层修复,可靠性提升一倍。隐私做到四个层级:主驾隐私模式、多账号切换、一键除痕、超级隐私模式。
互联互通补了非鸿蒙手机的短板——超级桌面支持分屏,碰一碰流转扩展到非鸿蒙系手机。
交互层做了四年来最大改版。

2022年鸿蒙座舱首创类平板交互——大桌面、大壁纸、SmartDock,金永福说“整个行业好多人在按着这个方式学我们在做”。四年后他决定换路。
新交互核心是AI驱动的左侧SmartDock——检测到车内有人抽烟,推送空气净化卡片;根据通勤习惯,推送导航;根据听歌习惯,推送音乐。“整个交互逻辑是基于AI的感知、判断、推理来直接给你推出最合理的建议。”
AI架构升级为MoLA 2.0,金永福用“大脑-小脑”解释:千亿级System Agent是大脑,导航、车控、聊天三个垂域Agent是小脑。“有可能你聊天很强,但让它控车反而不行,一下变成了80分,车控水平发现是30分。MoLA 2.0要解决的就是偏科问题——‘什么样的任务发给谁’,我认为这是我们AI的核心能力。”
车控Agent加入记忆能力,导航端到端一次成功率提升30%。生态Agent开放三种接入方式:A2A协议、集成Agent能力的APP对接、GUI Agent操控小程序。
硬件端,发布了舱内AI多模态感知系统,融合800万像素RGB摄像头、200万像素红外摄像头和星闪传感器。类比舱外智驾:“自动驾驶是各种传感器在舱外做识别,舱内呢?原来只有一个耳朵,没有眼睛,更没有雷达。”
高精度星闪传感器能够完成在位监测、肢体动作识别及高清成像,可穿透座椅发现隐藏的儿童或宠物。应用场景包括儿童危险动作预警、座椅防夹、宠物和儿童遗留检测。舱内AI多模态感知系统(AMS)对生态伙伴的意义在于:身份识别能力接通之后,个性化推荐和支付授权才有硬件基础。
座舱生态产品总监冯修玉做收尾,宣布“鸿蒙座舱生态2.0”——把车速、挡位、停车状态、智驾状态等硬件能力开放给上层应用。他举了一个例子:QQ音乐正在做根据车速调节鼓点的功能,技术简单,但此前生态伙伴拿不到车速数据。能力不开放,创新就不会发生。
卞红林在致辞里指了方向:智驾越成熟,车内办公、娱乐、休息需求“未来会被放大”。这场论坛上已经能看到三条延伸线。
第一条是Agent化。爱奇艺宣布从APP+API转向APP+Agent,计划2026年第三季度推出长视频座舱Agent,支持自然语言搜索——“推荐这两年新出的大热的适合睡前观看的古装甜宠剧”——以及场景识别主动推荐。
腾讯展示了AI游戏生成平台,陈明明说未来要接入座舱大模型,“所有车主可以根据自己想要的东西去做,比如车里有一个6岁小孩,要做一款成语接龙,一句话就帮我生成”。

"
第二条是情绪价值。论坛彩蛋是AI陪伴机器人HAMOMO(“哈蒙蒙”),华为鸿蒙座舱与珞博智能共创。毛绒大脑袋,硅胶小手扒在屏幕上沿,磁吸挂载,三个配色:泡泡蓝、萌萌灰、暖暖粉。珞博CEO孙兆治说把原型挂到车上,“我们那些同学看,说这个小家伙偷感很强”。金永福给的定位:“如果小艺是一个捧哏,它就是个逗哏。”产品与鸿蒙车机信息互通:上车打招呼,听歌摇头晃脑,开车太猛会“晕车”,可以从车上取下带走。养成玩法包括独立世界观和性格、长期记忆、每天晚上写日记——用户可以“偷看”,前提是亲密度够高。
第三条是能力开放本身。冯修玉展示的车速调鼓点只是一个信号。车速、挡位、智驾状态这些数据一旦对生态伙伴可见,座舱应用跟车的结合方式就不再受限于华为自己的想象力。
陈明明讲了他们2023年入局时的迷茫——“大家都在问《王者荣耀》能不能上车……当时给我们的感觉好像游戏上车不是车主的需求,而是车企的需求。"
2024年两边团队在腾讯滨海大厦封闭沟通8小时后决定入局。两年过去,答案已经不是‘能不能上车’”,而是‘上了车怎么把手机比下去’”。
付费数据证明:把手机比下去了,就收到钱了。