夯实上汽智能车技术底座,零束科技一路走来,已经过了三年。
这三年来,零束科技快速聚集了1600多名汽车智能化高科技人才,实现了中央集中式电子架构、软件架构、智能车计算平台、智能驾驶、智能座舱等核心技术自主可控,并在智己、飞凡品牌车型中实现量产。
前段时间,上汽发布“新能源汽车发展三年行动计划”,表示要打造全新的“科技生命体”。“科技生命体”概括为三个概念:智慧的脑、敏捷的身、强劲的心。其中,“智慧的脑”这一重任落在了零束科技肩上。
“在全栈1.0智能车解决方案量产后,我们不断迭代更新,新一代 ‘中央计算+区域控制’的全栈3.0智能车解决方案将在2025年量产落地。”日前,零束科技CEO李君透露了上汽“智慧大脑”最新的发展情况。
生态域产品即将上线
走进零束科技“软件工厂”,记者坐进车里,体验了一下手机与汽车无缝连接的奇妙之旅。
将手机轻轻一甩,手机里的应用便快速流转到车机里,用户不用下载安装,就能在车机上使用手机里的App;在手机上将餐厅地址复制一下,手机就会自动传输指令给汽车,汽车开始自动导航;在车里开启小憩模式,手机就自动调整为静音模式,不会有烦人的信息通知或者电话铃声打扰……
去年,上汽集团和OPPO正式发布“车-机跨端融合解决方案——生态域”,这些功能就是基于生态域实现的。“今年六七月份,零束与OPPO合作的生态域产品将搭载在飞凡汽车上。”李君透露。也就是说,记者体验到的手机与汽车丝滑连接功能马上就能与消费者见面了。
“未来,智能汽车与智能手机将是互融互通的。当把底层打通后,手机和车机可以互相调用各自的硬件,还能实现算力互补、生态互补,这是未来的趋势。”李君表示,“零束和OPPO一直在开展这方面的合作。同时,我们还与很多开发者合作,比如把SOA开发者平台接口开放给手机开发者,让他们参与开发,打造出更多、更好的手机与汽车联动的场景体验。与此同时,零束科技希望通过产业联盟、行业协会,真正把汽车和手机互联的底层通讯技术、通讯协议打通,满足不同品牌手机用户的体验需求。”
全栈自研,一切回归用户
用户不用低头看导航图像,根据3D提示音的方向感,就能准确判断究竟该向左转还是向右转;左后方的视觉盲区有自行车向前驶过,声音就像从左后方“跑步”而来,让驾驶员在第一时间感受到风险从哪里来……
这就是近日零束科技助力飞凡打造的业内首个“智能声音”解决方案,它让声音有了方向、特征、距离和空间感,并且能够根据场景和需求进行灵活调节及切换,为用户带来沉浸式座舱体验。
“传统座舱音频架构无法自上而下打通应用层、交互层、控制层和硬件层,也无法打穿多媒体音效、车内外提示音、应用交互音、系统警示音等不同类别的声音。面对这一痛点,我们决定自研全栈音频架构。”体验现场,一名工作人员告诉记者。
“对于零束而言,并不是哪些功能‘火’,我们就扑上去做。一切都要回归用户体验的本质,把用户高频、刚需的痛点问题解决了,再去关注‘爽点’。比如,对于车机而言,最基本的要求就是不死机、不黑屏,操作流畅。”李君坦言,“正是因为全栈自研,我们自主掌握了芯片、操作系统、中间件的核心能力,才能支撑我们围绕用户体验,解决痛点。”
也正因为全栈自研,让上汽有了能力在硬件趋同的形势下,依靠软件打造品牌差异化。“我们也在不断探寻新的商业模式,并且从来没有放弃通过应用软件实现盈利的小梦想。”李君坦言。
据他介绍,在零束科技自研的车机操作系统中,用户可以自定义壁纸,它的付费模式已经形成商业闭环。其中获得的利润,零束与品牌、开发者一起分成,这个商业模式已经完全走通,并且已经在滚动。随着规模不断扩大和更多开发者进入,通过商业模式正向激励,让创作变得更有价值。“我们期待与用户共创共赢。”李君说。
新方案15万元车型就能用
面向2025年,零束科技已发布全栈3.0解决方案,将采用“中央大脑+区域控制”的策略,升级舱驾融合的高性能超算平台。
“智能座舱、智能驾驶这种叫法,是供给侧的思维。对于普通用户来说,不管是智舱还是智驾,需要的是端到端完整出行智能化体验,这也是我们打造舱驾一体融合计算平台的初衷。”李君说。
据介绍,全栈3.0解决方案将通过四大产品线,即智能车操作系统、智驾计算平台、智舱计算平台、舱驾融合计算平台,采用“分步走”的策略,分阶段实现代际解决方案量产。舱驾融合计算平台将率先搭载“高端纯电智能汽车品牌”智己品牌新款车型,计划在2025年量产。
“智能化不是智能设备的堆料,全栈3.0能够大幅提升计算效率,解决体验割裂的问题。同时,通过集成化的解决方案,能够大大降低成本。成本永远是技术创新非常重要的约束条件和边界条件。全新的方案可以将原来冗余的计算资源、感知资源、通讯资源、存储资源充分优化,给用户带来高性价比产品。”据李君透露,最新的全栈3.0解决方案,售价15万元的车型也能“用得起”。
除了全栈3.0,零束也在不断探寻新技术的应用。比如,ChatGPT大模型。“可以引入大模型这个‘社会大脑’,训练智能车边缘的‘小脑’。比如,在语音方面,现在用户自定义一个场景模式,还需要在汽车、手机上动手操作,将来只要动动嘴就可以设置并下载到车里。”李君举了个例子,“还有,在智能驾驶方面,每辆车都会产生原始数据(raw data),行业里也在探讨,能否把这些原始数据共享出来,并通过大模型更好地训练算法。”