2025泰达论坛【智能化新升级】丨黑芝麻王治中:全“芯” 构建全场景智能新生态

日期:2025-09-14 17:19:32

来源:中国汽车趋势网

访问量:5707

由中国汽车技术研究中心有限公司、中国汽车工程学会、中国汽车工业协会、中国汽车报社联合主办,天津经济技术开发区管理委员会特别支持,日本汽车工业协会、德国汽车工业协会、中国汽车动力电池产业创新联盟、新能源汽车国家大数据联盟、中国人工智能产业发展联盟、欧洲汽车工业协会联合协办的第二十一届中国汽车产业发展(泰达)国际论坛(以下称“泰达汽车论坛”)于2025年9月11日至9月14日在天津市滨海新区举办。本届泰达汽车论坛围绕“增动能 启新篇 向全球”的年度主题,邀请重磅嘉宾展开深入研讨。

在9月14日“智能化新升级专题论坛三:政策法规与关键技术创新协同引领智能化跃迁”中,黑芝麻智能高级产品市场总监王治中发表题为“全‘芯’构建全场景智能新生态”的演讲。

以下为演讲实录:尊敬的各位领导、同仁,大家上午好!我是来自黑芝麻智能的王治中,主要负责一些产品市场方面的工作。

今天我汇报的主要方向和题目是“全‘芯’构建全场景智能新生态”,为什么今天选择这样一个方向,因为黑芝麻智能本身是一家芯片公司,是一家智能计算芯片公司,只不过我们一开始针对的应用方向是车载辅助驾驶的应用。目前我们也在看,除了辅助驾驶之外,我们怎么能够基于自身的产品实力以及自身技术把应用场景更泛化,这也是今天带来全场景智能新生态的分享专题。

不管从黑芝麻智能本身来讲,还是很多同仁来讲,大家的思路都一样,怎么样依靠市场的预判和引领指导自己产品的实际方向。最开始我们整体应用方向是车载应用、智能辅助驾驶首发,但后面我们一直在看市场后续的发展趋势,尤其现在AI技术不断的发展,我们看到很多端侧迎来AI大爆发的趋势,对比之前我们看移动互联网时代端侧智能终端的需求,大概是之前需求10倍以上,所以增长的速度特别快。这更加坚定了我们信心,会继续在所谓的端侧智能计算上持续发力,把我们应用场景不断的做扩展和泛化。

只不过目前来看,针对端侧智能应用来看,车载的辅助驾驶功能,第一对算力的要求比较高,第二对落地场景是比较现实和实际的。我们在之前辅助驾驶领域做了很多的调研和研究,尤其针对目前比较高阶的辅助驾驶功能,比如高速以及城市领航的辅助功能,大家可以重点看一下L2+这个区间,其实对于高速也好,对于城市领航辅助驾驶也好,比较明显的可以看到两个趋势:

第一,相对比较高阶的辅助驾驶功能,它的装配率在迅速的提升,2024年的装配率比2023年的装配率提升1倍还多,这是第一个明显的特点。

第二,高阶的辅助驾驶功能正在逐步的往中阶,甚至低阶的主流车型上适配。所以我们也很坚信未来普及型的能够被大众所广泛接受的车辆上,越来越高阶的辅助驾驶功能会逐步的被引入。

后续辅助驾驶的功能要求越来越高,对于芯片整个算力的需求在什么样的趋势?我们归纳了几个比较主流或者大家都认同的应用方向,所谓的通勤领航辅助驾驶,它覆盖的场景应用范围以高速为主,在加上大家日常开的高频的通勤路线,这样场景应用范围之下对于算力的需求一般是50-100TOPS的算力范围。

再往上发展,针对覆盖城市主干道以及城市毛细道路城区领航辅助驾驶,算力需求大概在300-500TOPS。上升到Robotaxi,一方面要具备高速能力,第二方面需要无人场景,第三方面需要车路云数据的融合计算考虑到安全相关的要求,这里还要预留一些算力的冗余在里面。对于更高阶的辅助驾驶应用来看,算力需求我们认为至少在1000-2000TOPS的算力范围。

随着应用的发展和客户需求的发展,随着算力的发展,对于芯片设计和芯片制造本身提出越来越高的要求。后面对于芯片来讲究竟怎么发展自己的技术去支撑这些行业和应用带来的要求,向大家汇报一下,我们根据不同的行业阶段,作为芯片设计公司我们应该最主要发力的方向。

在摩尔定律时代,那个时代说实话对于算力计算芯片公司来讲,还不像现在那么焦虑,因为当时摩尔定律时代,一方面当时发展比较快,遵循摩尔定律每隔一个固定的时间段,单位面积上集成晶体管数量越多,意味着芯片可以以一个预期的节奏不断的向前迭代发展提升自己的算力。第二方面当时的阶段各种应用算法发展的速度还没有那么迅猛,不像现在这么迅猛,当时的摩尔定律时代其实是硬件性能引领行业趋势,而且可预期的发展。

后面随着整个算法迭代速度不断加快,从原来传统的模式识别、机器视觉到各种模型,而且在每一个时间段之内都会出现1-2个被业界所认同和接受主流的算法模型,在规模定律时代对于芯片来讲,一方面主要提供自己的算力,第二方面针对这个阶段业界所认同的算法模型做优化,这是第二阶段属于芯片和算法共同提升性能的阶段。

到现在,大家都知道算法相当于智慧,芯片相当于大脑,其实算法可以一直往后更新迭代,但对于芯片来讲,尤其对于端侧芯片来讲,一方面我们现在工艺制程发展速度不像之前更新迭代的速度那么快,所以这个节奏本身从工艺制成上不像之前那么快。另外一方面考虑到端侧部署,有很多安装空间的限制,芯片不可能做的无限的扩大。第二方面还要考虑到成本、功耗问题,再往后芯片去发展和迭代,需要支撑更复杂的算法和应用。

我们另外一个重点发展方向就要考虑到计算的效率,对比计算规模本身,我们要更好的支持计算效率在现有制成和现有的面积下怎么提升算法部署的效率,去提升整个性能和应用的上限,这是我们后面重点要做的另一方面的事。

沿着刚才的思路,黑芝麻智能本身在推出每个节点芯片的节奏,也是按照刚才的思路一步一步做的。黑芝麻是2016年成立的,在2020年的时候我们推出本土首款车规级的高算力辅助驾驶芯片,2020年那个时间段,那个工艺制成下是相对比较高的算力,相当于取得了本土算力规模的突破。

后面在2023年针对电子电气架构发展的趋势,比如从域到域融合、多域融合、到跨域融合的趋势下,黑芝麻推出当时全球首款车规级的跨域融合芯片,这相当于在电子电气架构应用上取得了另外的突破。今年年初的时候我们发布了A2000系列的芯片,重点关注计算效率点,在整个神经网络加速器里设计了很多业界比较领先的机制,目的就是为了怎么样提升后面整个计算效率。

A1000这代芯片在当时的时间点,其实取得了相当不错的成绩,比如在中国自主传统乘用车品牌里,针对领航辅助驾驶一体域控功能,我们当时市场排位置第三位,而且维持了相当长的生命周期,一直到今年在A1000系列上我们还拿到了新的车型定点。

A2000系列芯片,当时设计的时候考虑整个系统的需求、行业应用的需求以及算力算法的需求。第一是安全性,我们在NPU里加入了支持冗余校验的机制,比如传统辅助驾驶应用里从算法层面说,从感知到融合、规划、控制,可能有不同的团队开发不同的算法模块,感知部分可能要模型加上后处理。在比较传统的算法,在当时的时代,其中一部分只需要感知的模型需要NPU去跑。如果感知模型的结果出了问题,我还可以通过后处理算法做补救。

所以当时对于NPU本身功能安全的要求相对没有那么高,现在随着辅助驾驶算法的不断演进,大家都在讲端到端,尤其一段式的端到端,从感知到最后决策所有的计算,全要通过神经网络模型实现,神经网络就需要在NPU里去做。

如果NPU中间计算过程出现问题,其实影响直接是决策结果,这也是为什么我们在芯片里在NPU里加入支持冗余校验的功能。

为了提升计算效率,我们当时还设计了很多机制,比如存算一体的架构,目的为了降低数据在芯片以及在外部存储器之间搬运的次数,来提升整个计算效率。

这一页是A2000和业界领先旗舰级芯片计算效率的比较,蓝色部分是A2000在不同的算法模型下运行至对应的帧率。红色、浅蓝色、黄色都是来自一家海外芯片公司,红色是他们上一代的旗舰产品,浅蓝色是最新一代的旗舰级产品,当然他们本身也在基于自己的产品做一些算力的优化,色部分经过优化,算力提升约50%。即使这样,A2000整个计算效率仍然是领先的。回到安全性的问题,就是所谓的供应链安全。整个业界需要这些算力和能力的时候,黑芝麻可以去补充所谓的国产供应链的安全。

另外整个人类思考的快慢系统其实已经被搬上车在辅助驾驶应用了,基于端到端的快思考,基于人类直觉瞬时反应的驾驶或者算法可以覆盖绝大多数应用场景。另外基于视觉语言模型慢思考系统,类似于人类需要思考之后做一些路况的决策。只不过这种快慢思考系统上车以后,对于整个驾乘体验提升特别好,但传统的方案里需要多芯片实现。A2000本身也可以通过自己高计算效率以及多核异构的形式,帮助客户把快慢思考系统融合到一个芯片里。

所以A2000后续的应用方向,除了传统的辅助驾驶之外还会扩展到另外两个方向:

第一,相对比较高阶的机器人应用。

第二,通用端侧的推理市场。

再往后对于车载应用的下一代机器人,这个数据大家都理解,整个行业的趋势大家的关注度怎么样。但是我们业界的同事肯定都清楚,不管哪个行业重点还是要找到落地方向,从具体的应用帮助人的角度谈这个事才会有真正的市场落地。

所以黑芝麻本身也会持续关注这个方向,按照落地场景和对于智慧能力、分析能力做不同的区分。从黑芝麻智能本身的产品来讲,我们会重点关注在下面两个区域,相对来讲对于环境的要求比较高,对于智慧能力、管理能力和处理的关键任务比较复杂的时候,我们重点关注这两个应用。

最后和大家汇报一下,黑芝麻目前的产品不管是A2000也好,A1000也好,都可以单芯片解决大小脑融合问题,针对不同大脑需求AI感知能力,A1000应对日常场景,A2000应对复杂的场景。

今天的汇报内容到这里,感谢大家!

热门文章

关注一下,了解更多活动内容

微信公众号

总编微博