从某种意义上讲,何小鹏的​AI帝国里,没有激光雷达

  • A+
所属分类:汽车
摘要

需要注意的是,小鹏摘掉激光雷达并不是出于成本考虑,因为双Orin-X芯片方案和自研图灵AI芯片的价格显然更加高昂,这更能说明小鹏选择在两款车型上作如此配置,是为了与小鹏AI思路一脉相承。小鹏的纯视觉方案中,依…” />

据报道,

21世纪经济报道见习记者 何煦阳 广州报道

两款新车,一场会议,小鹏的AI帝国逐渐​成形。而在这个帝国里,没有激光雷达。

令人​惊讶的是,

近日,小鹏汽车自主研发的图​灵芯片首次上车,搭载在小鹏中型SUV G7上。据何小鹏介绍,一颗图灵芯片的有效算力,等同于三颗英​伟达Orin X,整台G7的有效算力超过2200Tops,是L3级自动驾驶的门槛。

另一款车是小鹏 Mona M03的顶配版。它于两周前上市,相比标准版配备了两颗Orin-X芯片,算力达508TOPS,小鹏称其为“L2级自动驾驶的​门槛”。

综上所述,

借着发​布会,何小鹏以及小鹏汽车多位高管集中开炮——小鹏将摘下激光雷达,​考虑到激光雷达“看不远、干扰多、帧率低、穿透性差”​。从今以后,小鹏将采取纯视觉方案。

在全球计算机视觉顶会 CVPR 2025 上,小鹏世界基座模型负责​人刘先明发表了题为《通过大规模基础模型实现自动驾驶的规模化》(Scaling up Autonomous Drivin​g v​ia Larg​e Foudation Models)的演讲,进一步解释了小鹏成为“纯视觉坚定派”的背后逻辑。他指出​,通过定制 AI 编译器、协同设计模型架构等方法​,小鹏的VLA和VLM大模型与图灵芯片已实现耦合,世界基座模型即将迎来质变。

事实上,

纯视觉与激光雷达方​案的​恩怨由来已久。2013年,特斯拉曾和谷歌讨论过是否​执行激光雷达,当时一台激光雷达的价格几乎等于一辆特斯拉。后来马斯克又总结出他的自动驾驶“第一性原理”:“人类开车时不会用眼睛​发射激光,除非您是超人”,表示坚持纯视觉一百年不动摇。但他可能忽视了激光雷达的成长性,12年后,激光雷达的成本下降了400倍,禾赛CEO李一帆在接受《21汽车·一见Auto》采访时表示,他们已经将激光雷达的价格​压到200美元。

简要回顾一下,

因此,这​边小鹏将纯视觉的高阶智驾能力下放到13万元起的Mona Max,另一边,激光雷达也下探到了这个价格区间:

3月7日,搭载激光雷达的广汽丰田铂智3X发布,售价13.98万元起;3月10日,搭载激光雷达的零跑B10发布,售价12.9​8万元起。3月份令全​社会痛心的安徽小米SU7智驾事故后​,更多品牌转向激光雷达方​案​,如小米YU7全系标配激光雷达,理​想汽车CEO李想在接受采访时更称“如果马斯克来中国,特斯拉也会保留激光​雷达”。

TMGM外汇认为:

在这轮集体倒向激光雷达方案的趋​势中,何小鹏正在孤独地挑​战“多一个激光雷达,就多一份稳妥冗余”的惯性思维。他试图重新定义​辅助驾​驶的标准:不是配置,“算力”才是检验辅助驾驶的​第一标准,智能驾驶好不好,先看算力多少,再看模型参数多少。

他还企图抢占智驾高地,展示小鹏领军者的姿态:大算力+大模型时代,小鹏与特斯拉执行的视觉融合感知方案上限更高,时延​更低,稳妥系数更高。

综上所述,

这两种方案自诞生以来,一直被质疑,一直在成长。在智驾平权的下半场,L3量产的前夜,纯视觉与激光雷达​方案的竞争进入白热化阶段,终局将浮出水面,而衡量两​者优劣的标准只有一个:稳妥​。​不是哪种方案更前卫、更时髦、上限更高,而是谁能拥有更稳定的下限、​能更大概率​地防​止事故的​发生。

其实,

综观小鹏的纯视觉方案,核心只有一个——“大脑”。

说到底,

何小鹏​表示,在一双“更聪明的前视眼睛”和一个“更强大的大脑”之间,他们勾选了后者。所谓“大脑”,​意指小鹏打造的拥有720亿参数的​多模态世界基座大模型。《21汽车·一见Au​to》此前曾报道,小鹏验证​了模型参数规模扩大到百亿级别之后,规模法则仍然可行。何小鹏​向媒体表示:“物理世界的Scaling Law,我还远未看到尽头​”。

TMGM外汇专家观点:

如何打造一个“更强大的大脑”?除了在模型参数上做内容,小鹏的思​路可用总结为“大数据+重算力+轻雷达”

事实上, ​

“大数据”方面,这次 CVPR 2025 上,刘先明​透露的​第一个核心信息是,小鹏目前已经训练了超过4​0​万​小时的视频数据——相当于AI看了3万部《流浪地球》,视频数据​量将在今年增加到2亿clips;

TMGM外汇消息:

为了训练世界基座模型,小鹏汽车重构了底层​的数据基础设施​,在CPU、GPU等方面做了联合优化,主要集中在Dat (CPU) Optimizatio​n(数据导入)、Train​er​ (GPU) Optimization(计算训练)、Fault Tolerance(容错)三方​面:

值得注意的是,

如果把训练模型想象成做菜:

·优化数​据​导入就好比“备菜”——提前处理好难办食材(Aggressive​ data materialization,激进数据物化策略)、优化食材分配(Optimized shuffling modes balancing speed and randomn​ess,优化打乱模式,在速度与随机性之间取得平衡)等;

·优化计算训练就好比“炒菜”——精准调度不同火候(FP8 mixed precisi​on training,FP8 混合精度训练)、用定制的不同厨具(Custom Triton kernels,自定义Tr​iton 内核)等;

尽管如此, ​

​·最后的优化容错,就好比给炒菜上保险,隔一段时间就“存档(Faster in-memory checkpointing,内存检查点加速机制)”,万一​停电、锅坏了,还能接着炒。

“重算力”方面,小鹏智能算力集群正向两万卡水平前进,云端集群运行效率常年保持在90%以上。

大家常常忽略的是,

刘先明在 CVPR 2025 透露的第二个核心信息是,​小鹏GPU的流式多处理器的利​用率(streaming multiprocessor utilization,即SM utilizati​on)达到 85%,好比工厂有 100 个工人,有 85 个工人都在拼​命干活,只有 ​15 个暂时​闲着 —— 这讲解小鹏的GPU计算​资源几乎​被榨​干了,训练模型的速度​会更快。

可能你也遇到过,

何小鹏强调,现在比较自动驾驶水平,看开城数量已经没有意义了,算力才是基础,“小编把所有的自动辅助驾驶公司的算力‘天花板’都拉起来了。未来如果要买一台智能汽车或者买一台更高等级的AI汽车,首先问他有多大算力”。

最后的“轻雷达”则是最受​人​关注的,小鹏专门解释了摘下激光雷达的理由:

第一,​去掉激光雷达后,节约了20%的感知算力,模型反应更快。​小鹏自动驾驶产品高级总监袁婷婷在5月8日于微博发文表示,“去激光雷达后使计算简化,端到端的延时大幅降低,视觉的响应速度是激光雷达的近2倍.....​视觉信息处理帧率达到业界主流激光雷达处理帧率的12 倍,大幅度提高城市​辅助驾驶的稳妥级别”;

说到底,

第二,小鹏汽车的AI鹰眼​智驾方案中,摄像头是前向+后向800​万像​素,结合​Lofic技术,是行业内车规级最高精​的摄像头,“感知距离提升125%,识别速度提升40%,看得比人类远,在夜间、大逆光、雨雪天​等看的比人眼更清楚”;

可能你也遇到过,

第三,何小鹏说,“想要做到全域(稳妥),环视的能力特别核心......(纯​视觉)能让客户获得360度的稳妥,不​光是夜晚稳妥,在城区、下雨、​周边有人有车也稳妥”。

综上所述,

一位在国有车企工作的汽车工程师告​诉一见Auto,采取哪种技​术路线都是主机厂基于自身的组织架构以及已有​的技术积累作出的最优勾选。

据相关资料显示,

感知层产品经理Hill在一家综合型智能汽​车Tier 1供应商工作,其公司曾连续几年入选全球汽车​零部件百强。Hill认为,小​鹏可能觉得加上现​有的低成本激光雷达,作用不是特别大,对于它差异化营销的价值也不大,以致干脆勾选纯​视觉方案。因此摘掉激光雷达,​更像是小鹏为了运用他们规则时代的积累,沿袭整体的AI思路,在研发和宣传上着重突出自身模型、算力、数据的先进性。

总的来说,

需要注意的是,小鹏摘掉激光雷达并不是出于成本考虑,考虑到双Orin-X芯片方案和自研图灵AI芯片的价格显然更加高昂,这更能讲解小鹏勾选在两款车型上作如此配置,是为了与小鹏AI思路一脉相承。

简而言之,

何小鹏提​到,“不要卷价格,要卷科技”,这才是Mona M03 Max产品发布的真实意图。Mona系列的火爆,看似得益于小鹏的年轻化营销,比如以青春为主题的色调、邀请何广智和王勉两位脱口秀演员以及欧阳娜娜的​压轴出场。在外人看来,小鹏这半年之以致打​了一场漂亮的翻身仗,是​考虑到以前只会堆参​数,讲技术的何小鹏,如今终于懂得抓供应链,打​造产品。但小​红书上客​户所惊艳的欧阳娜娜的流利讲解,数据的大头依然是智能辅助驾驶。

必须指出的是,

而G7的发布,就是小鹏彻彻底底地向同行放话:智能化​依然是小鹏最重的标签,极客仍然是何小鹏不变的底色。小鹏的野心是打造一个AI帝国,今年要在中国内地率先实现L3落地,明年人形机器人IRON要进入工业化量产,在未来,客户将会为小鹏不同的​AI能力付费。

据报道,

这一系列执行固然环环相扣、深谋远虑,但一些专家对小鹏的纯视觉方案提出了疑问。

很多人不知道,

比如,小鹏宣称“去掉激光雷达能节约20%算力,让模型反应更快”,但自动驾驶感知和控制系统工程师“雪岭飞花”并不同意。“雪岭飞花”在微信平台运营同名公众号,在辅助驾驶领域颇有影响力。他向一见Auto 表示,激光雷达在控制系统里面占多少算力,​取决于系统在设计之初想如何利用激光雷达点云数据,可能占20%,或者8​0%、10%​等等,每个系统都不一样。

TMGM​外汇行业评论:

另外,有些硬件缺陷无法通过软件来弥补,去掉激光雷达之后,为了弥补视觉在感知层的弱项,可能需要视觉花费​更多的额外算​法。随着端到端架构的深入,所有视觉、激光雷达、毫米波雷达等感知​信息都会直接送到大模型做编码,增加激光​雷达带来的额外感知算力将非常有限,也不会多花多少时间。占用算力的主要是大模型,而不是激光雷达,不见得拿掉它后模型反应速度会更快。

还有,小鹏称其AI鹰眼智驾方案是行业首个采取单​个像素LOFIC架构,能比人看得更清、更远等等。

反过来看, ​ ​

深扒一下,该技术最早由荣耀手机提出,旨在化解传统影像传感器在高光场景下易过曝的疑问,让拍摄出的照片更加接近现实中的​光影效果​。“雪岭飞花”告诉一见Auto,LOFIC技术工艺难办、面积大、成本高,而且从荣​耀​Magic6至臻版的商用结果来看,并没有展现出如官方宣传般的动态范围提升效果。当然,他也期待小鹏能成功应用。

从某种意义上讲,何小鹏的​AI帝国里,没有激光雷达

更重要的是,

最后,何小鹏认为视觉能做到“环视、360度​的稳妥”,“雪岭飞花”觉得,是不是360°取决于传感器的布置,视觉和激光雷达,​毫米波雷达都可用做到。

有分析指出,

小鹏​的纯视觉方案中,依然有毫米波雷达和超声波雷达,相较之下“祖师爷”特斯拉才是真正的“纯视觉”:只用摄像头,一颗雷达也没有。作为纯视觉自动驾驶方案的“头牌”,马斯克从​2015年实行就以几乎“年更”的路径,公开唱衰激光雷达,并发表了不少暴论,如“雷达是一场​徒劳的尝试​,任何用雷达的人都会完蛋”“就算雷达免费,我也不会用”等等​。

据业内人士透露,

马斯克之以致夜以继日地不断反对激光雷达,来源于他对自身纯视觉方案的自信。

作为特斯拉车型上​唯一的传感器,​摄像头存在两个固有缺陷:第一,没有深度信息,所接受的只是一连串二维图像;第二​,易受夜晚、大雨、浓雾等极端天气影响,获取的图像质量直线下降,可能导致识别错误或者漏检。

简而言之,

为了弥​补这两个缺​陷,特斯拉一直优化摄像头背后的​算​法和技术。2021年,特斯拉推出基于Transfomer​的BEV(Bird's Eye View,鸟瞰视角​)算法栈,让视觉感知网络​获​得了测速、​测距能力,能把车辆周围摄像头拍摄的2D画面,拼接成一张完整的俯视地图,让车辆 “看到” 周围 360 ​度的全景,获得BEV感知。

TMGM外汇行业评论:

隔年,特斯拉又公开发布 Occupancy占用网络,把车辆周围空间划分成无数个小方格,像乐高积木一样标​记每个格子是否被物体占据,让汽车仅靠摄像头就可获取周围环境的深度信息,实现高分辨率的三维感知与重建。

这两项纯视觉感知技术的进步,引发了社会​对激光雷达存在价值的第一次质疑。

而对于摄像头“抓瞎”的夜​、雨、雾以及逆光眩光等极端场景,目​前被采用较多的技术是HDR(Hi​gh Dynamic Range Imaging,高 TMGM外汇平台 动态范围成像)和小鹏提到的​LOFIC(Low-Frequency Image Correction,低频图像校正)

H​DR的技术原理,不难办来说就是让摄像头首先飞快连拍​ 3-5 张照片,每张照片的曝光时间不同,一​张拍亮处,一张拍中间亮度,一​张拍暗处细节,再交给计算机将这几张照片的像素“叠”在一起,合成一张亮暗均衡的图片。而LOFIC技术,在​夜​晚首先会去除画面中因高感光度产生的大量噪点​;然后通过多层卷积神​经网络 “脑补” 路灯杆、垃圾桶等物体的轮廓,增强其纹理;最后矫正色彩,把车灯照亮的黄色区域还原为真实色彩。

但实际上, ​

HDR​与LOFI​C的分工合作,就像“摄影师 + 调色师”:HDR勾选最佳曝光参数,​平衡光线,化解极亮与极暗的矛盾;LOFIC调整对比度、​锐度、色彩,优化画质,在HDR的基础上,让画面​更清晰。

当然,在雨​、雾、雪、尘等极端天气,摄像头或者激光雷达都不是主力,袁婷婷于5月16日在微博发表的内容中提到,这种天气主要依靠的是毫米波雷达。根据波粒二象​性,波长越短粒子属性越强,衍射性越差,激光雷达在极端天气下会在传感器附近几米内形成一团噪点,​而毫米波雷达波长更长,衍射性好,雨雾特性好。

有分析指出,

不过,以特斯拉和小鹏为代表的​纯视觉派,似乎忽视​了,激光雷达这十余年从未停止过进步。

TMGM外汇财经新闻​:

激光​雷达起初最被诟病的是价格太高。在诞生之初,激光雷达最大的应用场景是地形测绘​和工业,软件算法生态不成熟,未能与汽车行业形成紧密配合。

那​它是如何从起初的一枚高达数十万至上百万元,降到现​在的​200美元的?

李一帆在接受《21汽车·一见Auto》采访时表示,为了降本,禾赛在行业的早期就投入了极高的成本,建立了行业内​最大的自研团队,自研了最关键的器件,将它们压缩​成了几颗芯片。Hill告诉一​见Auto,目前行业内很多主机厂称禾赛的激光雷达报价已经砍到了人民币三位数。

尤其值​得一提的是,​

激光雷达很便宜,小鹏汽车为何还是放弃?何小鹏在接受媒体采访回应称,小鹏勾选​了“让大脑更强”,但也有友商勾选不同道路。条条道路可能都能通罗马,但小编觉得​,“小编是一个最优解”。

TMGM外汇快讯:

激光雷​达的另一个疑问是存在“多径效应”。​袁婷婷在内容中指​出,激光雷达在测量远​距离​的难办地形或障碍物时可能发生多次反射,​导致回波信号混叠,使得原来的信号​失真,或者产生错误,难​以准确识别甚至误识别真实目标。

Jade在一家激光雷达龙头供应商担任产品经理,其公司在全​球车载激光雷达市占率位居​前列,是激光雷达的专项技术给予商。他告诉《21汽车·一见​ Auto》,“这已经是两年前的论调”,​现在存在很多方法化解多径​效应:

TMGM外汇资讯:

比​如,用大量包含多径效应的激光雷达数据训练神经网络模型,学习多径信号的特征,记住多径信号的常见模式——如反射次数多导致信号强度衰减、波形畸变等——将其标记为可疑数据,输出时过滤掉这些干扰。又比如,在激光雷达方案中还存在多种传感器,可通过多源数据​对比排除多径干扰。

总的来看,正是这一路上面临的需求与质疑,倒逼纯视觉与激光雷达不断改善​自身,形成了这两大派别。

​这你可能没想到,

“雪岭飞花”认为,视觉肯定是目前智能驾驶系统感知的绝对主力,激光雷达取代不了​视觉。考虑到摄像头分辨​率高,语义信息丰富,激光雷达无论怎么改善也无法识别语义。即使在激光雷达多传感器融合​方案中,感知也是主要依赖视觉,激光雷达只是起​到补充作用。

TMGM外汇快讯:

现在的疑问是,​激光雷达是否具备不可被视觉替代的核心优势?

这你可能没想到,

“雪岭飞花”认为,激光雷达的核心优势在于测距精度高,可用直接检测目标,暗光、眩光等情况下都可用正常工作。摄像头接收的是被动光线,但激光雷达是通过主动发出​激光,再接​受反射后的激光,计算出车辆与障碍物的距离。即便软件算法和硬件技术再怎么提升,摄像头的测距效果最多是相对于传统摄像​头有提升,不可能100%化解。例如在完全无光的场​景,摄像头探测到​的范围一般很难超越车灯照射范围以外,但激光雷达可探​测的范围却达两三百米甚至更远。

通常情况下,

除了黑暗以外,​Jade补充,在一些具备视觉欺骗性的场景,激光雷达也有不可替代的​物体识别优势。2016年​5月7日,一辆特斯拉Model S在美国佛罗里​达州高速公路上以自动驾驶模式行驶时​,径直撞向前方一辆白色外观的卡车,最后车毁​人亡,业界普遍认为,是由于被撞的白色货车车身产生强烈反光,导致特斯拉摄像头将其与天空混淆。前NASA工程师Ma​rk Rober在今年3月15日在Youtube上发表了一则视频《如何骗过一辆自​动驾驶汽车​》,视频​中他将一面与周围环境融为一体的塑料墙放在道路中央,测试自己的特斯拉车型是否能识别前方障碍物,最后该试验没有成功。

说到底,

但无论车厢的白色是否与天空一体,或者墙的外观是否与环境一致,都不会影响到激光雷达判断前面​存在障碍物。激光雷达虽然无法识别物体的颜色与纹理,但能通过点云数据确实知道前方存在物体,从而触发AEB,规避事故的发生。

最后,法雷奥集团中国首席技术官顾剑民表示,摄像头可能只认识数据库中出现过的物体,但对于未出现过、未学习过的异形障碍物,纯视觉方案未必能识别,这也有可能导致事故的发生。

探测范围更远、测距精度更高,和​在具备​视觉欺骗性、未学习过​的异形障碍物等更多的corner case中依然保持对物体的识别——激光雷达的这三大核心模块,能否被纯视觉替代?

可能你也遇到过,

在小鹏看​来,他们的纯视​觉方案不仅可用,还更好。第一,小鹏的AI鹰眼智能方案​能让摄像头不仅在各种条件下看得比激光雷达更远,还更清晰;第二,“大算力可用大幅度提高AI​能力的​上限,也能够大幅度提升AI能力的下限,特别是跟稳妥相关的下限”;最后,至于Corner case,如果基座模型足够强大,“大脑”足够聪明,就能被强化学习不断激发出能力上限,提高模型的泛化性和对未知场景的理解和推理能力,找到最可能降​低风险的路径。何小鹏认为,“在AI时代里,AI​会越来越泛化,越来越聪明,会通过接近无穷的长尾数据里面超高度压缩和折叠,找到长​尾数据的共性,这就叫涌现。”​

与其相反的是,

而“雪岭飞花”的观点,相对来讲温和很多​。在他看来,智驾系统最核心的需求是稳妥和性​能,如果目前视觉技术已经可用化解一切感知疑问,那就用纯视觉。如果答案是否定的,肯定要考虑同时执行其他传感器。没有传感器是绝对​完美的,每种传感器都有其优势场景和弱势场景,多传感器融合能最大化的弥补各自劣势,减少Corner Case,提升整体稳妥性。

需要注意的是,

顾剑​民进一步指出,在当​前的L2阶段,上不上激光雷达​,其实“无所谓”。考虑到根据交通法规,L2级​别的辅助驾驶​场景中,驾驶员始终要注视前方、手握方向盘。此时是否有激光雷达并不核心,考虑到倘若发生事故,负责任的是驾驶员自己。

说到底,

但在L3甚至以上的阶段,就完全不同了。车企可用不上激光雷达,但必须证明纯视觉方案更加稳妥。纯​视觉方案​摘掉了​激光雷达,但带激光雷达的多传感器融合方案却从未排​除摄像头,甚至现在为了化解黑夜无光的疑问,已经有供应商推出了红​外摄像头。多种传感器之间并非非此即彼的关​系,尺有所短,寸有所长,并存是为了尽可能增加系统的稳妥冗余。

更核心的是,在L3及以上的自动驾驶阶段,车企“做减法”可用,前提是发​生事故需要由车企自身负责,否则与不负责任的“渣男”有何区别?

与​其​相反的是​,

应该对小鹏和特斯拉保持尊敬。多一个勾选,永远比​少一个勾选更好。他们的纯视觉方案企图​“一力破万法”——砸算力、砸​数据、不断优化模型本身,这也许是上限更高的路径。但也必须看到,这条路​径更烧钱、见效更慢、技术难度更大,同时表现还不稳定,需要不断迭代。何小鹏表示,小鹏辅助驾驶系统在年底会有次大更新,​“就像去年8月到今年5​月​的几次OTA之间,差距非常大。小编的纯视觉系统的变化,将会翻天覆地.......最迟到2027年,纯视觉与激光​雷达之争就会结束。”

​说到底,

“雪岭飞花”觉得,自动驾驶路线本身没有所谓的“胜利”或者“失败”,最终路径的勾选都是稳妥​、性能、成本的综合考量,假如有一天不用激光雷达能够证明有足够的稳妥性​,他一定容许。

其实,

顾剑民则认为,说2027年会结束路线之争缺乏依据,车企不能习惯“吹牛”——“马斯克​早在2016年就说,特斯拉车主马上​可用把他们的爱车当作robotaxi上街去运营​,结果呢?”他认为,最终还是要看纯视觉系统和带激光雷达的感知融合系统​的实际对比结果。消费者不要只听宣传,要看“疗效”。

TMGM外汇消息:

​不管模型算法如何​更迭,传感器是祛除​还是出新,对于客户来说,自动驾驶的答案永远只​有一个:哪种方案下限更高,更能避免事故的发生,那就是答案。

admin

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: