
(来源:机器之心)
一、自动驾驶的瓶颈:「看」得见,却「想」不明白
当今自动驾驶模型越来越强大,摄像头、雷达、Transformer 网络一齐上阵,似乎什么都「看得见」。但真正的挑战在于:模型能否像人一样「想明白」为什么要这么开?
传统的端到端(E2E)系统虽然能从感知到控制一气呵成,却常在「长尾场景」翻车 —— 比如:
迎面来车违规左转;
行人突然闯入;
临时施工、交通标志被遮挡。
这些「极少数但容易发生事故」的场景正是当前系统的盲点。
二、Alpamayo-R1:给模型装上「推理链条」
NVIDIA Research 推出的 Alpamayo-R1(AR1),是一种全新的带有推理能力的视觉 - 语言 - 行动模型(Reasoning VLA),让车辆不只是「执行指令」,而是能在决策前「推理出因果关系」。
图 1:Alpamayo-R1 模型架构(示意)
AR1 的核心创新有三个方面:
)

)
)

)
)
)
)
)
)
)
)
)
)
)