高德TrafficVLM模型升级,实现超视距路况预知,AI带来全新天眼视角。
2025年9月19日,今日傍晚,高德官方公众号发布消息,宣布成功推出TrafficVLM(交通视觉语言模型),该技术有助于用户全面掌握交通状况,优化驾驶体验。
根据介绍,在当今复杂的交通环境下,驾驶员常常遭遇信息盲区的困扰:在繁忙的交叉路口行驶时,只能看到眼前的车流情况,却无法预知百米之外哪个车道可能会出现拥堵;在高速公路上看似畅通无阻时,也难以预料前方因轻微刹车而引发的“幽灵式堵车”。这些由于视角局限所带来的信息不足,让驾驶员难以做出最佳的行车决策。为此,TrafficVLM模型此次升级正是为了解决上述问题。
依托空间智能架构,全新升级的 TrafficVLM 可以为用户带来“天眼”视角。其能让用户全面了解全局交通状况,从而在复杂环境中做出更优决策。据悉,其能够赋予每位驾驶者“全知视角”的能力,在面对路口或高速时,不再受限于局部视野,从而更直观预知前方路况,从容应对潜在风险。
例如,在用户前方3公里的主干道上,左侧车道因一起突发追尾事故形成新的交通拥堵点。TrafficVLM系统通过实时交通孪生技术迅速感知到这一异常情况,并推理判断出事故位置及其可能的发展趋势:拥堵可能会迅速扩散,导致长达3公里的路段出现严重堵塞。借助TrafficVLM的能力,高德地图能够在用户抵达拥堵区域前,及时发出通行建议:“前方三公里发生事故,大量车辆向右变道,请您提前靠右行驶,注意避让应急车辆。”
通过云端调度系统的即时响应,系统在交通拥堵出现时迅速发出监测指令,调取现场的视觉数据,并利用图像中的深度信息进行智能分析,准确还原拥堵区域的空间布局和交通状况。
据介绍,这意味着用户不仅能直观看到“前方堵车”,更能清楚理解为何需要变道、何时该减速,以及拥堵的真实成因与范围。这种从被动接收提示到主动洞察全局的转变,让用户摆脱了“盲人摸象”般的局限,实现对复杂路况的可视化、可感知、可预判的智慧导航体验。
该模型以视觉语言模型通义Qwen-VL为基础,结合高德海量且高度还原的交通视觉数据,进行了强化学习和数据训练。 从技术发展的角度来看,这种基于真实场景数据的训练方式有助于提升模型在复杂环境下的理解和决策能力。高德提供的高质量交通数据为模型的优化提供了坚实基础,也反映出当前人工智能技术在实际应用中的不断深化。随着这类模型的成熟,未来在智能交通、自动驾驶等领域或将发挥更大作用。
留言评论
(已有 0 条评论)暂无评论,成为第一个评论者吧!