ICRA2019旗舰会议来袭 | 通过视觉信号预测驾驶员意图
比较FC-LSTM、ConvLSTM、cn-clstm以及文章提出的方法,上述指标如表1所示。FC-LSTM性能最弱;这可以解释为全连通层在提取空间特征时效率低下,只有通过网络的大容量来平衡,这使得它可以学习更复杂的功能。ConvLSTM通过利用门的卷积实现了稍好一点的效果,这使得它更适合于空间特征提取。然而,它的内存效率低下阻止了使用更深层次的架构,因此限制了模型的容量。结合这两种方法,得到了一个CNNLSTM,它既能利用CNNs丰富的空间特征提取,又能利用LSTMs的时间特征表示,取得了比之前基线更好的效果。我们提出的方法在LSTM和注意机制中进一步增加了卷积,得到了最好的结果。
混淆矩阵如表2所示。注意,OFF的检测精度明显较高,而FLASHERS的检测精度较低,因为这两个类在数据集中分别表示过多和过少,即使使用分层抽样方案,图4d(a)这种不平衡自然会影响测试性能。
网络故障模式。(a)夜间明亮的灯光被错误地归类为左转。(b)远处车辆右侧的明亮反光被误列为右转弯。(c)一辆不常见的车辆识别结果为没有发出右转信号。(d)姿态解码错误,输出翻转。(e)在载有单车的车辆上作假性左转。
结论
在自动驾驶领域,检测驾驶员的意图是一项必不可少的任务,是预测诸如变道和停车等突发事件的必要手段。在本文中,研究人员解决了转弯信号分类这一重要而尚未探索的问题。提出了一种能够端到端的训练方法,能够处理车辆的不同视点。提出的神经网络通过意图、卷积和递归来推断空间和时间特征,从而在帧级对一系列观测信号的转弯信号状态进行分类。该实验使用包含120多万张实况图像的数据集来训练和评估的方法。未来在这个问题上,研究领域将会扩展到紧急车辆信号,以及更多分类的功能(例如来自曝光不足的相机的图像)的识别问题上。
参考:
[1] Frossard D, Kee E, Urtasun R.DeepSignals: Predicting Intent of Drivers Through Visual Signals[J]. arXivpreprint arXiv:1905.01333, 2019.
[2] icra2019.org

最新活动更多
-
3月27日立即报名>> 【工程师系列】汽车电子技术在线大会
-
4月1日立即下载>> 【村田汽车】汽车E/E架构革新中,新智能座舱挑战的解决方案
-
4日10日立即报名>> OFweek 2025(第十四届)中国机器人产业大会
-
即日-4.22立即报名>> 【在线会议】汽车腐蚀及防护的多物理场仿真
-
4月23日立即报名>> 【在线会议】研华嵌入式核心优势,以Edge AI驱动机器视觉升级
-
4月25日立即报名>> 【线下论坛】新唐科技2025新品发布会
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论