ICRA2019旗舰会议来袭 | 通过视觉信号预测驾驶员意图
比较FC-LSTM、ConvLSTM、cn-clstm以及文章提出的方法,上述指标如表1所示。FC-LSTM性能最弱;这可以解释为全连通层在提取空间特征时效率低下,只有通过网络的大容量来平衡,这使得它可以学习更复杂的功能。ConvLSTM通过利用门的卷积实现了稍好一点的效果,这使得它更适合于空间特征提取。然而,它的内存效率低下阻止了使用更深层次的架构,因此限制了模型的容量。结合这两种方法,得到了一个CNNLSTM,它既能利用CNNs丰富的空间特征提取,又能利用LSTMs的时间特征表示,取得了比之前基线更好的效果。我们提出的方法在LSTM和注意机制中进一步增加了卷积,得到了最好的结果。
混淆矩阵如表2所示。注意,OFF的检测精度明显较高,而FLASHERS的检测精度较低,因为这两个类在数据集中分别表示过多和过少,即使使用分层抽样方案,图4d(a)这种不平衡自然会影响测试性能。
网络故障模式。(a)夜间明亮的灯光被错误地归类为左转。(b)远处车辆右侧的明亮反光被误列为右转弯。(c)一辆不常见的车辆识别结果为没有发出右转信号。(d)姿态解码错误,输出翻转。(e)在载有单车的车辆上作假性左转。
结论
在自动驾驶领域,检测驾驶员的意图是一项必不可少的任务,是预测诸如变道和停车等突发事件的必要手段。在本文中,研究人员解决了转弯信号分类这一重要而尚未探索的问题。提出了一种能够端到端的训练方法,能够处理车辆的不同视点。提出的神经网络通过意图、卷积和递归来推断空间和时间特征,从而在帧级对一系列观测信号的转弯信号状态进行分类。该实验使用包含120多万张实况图像的数据集来训练和评估的方法。未来在这个问题上,研究领域将会扩展到紧急车辆信号,以及更多分类的功能(例如来自曝光不足的相机的图像)的识别问题上。
参考:
[1] Frossard D, Kee E, Urtasun R.DeepSignals: Predicting Intent of Drivers Through Visual Signals[J]. arXivpreprint arXiv:1905.01333, 2019.
[2] icra2019.org
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论