WAP手机版 RSS订阅 加入收藏  设为首页
电玩城捕鱼
当前位置:首页 > 电玩城捕鱼

电玩城捕鱼:车辆只能在安全场景下学习人类良好的驾驶策略

时间:2021/9/11 11:06:55  作者:  来源:  浏览:4  评论:0
内容摘要:目前,自主驾驶策略更多的是基于规则的,即驾驶是通过人类手动设计的策略进行的。在学术界,很多人基于“模仿学习”的研究方法,即让车辆模仿人们在不同情况下的驾驶选择。然而,这两种方法都有缺点。前者是不可避免的。一些特定的场景不能被好的规则覆盖,或者很多度量指标在设置时难以通用。后者的问...

目前,自主驾驶策略更多的是基于规则的,即驾驶是通过人类手动设计的策略进行的。在学术界,很多人基于“模仿学习”的研究方法,即让车辆模仿人们在不同情况下的驾驶选择。然而,这两种方法都有缺点。前者是不可避免的。一些特定的场景不能被好的规则覆盖,或者很多度量指标在设置时难以通用。后者的问题是。

车辆只能在安全场景下学习人类良好的驾驶策略,而真实场景中的自动驾驶车辆一旦执行了一个人在学习时没有演示的危险场景,他的策略就变成了完全空白。与这两种方法相比基于车辆探索的,所以它可以让车辆更普遍地尝试和探索不同的场景,这比前两种方法有优势。如果我们以后希望有一个大规模和更强大的管道来开发自动驾驶策略,这种基于探索的策略可能至少有一个有用的补充。

坦率地说,这部作品只能说是在上述方向上的一个小小的探索。为了实现公众期待的自动驾驶,还有很多工作要做。我想在这里提几个比较。重要的技术缺陷:1. 受到障碍,如成本、法律等,没有哪支球队能做类似的实验在现实场景中,更不用说风险破坏大量的车辆,甚至造成安全事故的道路上执行一个完整的略已经被开发出来,。

以我们只能做它在模拟环境中,这对模拟环境的真实性提出了很高的要求。在当前物理、数值计算、图形学等领域的发展状态下,我们不可能有一个与真实场景完全相同的仿真环境,这给真实场景中开发策略的可用性带来了一些隐患。如果我们以后有一个更现实的模拟器,甚至是一个“元宇宙”,这个问题可能会得到缓解。

2. 我们的方法也是基于人工设计的损耗函数。该问题也是目前模型预测控制中普遍存在的问题。这种损失函数的设计类似于强化学习中的奖励函数。好的或坏的,会有一个很大的影响效应的方法,但由于设计开发人员的知识、简化现场状态的可行性,等等,这是不可能的是最完美的,所以我们希望这个领域能有更好的函数法出现,在不同的场景和需求中使用了不同的约束函数。但这已经变成了“是鸡生蛋,还是蛋生鸡”的问题。现在还是很难。


相关评论

本类更新

本类推荐

本类排行

本站所有站内信息仅供娱乐参考,不作任何商业用途,不以营利为目的,专注分享快乐,欢迎收藏本站!
所有信息均来自:百度一下 (电玩城捕鱼)