原标题:重大发现!麻省理工学院宣布一项研究结果,驾驶员的社会意识得分
会提高自动驾驶车辆的道路稳健性吗?这是麻省理工学院计算机科学和人工智能实验室的一组研究人员在最近的一项研究中发现的。引用外国媒体的报道,麻省理工学院科学家已经建立了一个系统,根据其他司机的自私程度对他们的行为进行分类。换句话说,司机不太可能对其他汽车采取利他行为吗在测试中,他们说他们的算法可以更好地预测司机的行为,减少了25%
这一技术的研究生和主要研究作者威尔科·施瓦廷(Wilko Schwarting)在一篇发表的论文中说:“在自动驾驶汽车(AV)中创造更多类似人类的行为对乘客和周围车辆的安全至关重要,因为行为的可预测性使人们能够理解和恰当地应对AV行为
团队模式借鉴了博弈论和社会价值取向的心理学概念(SVO),指出了个人自私(“利己主义”)和合作(“亲社会”)的程度为了构建它,他们模拟了驾驶员试图最大化其效用的场景。在这个场景中,模型学会了根据运动总结预测驾驶员是合作的、利他的还是自私的。随着时间的推移,通过这种方式,人工智能开始理解什么时候显示不同的驾驶行为是合适的。
例如,在涉及合并和左转的场景中,驾驶员要么让其他汽车合并到车道上,要么选择不合并。(与未合并的汽车相比,合并的汽车更具竞争力)然后,研究人员的模型可能会选择更加自信的方式来确保在交通拥挤的情况下改变车道。在其他情况下,例如当面对无保护的左转时,模型可能会等待亲社会的驾驶员到达,然后驾驶员才会采取行动。
的研究人员表示,他们的系统不够健壮,无法在公共道路上实施,但他们计划将他们的模型应用于行人、自行车和驾驶环境中的其他人员。此外,他们打算研究其他在人类之间工作的机器人系统,如家用机器人,并将SVO集成到通用预测和决策算法中。
9施瓦廷说:“与人类和我们周围的人一起工作意味着了解他们的意图,以便更好地理解他们的行为。”施瓦廷说,他将在本周最新一期的《PNAS》杂志上发表一篇新论文。)人们合作或竞争的倾向通常会蔓延到他们作为司机的行为上。在本文中,我们试图理解这是否是我们真正可以量化的东西。“