礼让三分,安全十分,严格遵守交通规则,共创和谐社会。内布拉斯加大学创建新工具 或使自动驾驶汽车更安全、更智能,可以根据不同的情况采取相应的措施,下面将详细介绍内布拉斯加大学创建新工具 或使自动驾驶汽车更安全、更智能,希望能帮到您,帮助您,就是我们服务的开始。
现在,自动驾驶汽车不断发展,但全面应用这种技术仍面临安全挑战。据外媒报道,内布拉斯加大学林肯分校(University of Nebraska–Lincln)的Dung Hoang Tran致力于探讨新的解决方案来改变这一现状。
在美国国家科学基金会(National Science Foundation)的拨款支持下,Tran将继续开发验证工具,以使自动驾驶汽车和其他机器人机械装置变得更安全、更智能。
得益于根据真实场景建模并集成到其系统中的学习组件,自动驾驶汽车能够在陌生的环境中运行。对工程师来说,当这么多的组件遇到现实环境中不可预测、前所未有的因素,进行安全评估和风险管理可能相当具有挑战性。内布拉斯加大学林肯分校计算机学院助理教授Tran表示:“我们必须建立一个非常复杂的数学和计算框架,才能分析这样复杂的系统。在设计此类系统时,深度学习模型的行为方式可能导致系统进入不理想的场景。”
Tran还创建了神经网络验证(Neural Network Verification)工具,目前这类安全验证软件仍在许多行业的大公司(包括苹果、波音和丰田)广泛使用。Tran的新工具将建立在其之前的工作基础上,为工程师们提供更全面的安全评估和结果。
Tran的新工具将通过定性和定量方法来测量安全性。除了证明相关系统通过或未通过安全测试,新工具还可以分析风险概率,以在系统层面提供及时、详细和准确的评估。Tran表示:“在新框架中,我们还可以提问,‘如果不安全,那么不安全到什么程度呢?’通过对环境不确定性进行建模,它可以提供违反规范或要求的概率,这对于进行决策或控制非常重要。”
Tran的项目将使用其为NNV开发的相同的创新语言,即概率星时序逻辑规范语言(probabilistic star temporal logic specification language)。工程师们可以通过该语言来确定使系统正确、安全运行的必要要求。接下来,Tran及其团队将致力于设计有效的验证技术和算法,以根据要求测量系统安全性。Tran表示:“如果无法证明系统是安全的,即需要生成所谓的‘反例’,或证明系统实际上不安全。研究人员可以利用这些反例来返回深度学习模型或改变系统设计,从而增强系统安全性。”
Tran在实验室中构建测试台,以测试机器人机械装置和软件。F1TENTH测试台是支持学习的小型系统,可用于为自动驾驶汽车创建真实场景,以评估其适用性、可扩展性和可靠性。为了确保自动驾驶汽车的安全,不仅要使这些车辆按照设计正确运行,而且需要它们在发生意外情况时做出智能反应。Tran表示:“仅仅通过测试,难以保证系统在现实世界中运行时的安全性。研究人员希望确保系统本身拥有若干内部决策过程,这样当车内发生问题时,它可以自动计算出接下来会发生什么并执行适当的智能决策,从而防止发生其他问题。”
Tran希望继续深入研究这种工具,以在未来创建对其他机器人技术开发人员有用的工具。Tran表示:“最终目标是构建每个人都可以使用的软件工具。”
关于内布拉斯加大学创建新工具 或使自动驾驶汽车更安全、更智能的内容到此结束,希望对大家有所帮助。路援帮往后会继续推荐内布拉斯加大学创建新工具 或使自动驾驶汽车更安全、更智能相关内容。