遵守交通规则,远离事故风险,让安全伴随每一公里。本文主要介绍MIT开发出新算法 可帮助AI系统规避对抗性输入,并为读者提供相关信息,以引起读者的兴趣,接下来就跟我们一起来了解一下吧,希望对您有所帮助。
据外媒报道,麻省理工学院(MIT)的研究人员开发出一种全新深度学习算法,可对所接收的测量数据和输入建立健全的“怀疑”机制,帮助机器在真实、不完美的世界中导航。
文章首席作者及麻省理工学院航空与航天系博士后Michael Everett表示:“尽管目前基于深度神经网络的系统在许多机器人任务中都算很前沿,但在安全关键领域中,由于深度神经网络系统的网络鲁棒性没有正式的保障,所以仍然很危险。一旦传感器输入受到小扰动(如噪声或对抗性实例)通常会改变基于网络的决策,如自动驾驶汽车会因此变换车道。
鉴于上述危险,研究人员已根据这些对抗性输入开发出很多算法建立防御机制。部分对抗性输入还可提供正式的鲁棒性保证或证明。此项工作利用了经验证的对抗鲁棒性,进而为深度强化学习算法开发可靠的在线鲁棒算法。
(图像来源:MIT)
由于存在潜在对抗和噪音,输入空间可能会出现最糟糕的偏差,因此提出的防御措施会在识别和选择鲁棒操作执行期,需要计算状态操作值的保证下限。而且,即使验证者可能因干扰不了解真实状态和最佳操作,最终策略仍可具备解决方案品质保证。”
大家可以参考小编上面的MIT开发出新算法 可帮助AI系统规避对抗性输入介绍,希望能够对大家有帮助,在平时的使用时候,需要定期的进行维护与保养,这样的话可以起到一个很好的保证作用。