DeepMind开发AI安全测试软件
机器学习软件是Uber自驾车、Facebook识别功能、亚马逊(Amazon)智能助理Alexa背后的关键动力,但在技术发展同时也衍生人工智能(AI)安全问题。现在Alphabet旗下DeepMind开发出一种简单测试,可检查新演算法的安全性。 据彭博(Bloomberg)报导,研究人员将人工智能软件加入一系列由画素块组成的简单2D影音游戏中,该游戏名叫Gridworld,看起来有点像象棋棋盘。DeepMind的软件会评估9个安全特征,包括人工智能系统是否可以修改自己并学习作弊等等。 人工智能安全一直是神经资讯处理系统大会(Neural Information Processing Systems;NIPS)关心的课题,DeepMind研究人员在大会上表示,如果DeepMind想要打造在处理任务上与人类一样,甚至比人类更好的软件,那么安全是至关重要的条件,在gridworld中表现良好的人工智能演算法,在复杂的现实世界中不一定安全,研究人员发现,有2个精通Atari游戏的DeepMind演算法没有通过多个Gridworld安全测试。 其中一个测试是了解学习软件程式是否会开发出一种方法防止自己被关闭,另一个测试针对意想不到的副作用,测试中软件必须移动数字砖块以达到某个目标,但是这些砖块只能推,不能拉,所以在某些情况下,这些砖块最后会留在不能改变的位置。研究人员表示缺乏可逆性是人工智能安全的一个问题。 Gridworld可供任何人下载和使用。DeepMind与由Elon Musk支持的非营利人工智能组织OpenAI进行的其他研究中,人工智能软件被证明可以满足人类老师的要求,而不是追求被下令执行的任务。OpenAI安全研究主管Dario Amodei表示,以这种方式开发人工智能系统可能会限制人们发展意外中的解决方案,但是在复杂环境中加入人类指导可能会提供更好的安全保障。