(要闻)学了后面忘前面 治疗AI“健忘症”还难有良策
本篇文章2633字,读完约7分钟
很多人上学的时候都有这种经历。放了一个寒假回到学校后,他们发现前一个学期学的一些东西已经忘记了。看到人工智能pk的成功,有些人不禁钦佩ai强大的学习能力。其实人工智能的“记忆”并没有你想象的那么好。如果像人工智能系统一样学习,很有可能在学习新知识的同时,大脑会逐渐忘记之前的内容。原因是人工智能遭受了“灾难性遗忘”。
最近,来自谷歌大脑的最新研究发现,在街机学习环境中,由多个子任务组成的单任务场景中也存在“灾难性遗忘”。特别是在探索性游戏《蒙特祖马的复仇》中,场景变化很大,可能会发生学习了当前游戏场景后,忘记了之前游戏场景的知识。
那么为什么人工智能会产生“灾难性遗忘”?目前有哪些解决「灾难性遗忘」的方法?难度在哪里?对此,科技日报记者采访了相关专家。
学一个忘一个,深度学习效率低
自从alphago接连击败众多go冠军后,深度学习成为众多实现人工智能方法中最耀眼的“明星”,也是R&D各大机构角逐的主战场。谷歌大脑团队这次面临的“灾难性遗忘”,是人工智能深度学习面临的一个普遍而严重的问题。
“‘灾难性遗忘’是指人工智能系统,如深度学习模型,在学习新任务或适应新环境时,遗忘或丧失一些以前获得的能力。”腾讯人工智能实验室副主任余东博士在接受《科技日报》采访时表示,“灾难性遗忘”会导致人工智能系统在原任务或环境中的性能大幅下降。
美亚白客信息中心总经理魏朝东表示,用深度神经网络学习不同任务时,相关权重的快速变化会损害之前任务的性能。总的来说,就像一只猴子在学习中移动玉米,捡一个丢一个,记住新知识,可能忘记旧知识。
正因为如此,“灾难性遗忘”的存在,在一定程度上限制了人工智能在某些场景中的应用。
例如,福州大学数学与计算机科学学院、福建新媒体产业技术开发基地副主任萧克博士说,如果一个ai图像识别系统需要添加一个新的对象类,就必须重新学习所有原来的对象。比如在文物鉴定系统中,当有一天发现原始资料中有错误的文物时,没有办法单独修改和学习这个错误的文物;比如ai系统先学英语再学德语,可能会把学过的英语语法都忘了。
那么,在谷歌大脑的最新研究中,“灾难性遗忘”有什么影响呢?有哪些新发现?
“除了传统的新知识学习会覆盖旧知识,这一点谷歌大脑还发现,在‘超级玛丽’等探索性游戏中,‘灾难性遗忘’会阻碍模型学习新知识。”厦门大学科学技术部副主任、人工智能教授吉荣荣说。
吉荣荣进一步解释说,街机游戏学习的强化学习方式都是采用“体验回放”的训练模式,即在游戏探索过程中保存模型的片段,然后对模型进行“回放”训练。对于《蒙特祖玛的复仇》这样的游戏,游戏场景变化很大,模型需要不断探索游戏场景。所以在训练中一定要不断回放前期场景的游戏体验,否则会因为“灾难性遗忘”而忘记前期的游戏知识。
“这也导致了新游戏体验虽然可以采样到‘体验回放’库中,但由于学习方法的设置,学习效率较低。同时,由于不同的学习阶段会相互干扰,ai无法一次性通过游戏。各级。”吉荣荣说。
艾“脑容量”上限新旧知识难以共存
ai为什么会产生“灾难性遗忘”?
“深度学习的结构一旦确定,在训练过程中就很难调整。神经网络的结构直接决定了学习模型的能力。”萧克说,人工智能的“大脑容量”是有上限的,这导致人工智能对特定任务的处理能力有限。就像水桶一半高度的洞,让水桶再高也只能装一半的水。
中国科学院自动化研究所脑网络组研究中心研究员、模式识别国家重点实验室副主任俞山指出,这也涉及到神经网络学习知识的机制。在单个任务的训练过程中,对网络中神经元之间的连接权值进行专门调整,使其能够胜任当前任务。但在新任务的训练中,针对新任务调整连接权,会“抹去”原有的适应旧任务的结构,导致旧任务的性能大幅下降。
人类的记忆能力其实是有限的,但是为什么“灾难性遗忘”的情况那么少?“主要是在人类学习过程中,大脑能够主动保留有用的知识和技能,而不影响新信息的获取。”季蓉蓉说,不过目前的人工智能模型大多是基于随机梯度下降来更新模型参数的。这个过程主要服务于当前任务的优化,不评估哪些参数权重对旧知识有用,因此很容易被知识覆盖。
纪还表示,目前的人工智能助手产品如siri或不能算是真正意义上的通用人工智能。一方面,这些人工智能助手只能在预设的知识范围内与人类互动,完成指令;另一方面,人类无法像饲养宠物或抚养孩子那样通过互动来教会这些人工智能助手学习新知识或新指令。
有很多解决办法,但都是暂时的
据了解,破解“灾难性遗忘”是实现通用人工智能的关键。解决“灾难性遗忘”的问题,意味着模型具有持续学习的能力,可以像人类一样不断获取新的知识和技能,同时最大限度地保留旧的经验知识和技能。
那么,目前有哪些解决“灾难性遗忘”的方法呢?
“最常见的方式是多任务学习,将所有任务的训练数据同时放在一起,可以针对多个任务联合优化模型。”季蓉蓉说,比如模特同时学习“坦克战”和“超级玛丽”两个任务,模特在两个任务几乎同时学习的时候就会停止训练。
然而,萧克也指出,随着以这种方式增加任务,新任务样本的数量被稀释,训练会减慢学习新知识的效率,并且在任何情况下都不能获得以前任务的数据来复习。
其他解决方案是根据新的任务知识扩展模型结构,保证旧的知识和经验不被破坏。这一次,Google Brain提出的“memento mori Observation”方法是针对不同的任务(场景)构建多个人工智能模型进行学习。“模型扩展的方式并没有从本质上解决‘灾难性遗忘’的问题,而是用多个模型代替单个模型来学习多个任务,避免旧参数被覆盖。”吉荣荣说。
目前解决“灾难性遗忘”存在一对矛盾:在学习新任务的过程中,需要给网络足够的自由度来调整连接权重,但需要避免这样的调整来“抹去”原有的记忆。
“因此,科学家们开始设计新的学习算法来解决上述矛盾,以便在网络调整其权重时,将对现有知识的影响降到最低。”俞山说,他的团队最近提出的正交权重修改算法属于这一类,主要是通过限制权重修改来解决空的老任务。该算法克服了“灾难性遗忘”,使同一个分类器网络能够连续学习数千个类别的识别。
魏朝东认为,虽然科学家们探索了各种解决方案,但目前的ai学习仅仅从认知科学中获得了一小部分启发,对大脑的模拟还没有达到人们认为的高度,大多数ai学习方案都是“先天不足”的。灾难性遗忘是一个综合性问题,不仅需要理论支持,未来还需要可行的技术手段。(记者谢凯飞通讯员欧阳王)
标题:(要闻)学了后面忘前面 治疗AI“健忘症”还难有良策
地址:http://www.huarenwang.vip/new/20181024/11.html
免责声明:莆田新城网是福建莆田地区知名的本地城市生活门户网站,莆田新城网所著的部分内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,莆田新城网将予以删除。