(要闻)谈人工智能作恶:黑产超正规行业 别“炼”出造反AI
本篇文章1593字,读完约4分钟
不要“提炼”叛逆的ai
一次抢劫后,格雷的妻子去世了,他瘫痪了。他接受了一个天才科学家的“升级”治疗——他在自己体内植入了一个人工智能程序梗,获得了超强的能力,直接从一个“残疾人”升级为职业杀手。随着脑干的进化升级,格雷被迫交出身体使用权,一步步控制大脑意识...
今年最好的关于人工智能和人类未来的电影,很多人认为一定是《升级》。关于人工智能与人类竞争的讨论是科幻电影中永恒的话题。从《银翼杀手》到《机械纪》,再到今年的低成本电影《升级》,都体现了未来人工智能对人类的威胁。
黑产超正规产业的恶意源于人类基因
艾之乱是科幻电影中一个非常常见的桥段。问题是真正的ai似乎是一步步向我们走来的。很多人都很担心,很不安。人工智能会“作恶”吗?
有不少人倾向于人工智能威胁理论。马斯克曾在推特上说:“我们必须非常小心人工智能,它可能比核武器更危险。”斯蒂芬·霍金也说:“人工智能可能是‘真正的危险’。机器人可能会找到改善自己的方法,而这些改善并不总是有益于人类。”
“任何技术都是一把双刃剑,可以用来作恶。为什么人工智能会引起这么大的反响?”在近日举行的2018中国计算机大会子论坛上,哈尔滨工业大学聘任的教授吴提出了一个问题,人工智能研究的底线在哪里?
早在1942年,阿西莫夫就提出了机器人三定律。但问题是,科幻小说书中这些美好的规律在实施时会遇到很大的问题。
"什么样的程序在计算机上运行取决于谁写的这个程序."360集团技术总裁兼首席安全官谭表示,机器人的法律是否可靠首先由人来定义,然后由机器来存储和执行。
值得注意的是,“不作恶”已经成为科技行业的一个技术原理。那么,机器人作恶时,恶意从何而来?
现在人工智能的发展如火如荼,但是第一批拥抱ai的是黑产组,包括用ai突破验证码,黑一些账号。谭萧声笑着说:“2016年,中国黑色产品的收入已经超过1000亿。整个黑产品赚的钱比我们多。怎么会没有动力呢?”
" ai的恶的本质是人类在作恶."北京大学法学院教授张平认为,人工智能只是一种工具。如果有人利用人工智能作恶,他们应该惩罚人工智能背后的人,如人工智能的R&D人员、控制者、所有者或用户。当ai表现出危害人类、公共利益和市场规则的“恶”时,法律就会出来规制。
目前,无人驾驶和机器人手术引发的事故,以及大数据分析中的泛滥和失控时有所闻。那么,人工智能会进化到人类无法控制的程度吗?ai作恶的时候,人类还能应付吗?
任务驱动的人工智能不能犯“反人类罪”
值得注意的是,霍金在他的最后一本书里警告人类“人工智能的短期影响取决于谁来控制,长期影响取决于能否控制。”言下之意是,人工智能真正的风险不是恶意,而是能力。
“人工智能的未来发展将威胁人类的生存。这并不令人担忧。确实有很大的风险。虽然不一定会发生,但发生的概率很大。”在谭看来,人类是不会被毁灭的。无论人工智能如何进化,总会有漏洞。黑客会在极端情况下找到彻底摧毁这个系统的方法。
对此,上海交通大学电子系特约研究员倪冰冰表示乐观。“我们目前的人工智能技术大多是任务驱动的,人工智能的功能输出和输入是由研究人员和工程师预先指定的。”倪冰冰解释说,大部分ai技术远没有反人类的能力,至少目前来看,没有必要担心。
张平说,当ai发展到人工智能强的阶段,机器自动化的能力提高了,就可以自我学习和升级,就会有强大的功能。比如在人脑和计算机无法比拟的情况下,如此强大的人工智能会对我们构成威胁。
“人类向ai注入什么样的智慧和价值观至关重要,但如果ai达到了人类无法控制的顶级邪恶——“反人类罪”,就必须按照现行人类法律处理。”张萍说,除了法律,还应该有一个机制,可以立即“杀死”这样的ai,及时阻止它对人类造成更大的伤害。“这要求在人工智能研发中必须考虑‘一键’的技术处理。如果这样的技术预设做不到,这样的ai就应该停止投资和研发,像人类对待药物一样全球对待。”
犯罪记录在增加,预防机制应该跟上
事实上,人们担心的不是空.人工智能的邪恶事件,如职场偏见、政治操纵、种族歧视等。,早在两年前就出现了。此前,德国曾发生过人工智能机器人在流水线上杀死管理人员的事件。
可以预见ai作恶的案例会越来越多,人类该如何应对?
“如果我们将人工智能用作工具或产品,它应该在法律上具有预防功能。科学家应该从道德约束和技术标准的角度来干预价值观。”张平强调,R&D人事部门不应该向人工智能灌输错误的价值观。毕竟对于技术的发展来说,总是先发展再法律约束。
在倪冰冰看来,ai算法和技术都是人为控制的。我们总是有一些很强的控制手段,控制ai不会对最高层的人产生一些负面影响。“如果没有这样的控制或者后门,说明ai并没有作恶,只是发明这个ai工具的人作恶了。”
每种技术都有两面性。为什么我们认为人工智能的邪恶让人更加恐惧?与会专家直言,因为ai是不可控的,所以黑箱里人们对不可控事物的恐惧更强烈。
目前最热门的领域“深度学习”被业界戏称为“当代炼金术”。它输入各种数据来训练ai,并“提炼”出一堆我们不知道为什么的东西。人类能相信自己无法理解的决策对象吗?
显然,技术发展的界限需要明确,比尔·盖茨也表示了担忧。他认为,目前,人类不仅要进一步发展人工智能技术,还要开始应对人工智能带来的风险。但是,“这些人大多没有研究过ai风险,而是在加速ai的发展。”
业内专家呼吁我们清楚地知道人工智能会做出什么样的决策,我们必须对人工智能的应用范围和应用结果的预期有所约束。
ai会进化吗,未来可能会形成ai社会吗?“ai可能为了争夺资源而毁灭人类。这是完全可能的,所以还是要关注ai作恶的程度和风险。”现场一位嘉宾建议,根据人工智能的不同阶段,比如智障、强智能、超智能,明确哪些是应该研究的,哪些是应该认真研究的,哪些是绝对不应该研究的。
如何防止ai在快速进步的道路上徘徊?"我们必须从技术、法律、道德和自律等多方面进行防范."张平说,ai研发首先要考虑道德约束,当人类无法预见其后果时,研发要谨慎。同时也需要法律来规范。比如联合建立国际秩序,就像原子弹一样,不能让它无限发展下去。(刘伟)
标题:(要闻)谈人工智能作恶:黑产超正规行业 别“炼”出造反AI
地址:http://www.huarenwang.vip/new/20181024/11.html
免责声明:莆田新城网是福建莆田地区知名的本地城市生活门户网站,莆田新城网所著的部分内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,莆田新城网将予以删除。