机器人已经开始密谋毁灭人类了?别天真了!
文|AI纪
想必最近科技爱好者的朋友圈,都被Facebook一AI项目失控被迫关闭的新闻刷屏了。
多家英国媒体报道称:Facebook的一个人工智能项目“研发出了自己的语言”,开始愚弄人类,AI出现失控现象被迫关闭。
事实上,这个新闻只能算是一个月前的旧闻了,这几天翻火的原因,只能归结于小扎和马斯克骂战的余温作祟。
毕竟媒体朋友们总是想搞个 “大新闻”。此时还有什么比Facebook被迫关闭“失控”AI项目更能打脸的呢?(这一次是国外媒体先动的手)
看了媒体们耸人听闻的报道,大家觉得Facebook的机器人是这样的。
实际上,他们是这样的:
Bob: I can i i everything else ..............
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else .............
Alice: balls have a ball to me to me to me to me to me to me to me to me
至少这段对话实在不像在讨论毁灭人类的样子。
两个机器人为什么要对话?
一开始,Facebook人工智能研究院(FAIR)想要训练一个聊天机器人,让它学会谈判。于是他们神经网络结构开发了一个人工智能系统。这个结构叫做“生成式对抗网络”(Generative Adversarial Networks,简称GAN)。
要理解GAN,大家可以想象一下人类的对抗游戏:你的账户能在不断的对抗中提升技能,你玩的越多,水平就会越高。
Facebook的这项研究也是如此,研究人员希望训练这样一个聊天机器人,让它带着“目的”和人类对话。这个目的也很简单:一共有两本书,一顶帽子和三个篮球,三样东西分别设定了不同的权重,为的是让机器人明白它到底对这些东西有多想要,然后去和人谈判。
在研究过程,Facebook的研究员却对两个机器人聊天能聊成什么样产生了兴趣。于是事情就开始变得有趣了。
系统中的两个聊天机器人Alice和Bob产生了让人看不懂的对话。这段对话第一眼看像是一堆无法解读的乱码,研究人员后来发现,原来是在为系统设置激励条件时,虽然告诉了它们“请用英文”,但忘了告诉它们:“请用英文语法”。
这个乌龙以Facebook人工智能研究院发表声明而告终,Facebook称人工智能并未生成自己的语言,而对于AI项目的关闭,其官方解释是研究人员希望AI与人沟通,而不是相互沟通。
AI真的已经如此恐怖了吗?
虽说以上事件是虚惊一场,但人类对AI的警惕心恐怕没有那么容易消减。
目前人工智能用于设计和测试的系统越来越复杂,以至于科研人员也无法彻底搞清楚神经网络输出的机制。正是存在这种不可知的“黑箱”才会让人类恐惧。
从科幻电影到商业巨头马斯克,再到科学家霍金无时无刻都在提醒人类人工智能存在的威胁。
但是,让我们面对现实吧,只有在大屏幕上机器人才能成为大反派。现实的情况是,大多数聊天机器人的功能都十分有限,并且聊天机器人的发展非常困难。事实上,Facebook最近决定限制其Messenger聊天机器人平台的推出,因为它发现很多聊天机器人无法解决70%的用户问题。
人类对未知的东西抱有天生的恐惧,在AI时代,这种被迫害妄想症会越来越严重!
本文由知事 转码显示查看原文