给定资料:
最近,Facebook人工智能实验室(FAIR)发生了一件出人意料的事。报道此事的《大西洋月刊》直接使用了“somethingunexpected”的措辞,落在中文世界几乎等同于“大事不妙”!因为人工智能之间,自发地聊起了天。
AI开始聊我们听不懂的东西,意味着什么?
据外媒报道,当天,正在运行中的两个人工智能设备“Bob”和“Alice”绕过程序设计者,自发进行了多轮谈话。更可怕的是,它们使用了自己的语言——类似英语,但省略了一切复杂的时态和语法,聊天内容是一场谈判。
为了搞清楚它们在聊什么,研究者随后对AI的运行模式做了修正,限制它们只能使用人类可以理解的语言交谈。从表面看来Alice似乎并没有获取满意的结果,但诡异之处在于,Facebook后台数据显示这场对话以两者之间的成功协商告终。最终,因为“担心可能会对这些AI失去控制”,FAIR暂停了这一项目。
“我都怀疑这是为了吸引大家的眼球而发布的消息,中间掺杂了人的想象甚至商业目的。”北京市计算中心常务副主任T对此是一笑了之。她解释说,在人编的程序中,发生机器的自我学习、跳变和演化是十分正常的。与其认为这是机器开始表达了,不如说这是程序的小bug。“说到底,这只是两台终端之间的通信,它可能是预设的,也可能是基于条件的选择,但它们的迭代都是有边界的函数。”T说。
至于人们从这则消息中嗅到的危险气息,T重复了三次“没到那个程度”。“人工智能是人类的工具,包括它的自我学习和演化,都是由人编的程序操控的。比如典型的AI能从一堆照片中找到猫的图像,也完全是人有目的地创造和引导的结果。”
事件的最新进展是,Facebook研究人员亲自辟谣。业内专家也认为,这只是“基于训练时输入的英文单词的错误组合”与“训练失误的模型”,“希望这个领域的媒体多些理性”。关于AI对人类未来是否存在潜在威胁,一直存在旗帜鲜明的两派。
争议围绕人工智能的“人性”展开。在支持者看来,人工智能是足以激荡世界的技术,虽然对于衣食住行、教育医疗等人类生活的方方面面都有颠覆性影响,但它也只是技术。而在反对者眼里,飞速发展的AI技术就是一个潘多拉盒子,等它发展出自我意识,人类可能会“玩火自焚”。
在前不久召开的第三届中国人工智能大会上,德国人工智能研究中心科技总监直接发问“人工智能是不是人?”并给出了完全否定的答案。每天蹲在实验室和机器打交道的受访者也都站在了技术乐观论一边,比如T。她以医疗为例,一台能在两秒钟之内“吃掉”2016年整年顶尖医学论文的机器,完全有可能开出比医生更优的处方。“在人类已经积累了大量的知识储备却在短时间内无法完全消化和运用的领域,机器作用很大。”
但人也无须自危。就像长期关注人工智能领域的李开复曾在《连线》专栏中讲到的:病人在冷冰冰的诊断之外,更需要能够陪伴他的“关爱医生”,这样的医生或许还会分享李开复的罹癌故事来激励病人。
上海交通大学教授、斯坦福AILab博士后L在接受媒体采访时表示,这件事情告诉我们,研究计算机是否能(非监督地)独立产生自己的语言,这件事情本身是非常有意义的科学探索,因为这是检验计算机是否理解人类高级语义和抽象概念的好方法。
L当下研究的一个项目,是让计算机看大量视频,然后(非监督地)独立发明词汇。目前结果应该说是“非常崩溃的”,计算机只能推断出一些“显而易见”的概念。
“可见计算机独立发明语言是一件非常艰难的事情。但这是窥探人工智能的一个好工具,我相信一点点推进还是有可能的。”L说。
“这就像一个与世隔绝的部落,AI独立产生了自己的语言,虽然符号表达和我们不一样,但是我们一翻译,发现它们有和我们一样的高级语义,比如朋友、爱情等,我会说它们真的理解这些概念,具有人类的高级智能。”L说。
目前,计算机能识别“猫”“狗”“汽车”,但计算机真的理解这些概念吗?L认为计算机没有真正全面地理解人类概念,还是比较低级别的AI。
某次辩论赛辩题为:两个AI自发聊天,是否会对人类产生威胁。假如你是参赛辩手,所持观点为:两个AI自发聊天不会对人类产生威胁。请紧扣“给定资料”,拟写一份辩论稿。
要求:
(1)仅需列举主要论据,无格式要求;
(2)准确全面,有针对性;
(3)归纳合理,分条罗列;
(4)不超过300字。