我们准备好迎接机器人了吗? | 社会科学报

我们准备好迎接机器人了吗? | 社会科学报


 
随着人工智能技术的高速发展,其安全性也日益受到全世界的高度关注。一些学者认为,对人工智能技术不加约束地开发,会让机器获得超越人类智力水平的智能,并引发一些难以控制的安全隐患。美国《外交事务》杂志2019年7/8月刊发表学者肯尼思·库克耶(Kenneth Cukier)的文章《我们准备好迎接机器人了吗?如何思考人工智能的未来》(Ready for Robots? How to Think About the Future of AI),探讨了人工智能的安全性问题。
 
 
 
原文 :《我们准备好迎接机器人了吗》
 
编译 | 熊一舟
 
图片 | 网络
 
 
 
 
维纳的警告:深度学习唤起恐惧
 
 
 
维纳是人工智能领域的创始人之一,他是个神童,14岁大学毕业,四年后在哈佛大学获得哲学博士学位。为了描述他关于动物和机器如何依赖反馈机制来进行控制和交流的研究,维纳选择了“控制论”(cybernetics)这个词。1948年,他将自己的著作命名为《控制论》。在该书出人意料地成为畅销书之后,其他研究人员开始用这个词来形容他们让电脑像人脑那样处理信息的尝试。
 
  
 
自从《控制论》出版以来,维纳就开始考虑这项技术的社会、政治和伦理方面的问题,他得出了一些令人灰心的结论。他担心由真空管组成但具有复杂逻辑的弗兰肯斯坦怪物有一天可能会攻击它们的创造者。他在1950年写道:“留给我们的时间不多了,我们必须在正义与邪恶之间作出选择。”“我们必须停止亲吻鞭打我们的鞭子。”
 
  
 
从20世纪50年代到90年代,大多数人工智能都是用手工编码的规则编写计算机程序。相比之下,统计方法使用数据根据概率做出推断。换句话说,人工智能从试图描述猫的所有特征以便计算机能够识别图像中的猫,到向算法输入数万张猫的图像,以便计算机能够自己找出相关的模式。这种“机器学习”技术可以追溯到20世纪50年代,但当时只在有限的情况下有效。由于计算机处理技术的飞速发展和数据的爆炸式增长,如今更为复杂的版本——深度学习——已经取得了长足进步。
 
 
 
 
 
 
深度学习的成功再次唤起了维纳对电脑怪兽横行的恐惧,如今人工智能领域最大的争论围绕着安全展开。微软创始人比尔·盖茨和已故宇宙学家斯蒂芬·霍金对这个问题的担忧是出了名的。在2014年的一次会议上,科技企业家埃隆·马斯克(Elon Musk)将人工智能描述为“召唤恶魔”。其他人,如人工智能研究人员斯图尔特·拉塞尔(Stuart Russell)和马克斯·泰格马克(Max Tegmark),以及工程师扬·塔林(Jaan Tallinn),认为人工智能对人类构成了严重威胁,需要立即关注。
 
  
 
维纳后来放弃了他最悲观的警告。但今天,随着人工智能开始侵入发达社会生活的几乎每个方面,许多思想家又回到了维纳半个多世纪前开始提出的问题上。社会如何权衡谨慎与创新的速度、准确性与可解释性、隐私与性能之间的关系,将决定人类与智能机器之间发展出何种关系。人类面临的风险很高,但如果不妥善处理这些关系,人工智能将难以向前发展。
 
 
 
 
 
 
 
警惕“迈达斯国王问题”
 
 
 
一般来说,人工智能有两种类型。第一种是通用人工智能,即AGI(Artificial General Intelligence):能够像人类一样思考、计划和反应的系统,同时还拥有“超智能”(superintelligence)。通用人工智能系统了解现有的大部分信息,能够以闪电般的速度处理这些信息,而且永远不会忘记其中的任何一个。想象一下谷歌有自己的想法(也许还有意愿)。第二种形式的人工智能是狭义的人工智能:能够很好地完成独立任务的系统,比如自动驾驶汽车、语音识别技术,以及使用先进成像技术进行医学诊断的软件。对通用人工智能的恐惧是,它可能会在人类控制之外自行进化。对狭义人工智能的担忧在于,它的人类设计师可能无法完美地表明自己的意图,从而带来灾难性的后果。
 
  
 
对于通用人工智能是否可能完全实现,专家们甚至没有达成共识。但是那些相信通用人工智能系统的人担心,如果通用人工智能系统不共享人类价值观,它就可能会引起麻烦。计算机科学家丹尼尔·希利斯(Daniel Hillis)在《潜在思维》(Possible Minds)一书中写道:“人类可能被视为小麻烦,就像野餐中的蚂蚁一样。”“我们最复杂的机器,比如互联网,已经超出了单个人所能理解的范围,它们表现出来的行为可能远远超出了我们的认知范围。”
 
 
 
问题在于如何确定这样一个系统的目标,或者工程师们所说的“价值对齐”。人们担心的不一定是人工智能会变得有意识,想要毁灭人类,而是这个系统可能会误解人类给它的指令。人工智能研究人员斯图尔特·拉塞尔将这一问题称为“迈达斯国王问题”,这一说法源自古希腊神话,说的是国王实现了他的愿望,把他接触的所有东西都变成金子,结果却发现自己既不能吃也不能喝金子。通用人工智能被比作“迈达斯国王问题”,它能够执行几乎所有要求它执行的任务。如果一个人要求它生产回形针,但没有具体说明数量,这个系统——不明白几乎任何东西都比回形针对人类的作用大——将把整个地球变成一个回形针工厂,然后殖民其他星球开采更多的矿石来生产回形针。这是一个可笑的例子,但却是一个广为流传的严肃例子。
 
 
 
 
 
 
 
创意性预防操作漏洞
 
 
 
持不同观点的另一方则对这种担忧不屑一顾。他们认为人工智能的危险极小,至少目前如此。正如斯坦福大学人工智能研究人员安德鲁·吴(Andrew Ng)所言,担心人工智能就像担心“火星上的人口过剩”一样。他认为,研究人员应该努力让人工智能发挥作用,而不是设计阻碍它的方法。
 
  
 
心理学家史蒂文·平克(Steven Pinker)则更进一步,他认为,对人工智能的可怕担忧其实是种“自我驳斥”。他认为,暗淡的前景取决于以下前提:第一,人类的天赋如此之高,以至于他们可以设计出一个无所不知、无所不能的人工智能,但又如此愚蠢,以至于会让它控制宇宙,而不会去测试它是如何工作的;第二,人工智能是如此的聪明,它可以成功地改造元素并重新连接大脑,但它是如此低能,以至于它会因为一些基本的误解而造成严重破坏。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。