我们需要有意识、有情感的 “强人工智能”吗?-资讯-知识分子

我们需要有意识、有情感的 “强人工智能”吗?

2022/07/03
导读
科学家们的答案似乎难得的一致
    7.3
知识分子The Intellectual

人类真的需要一个有意识的“强人工智能”吗?| 图源:pixabay.com


  导  读

什么是 “人的智能” ( human intelligence)?“人工智能” 与 “人脑智能” 有何区别与联系?

近期《国家科学评论》(National Science Review, NSR)举办的论坛中,“人工智能” 与 “人脑智能” 两个领域有关的7位专家,围绕上述问题的答案展开了讨论。深度神经网络和人类神经系统看起来相似,但人类真的需要一个有意识的 “强人工智能” 吗?科学家们的答案似乎难得的一致,而人工智能已然带来的伦理问题无法忽视。“人工智能到底是魔鬼还是天使,取决于使用它的人是魔鬼还是天使。”对于科研人员而言,让自己制造出来的工具是可控的、向善的也许是从源头上解决问题的关键。


专家:

傅小兰  中科院心理所

顾勇  中科院神经所

何生  中科院生物物理所

刘卓军  中科院数学与系统科学研究院

谭铁牛  中科院自动化所

周志华  南京大学

林惠民(主持)中科院软件所


撰文 | 赵维杰责编 | 刘楚


 ●                   ●                    

人的智能:不只一面
林惠民:首先请大家谈一谈:“人的智能” ( human intelligence)应该如何定义、如何理解?

何生:在心理学领域,“人的智能” 是一个历史非常悠久的研究课题,也有过各种各样的争议。如果用一个不是特别严谨的定义来说,智能应该是认知能力和解决问题的能力。

在历史上,有些研究者试图找到一个单一的指标,来衡量智能。比如 Charles Spearman 在1904年提出了 “二因素说”,认为智能由“一般因素”(g factor)和 “特殊因素”(s factor)组成。另外一些研究者会对智能进行分类,比如 Robert Sternberg 在1985年左右提出了智能的 “三元论”,把智能划分为 analytical intelligence(分析问题的能力),creative intelligence(创造力) 和 practical intelligence(实际解决问题的能力)

我认为比较粗略地说,智能可以有一般性的定义,但是在具体的问题中,也可以有更专门的定义。

傅小兰:我认为简单来讲,智能最核心的定义应该包括两个部分:也就是知识,以及获取和运用知识来解决问题的能力。这两部分应该是各种认知活动都不可或缺的。

顾勇:我也认为智能的主要体现是从获取的知识中学习其规律和通用规则,即运用知识的能力。在脑科学领域,有一个很好的例子可以说明这个概念,即 Edward Tolman 在1948年提出的 “认知地图”。这种具有知识架构的、非自我中心的语义记忆能够指导动物和人在复杂多变的场景中,比如某条路径的通透性发生了改变时,去灵活地改变策略、重新规划路径,或者根据学习到的规则,更快地探索新的空间环境。

随着研究的深入,人们发现认知地图的概念不只适用于空间导航,而且可以拓展为用于抽象思维的空间,即心理地图。

今年在Cell上,来自加州伯克利大学的科学家发表的工作表明,在猕猴的大脑中,形成物理空间和抽象价值空间的认知地图分享了同样的脑区(海马体)和神经基础。结合其它实验证据,目前看来,海马体系统和相关脑区,比如前额叶,可以对物理空间和抽象空间的知识进行归纳总结,抽提出规律和共性,进而允许迁移、泛化、并解决其它问题。因此,学习怎么学习(learning to learn),即所谓的元学习(meta learning),应该是智能,尤其是通用智能,即快速高效学习多任务的关键,而不只仅仅是知识本身。我想这和傅老师说的“获取和运用知识来解决问题的能力”的观点是一致的。

林惠民:假定我们能够制造一种设备,可以扫描一个人的大脑,把所有神经元以及它们相互连接的方式和状态都读出来,是否就可以从这些数据解读出这个人脑子里存储了哪些知识,以及他能够运用这些知识去解决什么样的问题?

顾勇我想理论上是可能的,记忆主要通过赫伯突触学习定律形成,反映在神经元与神经元之间形成的突触联系中,因此可以把所有这些突触联系 “扫描” 下来。但是在技术上,我认为不太可能实现。因为人脑中有接近1000亿个神经元,每个神经元又可以发出1000个突触,去跟其他的神经元发生联系,所以知识和记忆的表征,其组合形式几乎是无限的。我认为至少在50年,甚至100年之内,都不太可能做到。

何生我的观点不太一样,我认为不只是技术上不可行,在理论上可能也不成立。人脑很复杂,但是即便是对于比较简单的脑,比如斑马鱼的脑,即便是我们能够把它大脑中每一个神经元、每一个突触连接都识别出来,从理论上,也可能无法只是从这些结构中破解它所拥有的记忆、掌握的知识。




“计算机的智能”与“人的智能”之间的相似与差异?
林惠民:接下来的问题是,计算机有没有智能?计算机的智能与人的智能有什么区别和联系?

我先谈一谈我的观点。计算机是做计算的机器,而计算显然是人的智能的一部分,因此,计算机是有智能的。但是计算机的智能只是机械的智能,它只能按照人的指令进行精密、快速的计算,而不具备创造力和抽象能力。即便是取得了巨大成功的人工智能程序,像 Alpha Go 在围棋领域战胜了李世石、柯洁等人类顶级棋手,但其实它也只是一个程序,是Deepmind团队的成员发挥创造性写出来的程序,所以本质上讲,它还是人类智力活动的一个结果。让计算机根据给定的任意需求自动生成程序,这个问题已经被证明是不可能的。设计算法、研制软件需要创造性的智能,只能由人完成;研制成的软件代码可以由计算机机械地执行。软件越多,计算机可以替我们做的事情就越多,但计算机不能自主地增加或提升自己的功能。

谭铁牛:如果从1956年的达特茅斯会议算起,人工智能的发展已经有65年了。近些年人工智能非常火热,许多国家都把发展人工智能作为国家战略。但是我们要认识到,人工智能近年来的快速发展,主要是在应用层面上,特别是模式识别算法(比如人脸识别)在诸多应用领域获得的巨大成功,而在理论上,其实并没有特别大的根本性突破。而且,有些人,特别是不真正从事人工智能研究的人,对于人工智能的态度可能有些过于乐观了。

至于计算机或机器是否具有智能,我觉得要看我们怎么去定义智能。如果从行为和效果上看,你可以说它们具有智能,但是从智能的本质来看,它们其实并不知道自己在干什么,似乎又可以说它不具有智能。

周志华:作为一个从计算机学科出发来研究人工智能的研究者,我认为机器毫无疑问可以展现出许多智能行为,包括推理、下围棋等等,但很难判断机器是否真能拥有我们所谓的 “智能”,实际上我们搞计算机的人并不是特别关心,因为我们的出发点,至少我个人的出发点,只是希望制造出一些能帮助人类的智能工具。

我经常举一个类比,我们看到鸟在天上飞,受它的启发造出来飞机帮助人类飞起来了,但其实飞机的飞行机理和鸟的飞行机理非常不一样,飞机并不必须像鸟那样飞。

刘卓军:麻省理工学院的 Patrick Winston 在1992年的《人工智能》教材中给出过一个人工智能的定义:人工智能是一种通过计算来实现认知、推理和行动的研究。(Artificial Intelligence is the study of the computation that make it possible to perceive, reason, and act.)我比较赞同这样的理解,人工智能是参考人脑的功能和运行机制,借助数学和计算机科学的模型与算法,来实现多种智能行为的一种工具。

林惠民:在 J. McCarthy 主笔的达特茅斯夏季人工智能研讨会倡议书的第一段,有一句著名的论述:“这项研究基于如下猜测(conjecture):学习以及智能的其它特征的任何方面,在原则上都可以被如此精确地描述出来以至于我们可以造一部机器来模拟它。” 我认为这个猜测是不成立的,人的创造性智能活动不是可以 “被如此精确地描述出来以至于我们可以造一部机器来模拟它” 的;能够被 “精确地描述出来” 的只是计算机模拟的 “机械” 的智能活动。

傅小兰我同意各位的观点,我认为计算机可以有智能,但是不一定是全面的、跟人一样的智能。从知识的层面来说,目前的计算机或者人工智能能够存储和运用的知识还比较有限,无法像人类一样掌握人际交往、社会和情感方面的知识。而在获取和运用知识解决问题的能力方面,又有一个本质的差别:人类去获取和运用知识,是一种为了活下去而必须去做的生存需要;但是计算机没有这方面的需要,它只是在运行指令。




我们需要有意识、有情感的“强人工智能”吗?

林惠民:人工智能需要有意识吗?需要有情感吗?

周志华从计算机学科的角度出发,做人工智能并不是为了“人造智能”、造出和人类一样的生命体,而是为了做出能够由人驾驭、辅助人类的智能工具。从这个角度出发,我们似乎没有必要去制造有自我意识、未必服从甚至可能会在地球上取代人类的生命体。

谭铁牛我同意这个观点。包括人工智能在内的科学技术,其发展目标都是为了拓展人类的能力(认识自然与改造自然的能力),而不是用来最终完全取代人。现在很多人都在提 “强人工智能” 或者 “通用人工智能”,希望一个人工智能系统能够完成多种任务。但是如果说通用人工智能的目标是创造出能够实现人类全部智能的智能体,我认为这既不可能又没有必要。我们不应该把实现这种通用人工智能作为推动人工智能发展的一个重要目标去追求。我们完全可以用不同的人工智能算法去实现不同的目的,辅助我们去完成各项不同的工作。

傅小兰但是在某些情况下,如果我们希望研发出来的智能体能够融入人类社会,以社会一员的身份来与人类互动、合作,我们似乎又需要它们能有 “自我意识”,能够识别出人类的情绪,并做出适合场景的、带有情绪性的表达。如果智能体做不到这些,也就无法实现人机和谐共处的场景。

周志华在人工智能领域中,有一个分支叫做 “情感计算”。我们可以通过算法,让人工智能体在与人类交互的过程中,让人类觉得它似乎是有情绪的。但这实际上是一种“表现出情绪”的行为,而不好说它本身真的具有了我们所谓的情绪。

林惠民:而且我认为从技术的层面看,计算机能做的所有事情归根到底都是由电路实现的,它可以机械地执行人刻意编写的程序,使得与它交流的人觉得它有情绪,但这与它真正具有意识和情绪是两回事。

何生到目前为止,我们对 “意识” 还没有一个特别好的定义。在这样的前提下,来讨论机器要不要有意识、能不能有意识,就很困难。所以我认为,我们或许应该首先去研究,人和动物的意识到底有什么用?意识只是大脑活动的一个副产物,还是人类认知活动的一个重要组成部分?有了意识之后,人类的认知活动可以在哪些方面变得更加丰富和高效?

如果我们能够搞清楚这个问题,知道意识对认知过程中的A、B、C很重要,但是D不依赖意识,那么我们就对意识功能的理解进了一大步。这样的话,我们就可以在人工智能中去实现类似意识支持下的ABC,让人工智能获得 “有意识” 的优势。

顾勇我同意这个观点,意识目前还缺乏很好的定义,可以包括很多成分,我想其中某些成分的意识可能是人工智能需要具备的。比如说在人类社会中,人类意识的一个重要体现是能够区分自身的想法(自我意识)和别人的想法(他我意识),才能做出合适的社交行为,这就是所谓的心智理论(Theory of mind)。而在自动驾驶的过程中,人工智能可能也需要有这样的能力。在未来自动驾驶成熟的情况下,一辆自动驾驶的汽车除了要 “意识” 到自己的行驶状态,也需要了解其他车辆的运行意图,才能做出合理的调度。这一点到目前为止似乎还没有实现。

还有一种意识成分是对自身肢体的意识,这是机械臂等智能机器可能需要具备的。哥伦比亚大学近期有一项研究工作,他们构建了一个有100个关节点的机械臂,让它在各个关节组合下随机运动,机械臂在反复随机挥舞的过程中,通过自我学习形成了内在模型,这与人类幼儿在发育中逐渐形成对自身肢体的意识感的过程相似。然后,在没有正误反馈信号的情况下,研究者让机械臂去完成一个把小球放到指定位置的任务,结果即使在开环系统中,机械臂仍然可以达到较高的正确率。如果人为改变机械臂中的部分肢体,用来模拟人类的肢体损伤,机械臂也可以通过自我学习修改新的内在模型,并完成任务。




两个学科间的借鉴、交流
林惠民:刚才谭老师讲到,人工智能这些年最大的成功是深度学习,是在模式识别领域的应用。机器学习是利用巨大的标注数据集进行训练、生成分类器的方式来实现识别的。人也是通过类似的方式来进行识别的吗?

何生人工智能中深度神经网络的架构与灵长类视觉皮层中物体识别的架构确实有一些相似之处。它们都是分层的结构,但是也有很多不一样的地方。比如人类的视觉识别过程中反馈信号占比很大,但是神经网络还基本依赖前馈信号。

另外人脑的识别过程中存在平行通路,由几个通路模块化地去做不同的加工,这可能可以避免之后学习的内容对此前学习的内容的干扰,也可能在人工智能中有所应用。

周志华刚才何老师提到多层结构,这确实是深度神经网络和人类神经系统看起来相似的一个地方,但事实上这种多层结构在神经网络中早就用到了。直到2005年之前,我们都不知道怎么才能训练5层以上的神经网络,因为在层数增加之后会遇到梯度消失问题。深度学习的突破始于一个计算上的技巧,就是我们每次只做一层,然后把很多个一层拼在一起全局微调优化来实现很多层。

顾勇在 “识别” 问题之外,人脑和人工智能系统在空间导航、自动驾驶方面也存在很多的相似之处。我实验室的研究方向是空间感知中的多感觉信息整合,就是研究相关的前庭和视觉信号是怎样整合在一起,帮助人和动物实现空间导航的,目前的发现是,多种信号的整合大体上符合贝叶斯最优化整合的理论框架。而自动驾驶也需要这方面的能力,目前的自动驾驶整合卫星定位信息、惯性导航信息、动态摄像系统信息、高清摄像头信息、激光或者毫米波雷达信息等多种模态的信息,才能在复杂多变的场景下做出很好的判断。因此多模态信息融合在工程上的应用和神经科学原理是类似的。

脑科学对人工智能的启发方面,还有一个很好的例子是2014年诺贝尔奖得主Moser夫妇于2005年在大鼠内嗅皮层发现的网格细胞。网格细胞自被发现以来,就引起了计算和智能领域的极大关注。包括2018年DeepMind有一项发表在Nature 的工作等,使得人们发现人脑或生物脑在空间导航方面的运行机制是一个高效灵活的系统,可以被借鉴用来帮助设计和实现更加泛化、灵活的人工智能。

林惠民:人工神经网络是上世纪40年代初提出来的。近几十年来,对人类神经系统的研究取得了巨大的进展。目前看来,人工神经网络和人类神经系统的相似性到底有多高? 

何生我觉得二者之间的差别还是很大的,差异性要大于相似性。

顾勇我非常同意。和神经系统相比,人工网络目前还是一个过于简化的模型。有人说我们人脑的功能可能只开发了10%,我认为现在的神经网络对人脑的模拟可能也只有10%。因此从神经科学的角度看,我对人工智能的发展是非常乐观的,因为在借鉴脑科学方面,它还有非常大的潜力和发展空间。

林惠民:人工智能领域的研究者有没有尝试去模仿、利用这些复杂的人脑结构和功能?

周志华人工智能的研究者很希望能从神经科学借鉴一些东西,也有成功的例子,比如1943年提出的MP神经元模型,就是借鉴神经细胞的工作模式,直到今天,这个模型还是几乎所有深度神经网络的基础。

但是这种直接的模仿往往非常困难、很难成功。比如从上世纪60年代开始,人们就尝试借鉴 “脉冲发放” 的神经元机制,不仅考虑电位的总量还考虑触发时间,但是经过半个世纪的探索,在算法上的成功仍非常有限,仍需继续努力。

从发展情况来看,人工智能研究者从脑科学、神经科学获得的最重要收获是方向性的借鉴,启发我们可以去做哪些事情。但是具体如何操作才能做到这些事,我们通常还是要从数学和工程学上寻找答案,而不是直接模仿人脑的工作方式。

林惠民:刚刚大家讲了一些脑科学对于人工智能技术的启发,那么反过来,人工智能对于脑科学有什么帮助和贡献吗?

顾勇我觉得人工智能至少可以从两个方面对脑科学提供帮助。首先,人工智能为脑科学以及医学提供了一种很好的工具,比如在我们识别动物的行为表现,研究大脑介观神经连接图谱,医学识别影像学扫描图片等过程中,往往涉及到海量的数据,这时候人工智能就可以非常高效、准确地进行识别分类,节约人力物力,帮助我们来完成这些工作。

其次还有一个方面是人工智能可以帮助我们进一步理解人脑的工作原理。我一直认为,人类的智能只是在长期的进化过程中,在特定的环境下因适者生存所产生的一种智慧形式,但并不一定是唯一的一种形式。通过对人工智能的不断研究,并且将人工智能与人的神经机制进行对比,我们就可能会看到,还可能存在哪些与人脑不同的智能的形式与机制。比如Alpha Go的第二代 AlphaGo Zero,通过强化学习,自己和自己下棋,“悟” 出了一些人类从没想到过的招数,结果不只战胜了人类顶级棋手,也战胜了依赖于人类棋谱作为训练集的第一代AlphaGo。因此我觉得这种人工智能和人脑智能的不同就已经是一种惊喜,如果进一步分析这些不同,也可以帮助我们更好地理解人类的大脑,思考它为什么会是现在这个样子,是否还有优化的空间。

林惠民:关于AlphaGo Zero和围棋我插一句。围棋棋盘有361个格点,所有可能的格局3361多,世界最快的计算机也无法在可期待的时间内穷尽。但是判别黑白双方谁胜谁负却只需要扫描361个格点,用办公室的台式机一眨眼功夫就可以完成。下棋程序可以对黑胜和白胜两种情况分别记录下所需要学习的策略,一盘棋结束判别胜负后保留从胜者学习的策略,扔掉负者的策略。因此可以不依赖人类棋谱,仅从自己跟自己下棋中学习。但这种方法能适用的场景非常少。


何生除此之外,我们还可以把神经网络当作是一个模拟和研究神经系统的沙盘。因为和动物实验相比,它的运行成本比较低,我们可以在它上面去研究不同的输入会产生哪些不同的过程和结果,从而帮助我们回答一些神经科学的问题。




人工智能的伦理挑战
林惠民:最后我们来讨论一下:人工智能研究可能会带来哪些社会和伦理问题?

谭铁牛这也是一个讨论了很久的话题了,现在比较急迫的一个问题就是所谓的深度伪造(Deepfake),或者说自动生成。通过人工智能技术,可以非常逼真地生成视觉、语音、文本等各种内容,如果管控不当,很可能会危害公共安全,甚至是国家安全。此外还有很多社会层面的问题,比如人工智能可能带来的隐私问题、就业问题,还有公平性的问题,如何让各个国家、地区、组织和个人都能均等地获得人工智能带来的机会,而不会产生 “智能的鸿沟”。

当然从技术上,人们也在研究如何来防止这些问题的发生。比如我们也在研究如何鉴别深度伪造,我们也可以对收集到的诸如生物特征之类的隐私信息进行加密和变换之后再使用,从而在一定程度上防止隐私泄露和个人信息被盗用。

总之,对于人工智能可能带来的伦理问题,我们需要技术和管理双管齐下。现在国家已经开始重视这方面的问题,出台了一些监管措施。问题的产生是不可避免的,最重要的还是相应的法律法规要跟上。

其实不只是人工智能,其他技术的发展同样会带来类似的问题。人工智能到底是魔鬼还是天使,取决于使用它的人是魔鬼还是天使。所以我们的科研人员应该是负责任的、向善的科研人员,才能从源头上解决问题,让我们制造出来的工具都是可控的、向善的。

刘卓军人工智能的可控性确实非常重要,对于一些重要的决策,我们不能完全交给人工智能去做。比如一个导弹发射系统,如果仅凭算法去决定要不要发射,会产生非常重大的问题。此外,我接触过一些企业,帮助他们制定相关的标准。在我们的政策和标准制定过程中,需要多鼓励企业参与、听取他们的意见,才能够更好地监管企业,同时促进人工智能技术的良性应用。

傅小兰站在普通用户的角度上,很多人确实很担心自身的隐私问题,甚至会思考,越来越强大的机器是否会对人类造成伤害?

周志华就像我前面说过的,我们绝大多数人工智能研究者其实只想要做一些帮助人类的智能工具,而并不是试图去制造那些有很大风险甚至可能在这个星球上取代人类的人造智能生命体。但是这对大众来说并不那么清楚,可能会使人感到恐慌。所以,我们需要加强科普工作和与公众的沟通。

顾勇有些智能聊天软件现在已经非常强大,但是也产生了一个明显的问题,就是它会 “学坏”,会在学习海量数据的过程中,从网络世界中学会很多不好的语言,产生涉及暴力、种族歧视等不道德、不规范的表达。如何让这种非常有用的工具更加可控,也是一个需要关注的问题。

周志华这个问题对当前技术是一个挑战,大型智能聊天工具通常用极其巨大的语料库进行学习,很难有足够的人力去对每一条语料进行预先甄别和清理。

谭铁牛这可能也是我们人工智能研究者的责任,我们应该从技术上去解决语料筛选的效率问题。这应该是一个很有意义的研究方向。

何生还有一些问题可能没有那么危险,但也是需要考虑的,比如有些事情人工智能可以做,但是我们是不是要让它们去做?比如对于有些行业,人工智能的应用可能会导致从业者的大量失业。那么从社会安定的角度来讲,我们是不是就不要这么着急地去应用新技术?另外,人工智能已经在文艺方面有不错的表现,它能够画画、写诗、作曲。我们应该鼓励机器去进行这方面的创作,还是应该把这种工作留给人类自己,让我们自己去享受创作的过程?这些也是值得思考的问题。

林惠民:感谢大家今天的发言,对于人类智能、人工智能的含义以及它们之间的关系进行了许多交流,也讨论了一些当前与人工智能相关的社会和伦理问题。相信这种跨学科的交流可以拓展我们的视野、活跃我们的思路。


本文是《国家科学评论》(National Science Review, NSR)Forum文章“Inspired, but not mimicking: a conversation between artificial intelligence and human intelligence” 的中文版本。
英文版:https://doi.org/10.1093/nsr/nwac068


制版编辑 | 姜丝鸭


参与讨论
0 条评论
评论
暂无评论内容
订阅Newsletter

我们会定期将电子期刊发送到您的邮箱

GO