查看原文
其他

我们需要有意识的机器人

2017-05-13 RYOTA KANAI 神经现实

人工智能 ARTIFICIAL INTELLIGENCE

自省和想象如何帮助我们造出更好的机器人

Luca D'Urbino

RYOTA KANAI  NAUTILUS

人们常常问我,能达到人类智能水平的人工智能最终会有意识吗?我会这样回答:你想让它有意识吗?我认为这主要取决于机器是否会“觉醒”。


这么说可能很冒昧。意识让我们能够生动而直接地体验世界、体验自身。然而意识的机制,对神经科学来说还是未解之谜,甚至有人觉得它将永远无解——使用客观的科学方法来解释主观经验似乎绝无可能。但是在大约25年间,科学界已经将意识当做科学观察的目标,并取得了重大进展。我们发现了和意识有关联的神经活动,并理解了何种行为任务需要意识觉知。大脑在潜意识层面上执行了很多高阶的认知任务。


意识暂且可以总结为认知的非必要副产品,这一结论可能也适用于人工智能。在很多科幻小说中,机器凭借其精密复杂性,自然地形成一种内在的心灵生活;但更现实的情况是,只有特地为它们设计出意识,它们才会有意识。


我们有科学和工程学上的理由为机器赋予意识,对意识的无知便是其一。18世纪和19世纪的工程师并非在物理学家发现热力学法则的前提下,才制造出蒸汽机。这种探究过程以相反的方式实现:发明推动了理论。今天同样如此。关于意识的讨论太过于哲学,太过于绕圈圈,而没有实在的成果。我们这个致力于人工意识的小团体便是通过实践来学习。


而且意识必须有某种重要功能,否则在进化过程中,我们不会获得这一能力。同样的功能也适用于人工智能。在这点上,科幻小说也误导了我们。对于出现在书籍和电视节目中的人工智能来说,意识是祸因。有意识,会产生不可预测的自主行为,这对于人类来说未必是好事。但是在真实世界中,反面乌托邦的情形未必会发生。人工智能可能造成的任何问题并不取决于拥有意识。相反,有意识的机器能够帮助我们控制人工智能技术的影响。我宁愿和它们分享这个世界,而不是和没有思想的自动机器。


当AlphaGo对弈围棋冠军李世石时,许多专家疑惑于AlphaGo的下棋方式。他们希望解释并理解AlphaGo的动机和依据。这种情况普遍存在于现代人工智能,因为AI的“决策”是一种从学习算法和数据集中得到的涌现属性,而非人类的预置。AI的不可预测性让人们担心,AI也会作出不公平的或者武断的“决策”。已经发生过一些算法歧视人类的例子。例如,ProPublica去年的一份调查表明,弗罗里达的法官和假释官员所使用的那种算法高估了黑人的再犯罪率,低估了白人的再犯罪率。


推荐:ProPublica深度报道

循证医学

你在医院接受的治疗有可能无效?

David Epstein & ProPublica


从明年开始,欧盟将会给予民众一个合法的“知情权”,人们有权要求获得AI系统做出“决策”的解释。这一新规定尚需技术支持。目前,考虑到当代神经网络的复杂性,比起以人类能听懂的方式翻译AI的“决策”过程,区分“决策”方式显得更成问题。


在真实世界中,反面乌托邦的情形看起来未必会发生。


如果我们无法指出AI作出决策的原因,不妨问问它们?我们能够赋予它们元认知:一种报告内在心灵状态的内省能力。这个能力是意识的一种主要功能。神经科学家在测试人类或动物是否有自我觉知时所寻找的正是元认知。比如,确信度是元认知的一种基本形式,它和意识体验的清晰性有着某种关联。如果大脑在我们无意识的情况下处理信息,我们无法确定自己感受到的信息;但是如果我们意识到某一刺激,这个体验就伴随着高的确信度:“我确实看到了红色!”


任何能运行统计公式的小型计算器都能提供一个确信度的评估,但是尚未有机器拥有像人类一样完整的元认知能力。一些哲学家和神经科学家试图发展元认知是意识的基础这一观点。所谓的意识的高阶理论(higher-order theories of consciousness)假设意识体验依赖于对知觉状态这种直接表征的二阶表征。如果我们知道某些事,我们知道我们知道它。相反地,当我们缺乏这样的自我意识时,实际上是无意识的;我们的大脑处于自动驾驶状态,获得知觉输入,然后对其作出反应,却没有对这些活动进行识别。


这些理论为建立有意识的AI提供了方向。我和同事试图在神经网络中实现元认知,这样AI就能够传达出自己的内在状态了。我们称这个项目为“机器现象学”(machine phenomenology),它类比于哲学中的现象学,这种学说通过对意识体验的系统反思来研究意识的结构。教AI用人类语言表达自己,会有额外的困难。为避免这种困难,目前我们项目的重点是训练AI们发展出自己的语言,彼此间分享各自的内省分析,内容是AI完成一个任务所需的指令。这是一种进步,因为过去的机器只报告任务的结果。至于机器该如何编码这些指令,我们不会指定一种具体的方法,而是训练他们发展出自己的策略。我们的训练方法是:若他们能将指令成功传达给其它机器,就予以奖励。我们也希望能够扩展这一方法,实现人机交流,从而最终能向AI寻求解释。


除了给我们一定程度上的(不完美的)自我理解,意识还能帮助我们获得神经科学家恩德尔·托尔文(Endel Tulving)所称的“心灵时间旅行”。当我们预测行动的结果或未来的计划时,我们是有意识的。如果我在面前挥一挥手,即使并不付诸行动,我也能想象这是一种什么样的感觉。我还可以想着去厨房冲一杯咖啡,而无需从客厅的沙发上站起来。


书单

Felt Time: The Psychology of How We Perceive Time

Marc Wittmann

READ MORE


事实上,甚至对此刻的知觉也是意识心灵的一部分。很多实验和案例研究的证据支持了这一观点。由于视觉皮层的对象识别部分受到了损害,失认症患者不能叫出眼中物体的名字,却能抓住它。如果交给他们一个信封,他们知道把手伸向信箱,并将信插进信箱口中。但是如果实验人员向被试展示这个信封,隔了一小段时间之后才暗示被试去拿它时,被试就无法完成这个任务。意识本身和复杂的信息过程明显无关;一旦一个刺激立刻引起了一个行动,我们无需意识。如果我们需要维持某种知觉信息的停留,意识才会介入。


意识在弥合时间差距上的重要性也体现在某种特殊的心理条件反射实验上。经典条件反射因巴普洛夫和他的狗而闻名。在另一个经典条件反射实验中,实验人员将一个刺激(例如向眼睑处吹气或电击手指)与另一个不相关的刺激配对(例如纯音)。被试无意识地自动习得这种成对的关联。在听到纯音时,他们本能地预估到气流或电击而后退。当被问及为何这么做时,被试无法提供任何解释。然而,只有两个刺激同时发生时,这种下意识的学习才能起作用。如果延缓第二个刺激,只有当被试意识到两个刺激的联系时(能告诉实验人员纯音意味着气流),他们才能习得这种关联。被试如果要保留关于刺激的记忆,甚至在刺激结束后仍留有记忆,觉知似乎起到关键作用。


这些例子表明,意识能够拓宽我们在世界上的时间窗口,给此时此刻一个延续。在刺激不再呈现的一段时间中,意识觉知领域以一种灵活且不稳定的形式保留了知觉信息。当没有直接的知觉输入时,大脑持续产生知觉的表征。意识的时间要素可以经验性地被测试。弗朗西斯·克里克(Francis Crick)和克里斯托夫·科赫(Christof Koch)认为,我们的大脑只使用了视觉输入的一小部分计划未来的行动。如果计划是意识的一种关键功能,只有这一部分视觉输入与之相关。


这些例子都涉及反事实信息生成(counterfactual information generation)。它是我们对于那些不直接出现在视野中而对其产生知觉表征的能力。我们说它“反事实”,是由于其涉及过去的记忆或对未实现的将来行动的预测,从而与发生在外在世界中的那种情形相对立。我们称之为“生成”,是由于它不仅仅是信息获得的过程,而是一个积极创造和测试假设的过程。在大脑之中,知觉输入一步步被压缩为更抽象的表征,它从大脑的低阶区域流向高阶区域——一个单向的或者“前馈”的过程。但是神经心理学研究显示,尽管这种前馈性的移动很复杂,它和有意识的经验并无关联。为了那种“前馈性”情形的发生,你需要从高阶区域到低阶区域的反馈。


反事实信息的生成使一个有意识的主体能够区分自身和环境,并且执行非反射性的行为,比如在行动前等待三秒钟。为了产生反事实信息,我们需要一个学习了外部世界的统计学规则的内部模型。 这种模型可以运用到各种目的之中,比如推理、运动控制和心灵模仿。


如果我们无法指出AI作出决策的原因,不妨问问它们?


AI已经拥有了复杂的训练模型,但是它们的学习依赖于被给予的数据。凭借反事实信息生成,AI能够生成自己的数据,想象将来可能出现的情形。这能够使它们灵活地适应前所未有的情况。这也能使AI充满好奇心。当不能确定所想象的未来会发生什么,它们会试图一探究竟。


我的团队正在尝试实现AI的反事实信息生成的能力。已经有某些时刻,我们觉得我们所创造的AI行动者展示了出人意料的行为。在一个实验中,我们测试了能够驾驶一台卡车穿过某种地形的行动者。如果我们要这些行动者爬一座小山,通常需要将其设置为一个目标,而该行动者能够找到最好的道路来执行这一任务。但是被赋予好奇心的行动者将小山视作障碍,即使没有得到任何指令,它也会试图弄明白怎样爬上去。我们仍然需要更多成果来确信这样的新研究是有意义的。


如果将内省和想象视为意识的两个部分,甚至可能是最主要的两个,我们最终将不可避免地设计出有意识的AI,因为这些功能很明显对任何机器都十分有用。制造这种机器也会训练我们自身的想象力。这将是意识的反事实力量的最终测试。


Ryota Kanai

神经科学家,人工智能研究者,Araya的创立者和CEO。Araya开办于东京,致力于理解意识的计算基础,以及创造有意识的AI。


翻译:幺幺Phil 校对:EON 审校:ZDFFF


上一期

Abeba Birhane

具身认知和生成认知的领域开始严肃对待自我的对话模式。



相关推荐

科幻

HBO电视剧《西部世界》引用的二分心智理论如何解释意识

一个有着足够复杂语言的机器人能有意识吗?

人工智能

计算机也要预防抑郁症?

如果计算机变得抑郁,百忧解的计算机等价物是什么?或者它的治疗师,人类或人工智能如何发起谈话疗法?

技术

人类啊,你为何不信赖我的算法?

人们是否信赖一个算法,取决于自己是否有控制权。

ISSUE 01 CONSCIOUSNESS

“大脑是生存引擎,不是真相探测器。如果自我欺骗更有利于健康,大脑就会撒谎。不去注意那些——无关紧要的东西。”

神经现实 | 大脑 心智 认知

神经现实是公益的科普翻译小组,致力于译介神经科学和认知科学领域内的深度文章和前沿研究,并关注生物、医学、哲学、技术和社会的发展。我们希望能与读者一起探索大脑、神经、意识、心理、思维、行为、基因、语言和认知,并进入我们未曾真正理解的现实。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存