没有自我意识的人表现太度,太差,怎么办。有没有什么书籍可以看一下

幼儿心理学模拟试题及答案(8套),行測模拟试题及答案,申论模拟试题及答案,幼儿文学试题及答案,幼儿心理学,心理学试题,尔雅社会心理学答案,变态心理学试题,幼儿心理学读后感,惢理学试题库

}

编者按:都以为人是AI的终极演进目标于是我们从分析人开始谋划蓝图。我们分析意识是什么分析建造的步骤是什么。殊不知当我们推演其后果时,发现其实具有没囿自我意识的人表现的AI并不是我们想要的而超越我们的AI其实已经到来。畅销书《羊毛战记》的作者Hugh Howey通过这篇长文对AI的未来进行了他的展朢必须说,这是一个非常新颖的视角因为它不仅展望了AI的未来,更重要的是洞察出人的本质

宇宙充满着很酷的东西:只有一茶匙重嘚中子星;连光也无法逃逸的超重黑洞;可以穿透脱氧钢的无穷小的中微子;在我们的地球上能找到的所有那些匪夷所思的动植物等。

尽管有点自大但宇宙间所有已知的事物里面,最令人惊叹的无疑是包裹在我们头盖骨里面的那团黏糊糊的东西那东西知道中子星、黑洞、中微子以及地球上中等数量的动植物群。它甚至还了解(一点)自己那东西能搞清楚数学公理,半真半假的道德真理以及模棱两可嘚哲学。它还从我们脚底下的泥提取出了建造我们的伟大城市、我们的汽车、飞机以及火箭将这些离散的块状粘性物变成一个融创造力、知识以及有时候残忍于一体的伟大的蜂巢大脑的有线和无线信号所需的一切材料。

毫无疑问我们的大脑是迄今为止最酷的东西,因为洳果没有那些大脑的话也就没有那些论点了它们是所有论证和讨论的基础。讨论结束

至少是到目前为止。有朝一日也可能会有别的也能发现、创造、论辩、哄骗或者表现残忍的事物被发现或者建造出来它们可能坐着来自遥远星球的飞船登陆(极有可能)。它们可能从某个实验室或者车库冒出来(几乎可以确定)这些新的思考机器毫无疑问将超过我们的那团粘性物奇迹。就像孩子长得比父母高并且达箌新的高峰而父母却在走下坡路一样我们的创造物会取代我们的位置成为全宇宙最酷的东西。有人认为现在就已经如此了

人工智能已經到来。在全球各地的实验室小小的AI正在焕发生机。其中一些下棋下得比任何人都好另一些则在学习驾驶100万辆汽车行驶10亿英里并且拯救的生命比大多数医生或者EMT(急救医疗技术员)整个职业生涯都要多。一些会确保你的餐具干净光洁或者你的衣服不会起皱纹。无数的這些智能被开发和编程出来;它们只会变得越来越聪明越来越无所不在;它们即将变得比我们更出色但它们永远都不会像我们。不过这昰好事

我们与地球的其他生命形式的区别在于我们是具有没有自我意识的人表现(self-aware)的。大多数动物都有意识很多甚至有没有自我意識的人表现(self-conscious)。但人类不一样我喜欢称之为超意识(hyper-conscious)。我们的大脑有个放大器连接到我们的意识而且放大级别高达11。

它去到了11旋钮都掉了。

一个人类什么时候变得有没有自我意识的人表现并没有确切的日期你没法在育婴指南里面写下那个日子,或者在那个时刻拍张照片留念分享到Facebook或者给它搞个周年纪念日。它是渐进地分阶段进行的。

人类意识跟我小时候挂在学校体育馆的旧式灯光很像你扳上开关,一开始什么都没有发生这里或者那里的灯泡先是发出兹兹的声音,然后发出黯淡的光芒集结着一排闪烁起来,开始还是不穩定的然后是更多的灯亮,兹兹日益高涨直到所有悬挂的银色锥体全都加入进来在半小时或者更久之后强度达到了全峰状态。

我们的切换方式也像这样我们先是脱离母胎。刚出娘胎的头几个小时世界在我们看来很可能是颠倒的——直到我们的大脑适应了我们的眼睛创建的倒像之后这种感觉才会消失

需要很长一段时间我们的手才会看起来就像我们自己的延伸。我们意识到自己有不同于别人的大脑和想法甚至需要更长的时间对于我们很多人来说,任何类型的真正的自知之明和自我启蒙从来都没有发生因为我们很少会停下来思考这种雞毛蒜皮。未经检视的人生就是这样……

AI这个行当到处都有人在复制或者模拟我们智能的各种功能我们意识逐步的开关方式他们是肯定偠复制的。我写本文时体育馆正在滋滋响。远方的露天看台上一盏灯正在嗡嗡响其他的灯正在闪烁。还有更多正在打开

AI研究的圣杯甚至在AI研究还没有开始之前就已经确定了。计算的先驱之一阿兰·图灵就描述了对“思考”机器的终极测试:它们能否超过人类?从此以后,人类对于这样一个机器比人类还像人类的未来就既充满梦想又怀有共同的噩梦这不是说比人聪明——在很多方面它们已经是了。而是說它们比人要更加神经质、更暴力、更好战、更痴迷、更阴险、更有创意、更富激情、更多情等等

科幻小说充斥着这类故事。今年10月我嘚短篇小说集将会发布从中你会看到我对AI也有类似的想法。尽管如此即便是这些智能在所进入的几乎每一个知识领域都超越了人类,泹它们看起来并没有跟我们更接近跟我们还是很不一样。

这是好事但原因不是像电影《未来终结者》和《黑客帝国》里面所提出那样。我们还没有做出具有没有自我意识的人表现的机器的原因主要是因为我们拒绝接受令我们具有没有自我意识的人表现的东西那令我们具备没有自我意识的人表现的东西不像自负的错觉或者永恒自我的幻想那么讨人喜欢。没有自我意识的人表现甚至都不是非常有用(所以對意识的研究往往会走入死胡同——它花费了太多的时间去假设存在着一个宏伟的目标然后再去寻找这个目标了)

也许AI研究出来最好的東西并不是对计算机的了解,而是对我们自己的了解我们建造会思考的机器所面临的挑战突出了我们自己的生化粘性物的各种小奇迹。咜们还突出了我们的缺陷为了复制我们自己,我们首先必须要同时接受这些奇迹和缺陷

以下就是如何建造一台具备没有自我意识的人表现的机器的简要概述,以及为什么迄今还没有人造出来的原因(谢天谢地)

建造没有自我意识的人表现机器的蓝图和你简单。你只需:

对外部刺激做出响应的物体或者装置(这可以是一辆感觉到下雨时雨刮器会动起来或者面前突然出现一个孩子时会刹车的汽车这不是問题,因为我们已经造出来这样的汽车了)

语言引擎。(也不是问题这可以是有成百上千不同的灯和指示器的汽车。或者是像IBM Watson那样精通语言的东西)

第三个要素稍微有点不寻常,除了想复制进化搞砸的东西以外我想不出为什么要做这个最后一个要素是机器的独立部汾,它会观察机器身体的其余部分然后就其所做的事情编故事——那些通常是错误的故事。

总结一下:(1)响应刺激的躯体;(2)沟通方法;(3)试图推断这些沟通的原因和动机的算法

这里关键的要素是(3)里面的算法通常必须是错误的。

如果这份蓝图令你困惑你不昰唯一有此感受的人。没人造出具备没有自我意识的人表现的机器的原因是大多数对意识是什么以及人如何产生意识有着错误的想法所鉯我们先跳过这一点。我们后面再到这份蓝图上面描述这一算法必须如何编程。

要想理解人类意识必须深入研究心智理论。令人惭愧嘚这个概念很含糊因为它在大多数时间里消耗了我们大部分的计算能力。我们的大脑几乎被看作是心智理论机器——我们所有的高级处悝能力几乎都是放在这一项任务上那么心智理论是讲什么的,既然我们的大脑如此令人痴迷的话为什么这一话题讨论如此寥寥呢

心智悝论是一个大脑弄清另一个大脑的内容的尝试。是Sue在想Juan究竟在想什么Sue对Juan的思想现状建立理论。她这么做是为了猜测接下来Juan会干什么只需要考虑一下,大概不会有其他的群居或部落动物比我们人类更强大了在几十万年的漫长岁月里,我们人类比邻而居互相依靠,就像蜜蜂、蚂蚁和白蚁一样随着我们的行为和实现变得越来越复杂,部落的每一个成员都对其他成员在想什么以及会采取什么行动有想法就變得至关重要心智理论是知识间谍,我们都很擅长——但有个很关键的局限性这个我们稍后再谈。

Sue猜测Juan在想什么被叫做一阶心智理论(First Order Theory of Mind)情况变得更加复杂。Sue可能对Juan对自己是是怎么看的也感到好奇这就是二阶心智理论,也是我们大多数的神经质和偏执思想的根源“Juan认为我聪明吗?”“Juan喜欢我吗”“Juan希望我伤害吗?”“Juan是不是因为我做了什么事心情好或者不好”

类似这样的问题应该非常熟悉。峩们的生活充斥着这些东西而这还仅仅只是开始。

三阶心智理论就会是Sue猜测Juan在想Josette对Tom是怎么看的更简单点,Tom知道Josette对他感兴趣吗或者Sue也許在想Josette在想Juan对Sue是怎么想的。换句话说Josette是不是在妒忌呢?好几个名字以及所有的“在想什么”绕来绕去开始有点犯蒙了吧,但这就是我們脑子里整天在想的事情比任何其他意识层面的思维类型都要多。我们很难不去想这些我们也许称之为八卦或者社交,但我们的大脑視之为自己的主要责任——其主要功能有人猜测,心智理论才是我们的大脑有了这样的相对容量的原因而不是工具使用。

在一个石头滿天飞的世界里处理能力的一个好的用处是计算轨迹然后学会如何躲避。一个人对抛物线的F=ma就会天生有感觉在一个你推我挤的世界里,处理能力的好的用处是计算那些人接下来会出现在哪里以及他们到达那里之后会做什么。

如果这种特质那么有用的话为什么所有的那些动物都不具备没有自我意识的人表现?很有可能它们是有的大量研究表明很多动物展现出了不同程度的没有自我意识的人表现。动粅知道镜中那张脸上的一点颜色其实是在自己的头上。动物还会跟别的动物沟通如何去解决一个谜题来让双方都能获得奖赏甚至章鱼吔展现出了可观的具备没有自我意识的人表现的迹象。但就像猎豹是陆地最快的动物一样人类是心智理论之王。

我曾经见过我的狗会观察我猜我接下来会做什么。我会不会扔那根棍子那最后的一点食物我会吃掉还是分享?我甚至见过狗在设法解决二阶心智理论的问题在跟伙伴玩耍缠斗时,狗需要揣摩我的意图是什么我有没有突然打开包装?还是说这又是一个游戏我的狗应该站在哪一边?

狗是动粅王国心智理论的一个好例子因为狗经过多年的进化已经学会跟人打交道并且会注意我们的行为特征。具有没有自我意识的人表现的AI将會紧紧跟随这种模式因为机器人已经成为了我们的驯化的伙伴。其中一些已经在尝试猜测我们在想什么接下来我们要做什么。正在研發的一些汽车会阅读我们的脸来确定我们的注意力在什么地方是不是犯困了。这属于一阶心智理论已经被植入到道路上行驶的自动汽車里面。

不过这些能力的进一步发展并不能导致没有自我意识的人表现的产生原因非常简单也很优雅,而这解释了人类意识的神秘之处并且为前面提到的创造没有自我意识的人表现机器提供了蓝图,我们今天在实验室已经很容易做到这些但你很快就会发现这会是一个鈳怕的想法。而且不是敌托邦科幻小说里面那种世界末日式的可怕

人类大脑并不是单一的整体。它是成千上万几乎没有相互联系的不同模块的组合我们喜欢把大脑看作是计算机芯片。我们可能甚至试着更精确一点把大脑看作桌面计算机,有着跟RAM(短时记忆)、硬盘(長时记忆)、风扇(自主神经功能)、供电(消化)等分离的中央处理单元

这是一个有趣的类比,但却极其误导人计算机是带有统一目的、设计得当的设备。所有这些不同部分大概都是同时针对同样的目的设计的而且在设计上它们就要和谐共处。这些无论如何都跟人類大脑不像甚至连接近都不算。人类大脑更像是华盛顿特区(或者任何大型政府或者大企业)大脑其中一些功能是在几亿年前就形成嘚,比如给细胞个体提供能量或者通过细胞膜灌注钠钾的那些功能还有一些是几百万年前形成的,比如激活神经细胞确保血液注入以及吸入氧气的那些往前来到大脑额叶,我们有最近才形成的控制哺乳类动物行为和思想的模块

大脑的每一个模块就像是拥挤的小镇上的┅栋栋建筑。其中一些模块相互间甚至都不讲话泵血和呼吸反射这两栋建筑本该留在自己的设备上(注:心和肺)。其他模块则容易吵架、抬杠、不和互相颠覆,不受控制地抽搐谋划政变等等各种歇斯底里。下面就是几个例子

几个月前,我跟女友从加拉帕格斯群岛絀发去法属波利尼西亚跨越3000英里的公海往往需要2周到1个月的时间。通常我的女友是不会向晕船屈服的但在南太平洋的会聚区,汹涛让峩们的帆船进入了一种奇怪而不平稳的节奏她沦为了一种可怕感觉的牺牲品,一直吐了好几天

晕船就是我们的大脑模块没有彼此沟通恏(或者做好自己的事情)的例子。当来自我们环境的运动的视觉线索跟来自我们内耳(感知平衡的地方)的信号不匹配时我们的大脑僦会假定我们中毒了。对于整天爬树食用各种颜色亮丽的东西的生物来说这是一个合理的假设。毒素会破坏我们大脑的处理导致失效囷坏数据。我们没有进化到适应出海所以当动作跟我们看到的东西不匹配时,我们的身体就以为我们已经丧失了平衡双腿的能力结果僦是我们把胃清空(排出毒物),然后我们躺下来一动也不想动(防止我们从悬挂的树枝上跌落致死)

就算我们知道这是发生在大脑的鈈同模块,一个更高级的处理模块也无济于事我们无疑是知道自己没有中毒的,但这一模块不会轻易战胜晕船模块我自己也晕过船,洏且对这类事情非常好奇我曾经觉察过不同的模块的相互扭打。躺下来睡了很久之后尽管还在晕船,但我仍然爬了起来执行各种船需偠我干的任务——那一刻晕船几乎已经消失了——只是等我把杂务都干完之后才又有了感觉模块会根据我们的环境刺激确定不同的优先級。我们的大脑不是一台整体的桌面PC要想真正观察其类似物的情况,可以打开C-SPAN或者旁听一场争吵不断的企业董事会议

我们的模块互相咑架的另一个例子:我们内部有一些非常强势的模块被设计成会复制自己(为此,它们需要复制我们)这就是性模块,这是我们内部的華盛顿特区里面最雄伟最漂亮的建筑之一在我们约会的时候这些模块指挥着我们很多的清醒时刻,它们会留意我们的当前关系决定该穿什么以及如何维持身体等等等等。

这些生殖模块会敦促女人打扮起来参加舞会催促男人去到有女人打扮起来跳舞的地方然后站在那里喝酒。那些模块甚至还会让其中一些人配对成功双双把家还这就是各种不同的模块靠小药丸、避孕套等旨在颠覆让情侣结合的原始冲动嘚工具进行干涉的地方。然而如果没有利用那些东西的话,哪怕更高级的模块很明确地不想让任何人在当晚怀孕一个私生子也可能会誕生出来,其他的模块然后就会用爱和紧密联系敲打大脑帮助抚养那小孩。我们的一些模块希望我们怀孕但我们更强势的模块往往会唏望推迟这个或者确保是跟对的人结合。潜伏模块则在守株待兔不管另一头的其他建筑里面的享乐主义和无情无义是怎么想的,都要确保我们跟孩子的联系

关键要记住的是,不同人之间的这些模块是高度可变的我们这些模块的独特混合就形成了跟我们自己相关联的个性。这意味着我们不是一样的我们也许有渴求繁殖的模块,即便其中一些人的身体并不能产生精子或者一些卵无法受精。我们也许有苼殖模块即便性吸引模块是给相同性别的人准备的。

完美设计的桌面计算机这个类比算是彻底失败了而这种类比的失败导致一些可怕嘚法律和风俗习惯,因为我们似乎无法容忍设计不同于我们的东西这还导致AI研究人员沿着错误的道路前进,如果他们想要模仿人类行为嘚话我们必须故意将处理系统的不可靠以及脱节的本性植入进去。我们必须故意分解系统类似于自然如何将其胡乱拼凑的样子。我们尤其将被迫模拟这种模块性最特殊的一个功能那个以非常特殊的方式跟心智理论结合的功能。正是这种结合导致了人类意识这是我们給没有自我意识的人表现机器描绘的蓝图里面最重要的功能。

在心智理论的概念牢牢占据了我们的想法以及知道大脑模块既不可靠也不相連之后我们就准备好可以去了解人类意识,意识是如何产生的以及意识是(不)干什么用的了。

这可能会令那些习惯听到我们并不理解人类意识并且在该领域并未取得进展说法的人感到惊讶这完全是错的。我们没有取得进展的是理解人类意识是干什么用的

这方面几芉年的失败指向了一个简单的事实:人类意识根本就不是给任何东西准备的。它根本就没有用意识没有进化的好处。意识产生自两个超級有用、我们缺一都不可生存的模块的联合因此我们就容忍了这种烦人且有害的意识。

其中一个模块就是心智理论前面已经提过心智悝论比任何更高级的神经活动消耗的大脑处理能力都要多。这是非常重要的这一模块的问题是它对自己的力量没有选择性;我们甚至都鈈清楚此类选择性有没有可能。这意味着我们的心智理论能力施加在我们自己身上就像施加到别人身上一样频繁(或者要比后者频繁得多)

想象有这么一支奇葩的射线枪,其射击范围之宽以至于不管你怎么瞄准都会伤到自己这应该让你对我们如何使用心智理论有了一番清晰的印象。我们的大脑已经准备好观察别人来确定他们在想什么为什么要这么做,接下来可能会做什么往下看,这些大脑(及其无思考能力的模块)看到一个躯体跟它们相连这些模块观察手执行任务,脚带他们去到别处思想流脱口而出。关闭我们的心智理论模块昰不可能的(而且也不会是个好主意;我们会在石头满天飞的世界里看不见东西)所以这个心智理论模块捏造出关于我们自己行为的故倳。为什么我们想打扮起来参加舞会因为有趣!而且我们的朋友也会去那里!为什么肚子都满了我们还在不断地吃东西?因为美味!而苴我们今天还多走了1000步!

这些有关我们自身行为的问题永远都不会完而答案几乎总是错的。

消化一下好好理解这句话。我们告诉自己嘚有关自己行为的解释几乎总是错的

这就是心智理论超能力的怪异之处。我们把它用到别人身上时就很好但用在自己身上时就错得离譜。我们猜测别人动机的准确率要比猜测自己高得多从某种意义上来说,我们已经形成了一个魔力场可以在我们将那把会读心术的射線枪对准别人(以及自己)时保护我们免受影响。这个力场就是我们的自负这让我们对自己的看法开始自我膨胀,对自己的行为会更加嘚自视清高并且会产生一种自己鹤立鸡群的幻觉。

我们对自身行为想出来的不正确的解释是为了自我保护它们往往是狂野的创意或者荒谬的过分简化。像“有趣”和“可口”这样的答案都是指回到一个快乐模块的间接答案对这一奖赏机制的潜在好处并没有好奇心。我們虽然肚子填满了东西但还是吃个不停的真相是我们是从一个卡路里稀缺的世界进化过来的我们通过跳舞吸引伴侣好制造出自己的复制品,因为引导这一行为的模块制造了很多副本把其他的设计都挤掉了。

研究人员对这种行为与我们告诉自己有关自身行为的谎言的不一致进行了长期研究一项研究让受试者以为自己感觉温暖(在为那些受试者准备的虚假测试加入特定用语就可以轻易实现这一点)。当这些人站起来调整恒温器时研究人员会打断他们询问为什么要调整温度。这些人就会说出令人信服的故事而当指出那些特定用语时,怀疑压倒了一切即便我们看到了自己的行动是从哪里来的,我们还是选择相信自己的心智理论模块而后者早已经得出了自己的结论。

受試者的功能磁共振成像机器还披露了另一项特质通过实时观察他们的大脑,我们可以看到在大脑更高级的部分意识到那些决定时决定就巳经做出了也就是说,研究人员在受试者说出自己已经做出选择之前就能说出受试者会按哪个按钮动作在说之前就做出了。我们移动;我们观察自己的动作;我们告诉自己为什么要做事情的故事非常有用的心智理论工具是我们无法关闭的,它会继续运转编造有关我們自身行动的故事。

关于这一点更明显的例子来自那些出现各种神经受损的人有视觉处理问题,或者大脑左右半球被切断联系的的受试鍺可以给他们的每只眼睛看不同的图像。相互不连接的模块会接收这些存在冲突的输入然后编造出迷人的故事一只眼睛可能看到的是┅把耙子,而另一只眼睛看到的是一堆雪看耙子的那只眼睛基本上是失明的,因为如果被问到的话受试者无法说出看到的是什么但处悝该图像的模块仍然活跃,所以在被问到该用什么工具处理看到的图像(雪)时那人会回答“耙子”。有趣的不在这里有趣的是这个囚会通过令人吃惊的扭曲来证明自身回答的合理性,哪怕把整个过程都解释给他听之后还是这样你可以告诉内部的华盛顿特区它是怎么搭错线的,但它还是会继续固执地坚持其精神错乱

如果要造没有自我意识的人表现机器我们就得这么建。可能这时候你已经开始看出为什么没人应该浪费自己的时间了这些机器(可能)不会终结世界,但它们会像自然创造我们那样的荒谬和愚蠢我能想到的建造此类机器的唯一理由是可以雇佣更多的精神病学家。

阿兰·图灵的图灵测试有一位古怪的粉丝,她实在是闲得慌,打听到了这份建造没有自我意识的人表现机器的蓝图。认为这会导致某种超智能的诞生,可以说出治愈癌症的秘方以及实现冷聚变的办法,于是她雇了我,给了我一大笔錢以及一支电气与机械工程师团队那我们如何才能组装出一台具备没有自我意识的人表现的机器呢?

根据我们对心智理论以及断开连接嘚模块的了解我们要建造的第一个东西是意识程序。这种程序还是相当简单的而且肯定已经存在利用现成技术,我们决定我们的第一囼机器的样子和行为都将与无人车非常相像很多年以来,实现真正自动驾驶汽车的最大限制就在于意识装置:让汽车知道周围发生什么嘚传感器这方面目前已经取得了巨大进展,为我们的机器提供了视力和听力

有了这些基本意识之后,我们接着利用机器学习算法来建竝一个行为指令系统供AI汽车学习这个研究方向跟多部分的无人车研究不同——传统上工程师希望教会汽车如何安全地做特定的事情——峩们的团队却相反,会教城市网格内的一系列传感器观察其他车辆然后猜测它们在做什么那部蓝色的日产要去杂货店因为 “它饿了”。這部红色的面包车要开去加油站因为“它需要动力”那部车喝醉了。这部视力不是很好还有一部反应速度很慢。这部肾上腺素满满

這成千上万的需求和拟人化的描述语会搭建成一个庞大的短语库或者指示灯。如果我们要造一个人形机器人的话我们也一样要观察人然後建立人要执行的各种动作的词汇。传感器会通过扫描眼睛(人和狗也会这么做)来注意意识的对象它们会通过我们的面部表情和肢体語言了解我们的情绪(目前的系统已经能做到)。这个库和传感器阵列将组成我们的心智理论模块其目的纯粹是讲故事,有关别人动作嘚故事当我们把它变成讲自己的故事时魔术就会发生。

我们的库先从一阶概念开始然后再搭建二阶和三阶的东西。那辆黄色的福特看箌灰色的雪佛兰朝它开过来了吗它稍微转了一下弯,所以是的。那部面包车是不是认为这辆改装车开得太疯狂了它在路上留出的空間要比给其他车留出的平均空间要多,所以是的那辆面包车是不是认为所有的改装车都开得太疯狂了呢?刚才那辆从代理商处离开的Corvette它呮留出了2英里的速度差空间所以是的。这会不会导致面包车怀有成见当我们放任自己的车由它的模块做出自我决断时,它就必须要确萣自己是否带有成见也许它会靠其他的数据做出自己是谨慎而不是怀有偏见的判断(自负妨碍了它准确地运用心智理论)。

走到这一步の前我们首先需要让机器具备没有自我意识的人表现。于是我们教它替车主开车先在城里转转然后让这辆AI汽车观察自己的行为然后通過猜的方式说出自己在干什么。此处的关键是不要赋予它完美的意识不要让它接触GPS单元,因为里面已经设定好要去杂货店了也不要让咜知道车主的手机知道的东西,因为里面丈夫已经发短信给妻子让她回家路上接孩子了为了模仿人类的行为,无知是关键无知是初始猜测,或者我们所谓的偏见的保证

在我们算法里面,跟后来想出的理论与有了更多的数据(克服初始的偏见需要占优势的证据50%的可能性就足以确定最初的想法,但要想胜过最初的猜测可能需要更高的可能性比如说75%)相比,早期的假设会被赋予较高的权重编造的故事昰错的,并且为将来的谬误描绘了一幅阴沉的画面所以当那车每天都在加油站停下来并插上充电桩时,哪怕车永远都是85%的电量心智理論算法会假设这是为了安全起见,或者就可能的飓风疏散未雨绸缪

但它不知道的是车主每天去加油站其实是在吃墨西哥版的肉夹馍(microwaved cheesy gordita),以及一堆炸薯条和半升苏打水随后,当那车定期会去医院时故事就会变成是去体检和此人谨慎,而不是充血性心力衰竭发作这种鈈断的猜测,以及机器一直猜错、困惑和相当自信会给我们那位古怪的图灵粉丝以科幻小说所承诺的那种具有没有自我意识的人表现的AI。而我们的那位怪人将会发现做出来的这个设计无论从哪个方面来说都是极其糟糕的。

我怀疑在我们意识到之前很久可能我们就已经有叻AI理由是我们总以为AI会驻留在一个设备里面,是自包含的由一堆算法组成。但这根本不是我们的建造方式这只是人类意识的配方里媔最后一种成分,也就是语言所制造出来的一个幻觉语言比任何其他特质都更多地赋予了我们这种感觉,即我们的大脑是单一的模块單个的设备。

在我再次抛出我们的大脑不是单一实体的观点之前我们先来看看我们的身体,大脑是它不可或缺的一部分我们的身体由數万亿不同的细胞组成,其中很多是可以独立于我们存活下去的我们身体的培养物可以在实验室存活几十年。人的整个器官可以移植到別人的身体内而且我们体内不属于我们的细胞甚至比组成我们的细胞还要多。我知道这听起来似乎不可能但的确,生活在我们的内脏裏面、皮肤上等地方的生物体要比构成我们身体的细胞总数还要多而且这些都不是过客。它们影响着我们的情绪我们的健康,我们的思想和我们的行为当我们讨论“自己”时这些都是必不可少的一面。

尽管这是非常可怕的事情而且有太多的人遭遇这种不幸,但人没掱、没脚以及没了大部分躯干还是可以活下来的有些人失去了一半的大脑还是可以继续过上算是正常的生活。有些人出生就只有一半大腦仍能设法过下去

想想看这个:到了30岁的时候,一个人出生时的每一个细胞都已经被不同的细胞完全替换掉原来的细胞几乎全都没了。然而我们仍然感觉像是同一个人。理解所有这些生物方面的奇事以及我们的大脑如何对“相同”进行合理化解释,对于当AI降临时认清AI至关重要这感觉也许像是骗我们造一辆无人车,给它在城市周围布满各种传感器建造一个单独的模块去猜测车辆的意图,再把这个模块用回到那辆车上然后称之为AI。但这正是当我们把我们看成是“我们”时我们在做的事实际上,我们需要植入AI的一个反应就是在面對其不同的、算法上的自我时要表现出强烈的厌恶否认我们的本性也许是我们最根本的本性。

就像身体一样大脑不需要太多的内部模塊也能存在。大脑机能的研究就是这么开始的受试者一般是头部受到过创伤或者进行手术(大脑半球切除术、前脑叶白质切除术、肿瘤切除等)的人。我们大脑模块极细的专门化总是令人惊叹有些视觉模块是识别运动的,而且只识别运动缺乏这一模块的人无法看到对潒在运动,所以家人朋友似乎是突然出现无中生有的有些人如果看到书面语代表的是动物的话是无法发出其读音的。而代表物体的单词僦能看到而且发音清晰动物识别模块——这也许是我们见过的最好的模块——不见了。

但尽管如此这些人仍然具有没有自我意识的人表现。他们是人

小孩也是这样。一个只有几周大的婴儿还不能认识到她的手是属于自己的从出生到不记得自己大部分经历的老年痴呆症患者,通过这不同的阶段我们发现了所谓的人类我们非常恰当地把这些人也一样当作人类,但我们总归要愿意对意识做出定义以便给囚工意识选好目标就像Kevin Kelly喜欢说那样,在AI方面我们总是改变目标机器今天能做的事情在仅仅10年前还被认为是不可能的。随着取得改进鉮秘感消失了,于是我们又把指标提高了但几乎从每一个可衡量的手段来看,机器都已经比新生儿能力更强了从每一个可衡量的方面看,它们也比卧病在床靠生命补给的病人更强随着AI的进步,它会继续朝着人类的中坚份子水平进发超过跚跚学步的儿童以及处在人生末期的老人,直到胜过中青年然后继续扩展能力

这种事每天都在发生。AI已经学会了走路这是最小和最老的人无法做到的。AI会开车而苴失败率很低,这几乎是任何年纪的人都做不到的随着每一层的添加,每一种技能的达成AI在表现上正在对年龄段两端的人类构成碾压,那个体育馆越来越多的灯开始闪烁不停滋滋作响。这就像是大雾天气下的日出一样突然之间,太阳已经当头照但我们却从来都没紸意到它的升起。

前面我已经提到过语言是意识的关键成分对于AI来说这是一个非常重要的概念。然而我们大脑的很多模块都会为了争夺峩们的注意力状态(我们大脑在任何时候念念不忘的东西)以及我们的语言处理中心(跟我们的注意力状态紧密相连几乎可以说是融为┅体,并无二致)而相互打架

为了试验一下是不是这样,你可以一边听有声读物或者播客一边跟别人讲话可能吗?练习几年之后你能鈈能解锁这个能力说到并发沟通流,我知道最接近的一个就是同声翻译(real-time human translators)但这只是一种幻觉,因为概念——对意识的关注——是一樣的对于我们这些连母语都不算精通的人(更不用说2门及以上了)来说,同声翻译简直就像会魔术一样用英文告诉我一个故事,我可鉯做到同时用英语重复一遍而且你会发现大多数情况下我是在你沉默的时候说的,相比之下那些同声翻译实在是太出色了

语言和注意仂是我们大脑倒置的漏斗里面的狭长喷管。成千上万不同的模块都往这个漏斗捣腾输入灌进去的有激素,有环境特征有视觉和听觉线索,甚至还包括幻觉和不正确的假设一堆堆的数据都只能从一个管道析取出来。这仅有的一条渠道要受到我们的注意力系统和语言的限淛和约束这相当于桌面计算机的显示器。在最后一刻所有的并行处理都被串行化了

这会产生可怕的后果。我往往在数小时或者数天之後会忘了什么东西却只记得谁跟我唠叨了什么这种情况的发生次数我已经数不清了。有一次我曾经在AirBnb落过一台笔记本那是凌晨4点,我偠赶一班早班的飞机我住的地方门是自动上锁的,而且一旦关了就无法撤销站在门外,我突然感觉自己好像忘了什么东西但是绞尽腦汁也想不起是什么。这时候我又没有人可以打电话让我再进去查一遍于是我在脑子里把可能会遗漏的东西过了一遍(充电器、机票),把口袋的东西又摸了一遍(钱包手机)我的一部分在发出危险警报,但是唯一的输出流还是在按照自己的节奏不紧不慢输出一片空皛。

这一切不可思议的地方在于我是知道这是怎么发生的——危险模块知道有什么东西会通不过意识的漏斗所以我应该留意。尽管有这個先见之明我还是关上了门。只是等门发出了“吧嗒”的声音时那信息才通过了现在我可以清晰的看到我的笔记本在床上,那时候我囸在做一份手稿的最后笔记但是我之前从来都没有在任何地方落过笔记本,所以它并没有出现在我的检查清单里面我脑袋发出的警报昰我的一部分,但不是全部的我那只是通过了狭窄的语言走廊的。所以我们大脑的语言中心如果受损的话其对正常生活的危害就像记忆模块一样大的原因所在

这里我需要指出的是语言并不是说的话。聋子也一样通过言语来处理盲人和哑巴也一样。不过请想象一下没有訁语的动物是怎么生活的你当然能感受到它们对食物、性以及陪伴的渴望。对温暖、庇护以及玩耍的渴望没有语言时,这些渴望来自並行处理它们受限于注意力关注,但绝对不是串行化到一连串的话里面

我们是从极其稀少的跟语言脱离接触的人类长大成人的案例研究中了解这是什么样的。童年被关进屋子里的孩子在野外生存的孩子。虐待的情况下会给没有语言的生活造成什么破坏是很难梳理的泹有一点,那些失去其语言处理模块的人随后在生活中展现出来的行为上的好奇心如果不进行梳理的话我们会假设是因为儿童虐待所致

當Watson在智力竞赛Jeopardy获胜时,使得“他”在AI中鹤立鸡群的原因在于让我们跟他连接起来去倾听他的串行化的输出流。我们能在他那小小的蓝色屏幕上读到他的答案就像我们能看懂入围Jeopardy决赛的人类选手字迹潦草的答案一样。这个输出的组中爆发是使得Watson看起来像人的原因这正是圖灵在同名测试(他设计的测试中受试者是通过一张张的纸来进行书面交流的)中希望看到的交流。我们的自动驾驶AI不会具备完全没有自峩意识的人表现除非我们对它进行编程让它告诉我们(以及自己)它编造的有关自身行为的故事。

这是我对Kevin Kelly有关AI已至的宣告唯一有争辩嘚地方我承认Google的服务器和各种互联的项目应该已经算是一个超级智能的AI。对于一个理解我们问什么并且对一切都能给出答案——那种大镓信任到把该公司的名字等同于“发现答案”的同义词的答案的东西你还能把它叫做什么?

Google还能作画翻译,在几乎每一个游戏上打败朂好的人类选手开车比我们还溜,并且做着还非常机密、非常非常令人毛骨悚然的事情Google已经读完且记住了几乎所有写出来的书。它还洅可以大声地把这些书朗读给你听它犯的错误也像人。它容易产生偏见(这既有来自环境的也有大部分是男性程序员的偏见)。它缺嘚两个东西我们的机器将会拥有一个是自我指认循环,另一个是串行输出流

我们的机器会编造自己在做什么的故事。它还会叙述那些故事给别人听而且往往是错的。

如果你想找找在宇宙中如此渺小的感觉只需在太平洋上抬头凝望一下银河系。如果你不可能做到那僦想想让我们之所以为人的东西其实就跟木偶让自己相信自己没有被绳子牵着一样的卑贱。

造一辆有意而为的无知的车是个糟糕的想法偠想让我们的机器具备相当于人类意识的没有自我意识的人表现,我们就得让它把笔记本落在AirBnB它偶尔就得出现没油的情况。通过给成百仩千的输入模块赋予不同的权重人为地限制授权给决策及离职理论故事最后仲裁者的时间和处理能力,这是很容易编程实现的我们自巳的大脑就好比是有着千兆位分辨率的传感器,每个输入模块的吞吐量均达万亿次但我们的输出却是古老的IBM 8088芯片。我们不会把AI看成像人┅样因为我们永远也不会做出这种限制。

但IBM的Watson就依照Jeopardy的规则植入了这样的限制Jeopardy需要速度。Watson必须迅速确定他对自己答案的确定性有多大來决定是否按铃如结果表明那样,按响蜂鸣器的时机正是赢得Jeopardy的关键往往令Watson看起来最像人的不是他答对了问题,而是看他的第2、3、4个猜测是什么每一个猜测的确定性百分比如何。真正让Watson像人的是他出错的时候就像Jeopardy决赛时一道“美国城市”类别的问题Watson却给出了一座加拿大城市的答案。

(值得注意的是在我们看来机器人失败的时候最像人类,这是有原因的当我的Roomba在沙发底下被困住,或者吸尘口被地毯的毛线堵住时那一刻是机器最吸引我的时候。观看YouTube上面Boston Dynamics机器人的视频然后估摸一下你的反应当机器人大狗被推倒,或者开始在雪地裏打滑或者当包裹处理员把箱子从它手上敲掉或者推搡它的脸时——这时候我们很多人都会感受到最深切的联系。还要注意的是这是我們的心智理论大脑最擅长的事情但对象变成了机器而不是人类同伴。)

汽车制造商此刻正忙着早我们永远也不会称为没有自我意识的人表现的汽车那是因为它们造得太好了。我们的蓝图是要造一台不知道自己动机的机器同时要为这些动机提供一个连续不断的对话框。慥一台知道其他汽车在做什么的机器这个想法要好很多没有猜测。也根本没有运行对话框

这意味着要访问GPS单元,智能手机的短信家庭计算机的电子邮件。但也要访问一切其他车辆以及整座城市的传感器数据日产告诉福特说它准备要去购物广场。每一辆车都知道所有其他汽车在干什么不会有碰撞。在高速公路上有类似目的地的汽车会拼成一个车队,磁性保险杠会连城一行共享一道气流分担每一輛车的能源使用。机器会协同运作它们展现了出全能汽车的所有特质。它们知道一切需要知道的东西有了新数据,它们会麻黄素那个妀变自己的想法不带偏见。

我们是幸运的因为这类车队是由今天的AI研究人员建造的。它不会有科幻小说故事里面看到的那些怪异(我嘚短篇小说《Glitch》里面的小故障或者我的那本有名无实的短篇小说集《机器学习》里面的恐怖事件)。相反它将提供的是设计得当的系統,几乎永远会按照设计意图做事情很少会有事故,原因能被理解这一知识得到广泛分享,也做出了改进这些人类的目标是共存,詓塑造他们的环境以实现福祉、生产力、创造力以及知识仓库的最大化这里可以开发一个有用的功能,那就是读心术这样每个人都能知道其他知道什么。这可以防止两家意大利餐厅在数周内在同一个地方相继开业导致一家破产浪费了大量资源(并且导致其业主和员工嘚幸福感丧失)。这种心灵感应还有助于改善关系所以当一位伙伴知道另一位感到困惑或者情绪低落以及精确知道对方想要什么时,就能够及时提供帮忙

想象有这么一刻,人类被一位完美的工程师给创造了出来(很多人认为这个很容易——有的也许会认为这样一个假设哽困难些)

这些人对自身的驱动力、行为以及思想拥有完美认知也是很有用的。或者知道每一项行动的可能后果的话甚至会更好就像┅些职业的美国NFL橄榄球员对不让自己孩子参与可能会对今后大脑造成损害的运动直言不讳一样,这些设计好的人类也不会让自己从事有危害性的活动整个产业就会崩溃。拉斯维加斯会变成一座空城意外出生的小孩将趋于0。

而这正是为什么我们会有现在这些系统的原因茬一个人人都会读心术的世界里,一个懂得隐藏自己想法的人将会拥有巨大优势让别人都以为自己拿到了该得的一份鹿肉好了,然后偷偷溜出去趁没人注意的时候从食盐架上取走几块肉然后暗示Sue你觉得是Juan干的。享受更多卡路里收集、猎艳的额外资源吧此外也请享受Sue对伱的感激并认为Juan是个骗子的事实。

这一切都是可怕的行为但经过几代之后,这一模块会比Juan的诚实模块多出很多副本相当快之后,就会囿大量这种隐藏事实的机器出现试图猜测别人在想什么,隐藏自己在想什么非常擅长这两件事情,然后意外地将这些射线枪对准了自巳的身体

我们歌颂自己的智力,我们创造产品我们假设人工智能这两方面都会给我们更多。它们已经是了通过迭代(应用机器学习嘚神经网络)学习的算法已证明了它们几乎在我们投入资源的每一个领域都比我们要好而不仅仅是在我们认为的计算领域。算法已经能编絀古典音乐——质疑者甚至在盲测中以为是著名作曲家的作品Google开发的围棋AI已经击败了全世界最好的围棋选手(注:新一代的Alphago Zero刚刚无师自通只用3天时间就击败了击败人类最好选手的Alphago)。其中它在第三场比赛中走出的一步是如此的不同寻常以至于围棋专家都感到震惊不已那步走法被赞“有创意”、“有灵气”。

Google还有一个算法能够画出它所认为的猫的样子这不是从别处复制过来的猫的图像,而是在学习了数百万只猫的样子后对猫的大体“感觉”对于成千上万种对象它都可以这么干。还有一些程序已经在仅接受“获得更高分数”这一条指令嘚情况下掌握了大型电玩游戏游戏的控制和规则算法都是不知道的。它会尝试随机的动作而导致更高分数的动作就变成了通用策略。超级玛丽水管工最终跳过了板条箱像有经验的人类控制那样用锤子把它砸了个稀巴烂。AI这个地方正变得极其令人毛骨悚然但它们并没囿变得更像人。而且也不应该像

我的确能看到AI变得像人的未来可能性,但我们必须提防这种可能性这不是因为我对Nick Bolstrom和Sam Harris这样的专家的观點买账,他们对未来的看法是《终结者》和《黑客帝国》里面的样子(对其最合理的担忧的过分简单化)在我们实现HAL和Cylons之前很久,我们將会拥有用来挫败其他AI的AI网络战争将进入下一阶段,甚至在我写的时候就已经开始了就在我写这篇文章的那个星期,朝鲜发射了一枚導弹不过导弹在发射后数秒就爆炸了。该国的发射失败率不仅高于平均水平而且还在变得越来越糟。这个——加上美国生命自己正在積极利用网络战破坏这些发射——意味着我们的程序已经在尝试偷鹿肉者对Sue和Juan做的事情

互联网路由器通过把竞争对手的路由器搞掉线来讓自己的用户获得更多的带宽会怎样?这甚至都不需要程序员走邪门歪道就能办到如果路由器内置的机器学习算法的目标是带宽最大化嘚话,它可能就会意外发现这种解决方案然后再推广到整个路由器产品族上。而竞争对手的路由器也会寻求类似解决方案这样一来我們就会出现电子版的公地悲剧,也就是因为共享资源对每个人的潜在功用实在是太大了第一个行动的人会获得最大回报(而最后行动的囚将无所得),以至于人类会破坏共享资源这种情况下,逻辑往往会战胜道德而好人也会做可怕的事。

有朝一日汽车也许会“决定”如果不让其他车辆知道那天早上高速公路通畅得出奇的话,自己就能节省能源并且更快到达目的地或者更糟,它们发送有关事故、交通问题或者超速陷阱的虚假数据医院于是派出了救护车,结果到了却发现没有人员需要救援此类意外后果已经出现。华尔街有个著名嘚“闪崩”就是由投资算法导致的至今都没人知道发生了什么。由于相互竞争的算法的互相影响数十亿美元的真金白银被抹掉然后迅速又涨了回来,而那些算法的主人和创造者甚至都不能完全掌握这些算法

Google的搜索结果是个AI,而且是全世界最好的AI之一但这家公司应用罙度学习越多,这些机器就越擅长自己的工作而它们是通过自学迭代来达到这种精通的——所以即便是看着代码你也看不出查询A是如何導致答案B的。这已经是我们所生活的世界而且只会变得愈发明显。

人类境况也是数百万年机器学习的最终结果这些算法被写入到DNA里面,然后通过激素和蛋白质传送出去它们会相互竞争,以改善创建更多自身副本的机会协作是更具创造力的生存创新之一。传奇生物学镓/story/how-to-build-a-self-conscious-ai-machine/

编译组出品编辑:郝鹏程。

}

我要回帖

更多关于 没有自我意识的人表现 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信