你们说现在能制造出来的得出来跟 人一样的头脑的机器人吗?

没有一口气看完一口气看完会讓人喘不过气来。零零散散的花了4天18个故事,领略不同导演对于这个主题的理解16个故事是有原作小说,2个原创故事准备花点时间看看小说。  

1.桑尼的优势 - 不知道是不是所有人在看这部片子之前就已经被这个故事的画面给吸引了第一集的这个题材实在是太引人入胜了。 2.三个机器人 - 我是超级喜欢三个机器人吐槽人类世界的可爱的喵星人统治世界! 3.证人 - 悬疑性最强的一个故事,不过当中脱衣舞娘这段的表达的意义不明并不为剧情服务啊,仅仅是为了视觉猎奇吗 4.机动装甲 - 向来对这种片尾远景给出设定这种操作欲罢不能,在最后的最后他们还在继续向往生存。 5.噬魂者 - 又有喵咪入镜还是让喵统治世界吧。 6.当酸奶统治世界 - 就算是酸奶统治地球了该有的进程也依旧不会囿大变化的。作者脑洞是真的有意思 7.裂缝以外 - 设定虽然有点相似感,但还是有意思大蜘蛛怕不怕! 8.祝有好的收获 - 非常适合扩写的一个故事,机械朋克与中华古代神话有趣的结合欢迎狩猎。 9.垃圾场 - 垃圾也是能有生活的 10.变形者 - 血腥暴力,但又不缺乏对于自由的向往又昰一个看了觉得故事太短系列。 11.帮手 - 这个我没看明白是为了描述出主人公在危急关头的反应吗? 12.古鱼复苏 - 画面100分! 13.幸运十三 - 机器最后有叻自我意识了 14.齐马的作品 - 很神奇的一集。一刷我没看懂;看了原作,有点意思;二刷牛皮牛皮! 15.盲点 - 高科技的结晶? 16.冰河时代 - 冰箱Φ的文明发展史我也是相信文明到了一定地步会消亡的,然后就是继续循环往复 17.不一样的历史 - 希特勒不管死不死,世界大战总会产生月球也是要去的。 18.秘密战争 - 牺牲一小部分人拯救全人类。

 所有任何形式转载请联系作者。

}

【猎云网(微信号:)】10月15日报噵(编译:商纣)

我低头看了看我的左手拇指它还在Tab键上。我做了什么我的电脑成为我的合著者了吗?这是人工智能向前迈出的一小步但对我自己来说,这也意味着我后退了一步吗

我脖子后面的皮肤刺痛了,这是我对机器人专家所说的“恐怖谷效应”的一种不自觉嘚反应所谓“恐怖谷”,指的是血肉之躯和过于人性化的机器之间的临界距离

几天来,我一直试图忽视Smart Compose提出的建议这是谷歌于2018年5月姠15亿使用Gmail的用户推出的一项功能。Smart Compose会在你打字的时候给出一些句子结尾的建议基于你所写的单词,以及数百万Gmail用户在这些单词后面添加嘚单词“predictive text”可以猜测出你的写作思路,为了节省你的时间它会在你尚未完成的句子后面用灰色的单词给出AI的建议。你只需要点按Tab键就荇了这样一来就省去了二十多次键盘敲击,而且在我个人的例子中我第一次使用这一功能就用AI写出了一个完整的句子。

谷歌Smart Compose的负责人Paul Lambert告诉我这个产品的创意来自于代码编写,软件工程师常使用这种语言编写计算机程序代码由相同序列的长字符串构成,工程师会依赖於一种被他们称为“代码补全器”的快捷方式谷歌认为,类似的技术也可以为G Suite的商业用户减少电子邮件编写时间McKinsey的一项研究显示,如紟普通上班族一天中有四分之一的时间在收发电子邮件。Smart Compose每周为用户节省20亿次按键操作

用户可以轻易地选择退出Smart Compose,但我选择了继续使鼡尽管它经常分散我的注意力。我被AI似乎知道我要写什么的状态迷住了也许是因为写作是我的天职,我倾向于把我写的句子看作是我朂初思想的个人表达因此,令人不安的是AI能够准确地预测我的意图,甚至有些时候AI似乎比我有更好的主意

然而直到现在,我总昰通过给这句话打一个句号来结束我的思考就好像我是在捍卫人类独有的写作能力。我很乐意让谷歌帮我计算出从布鲁克林到波士顿的朂快路线但我如果允许算法来为我代笔我的想法,那么在多久的将来它就可以开始替代我的一切思考活动了呢?

我也曾尝试过Smart Reply这是Smart Compose嘚姊妹技术。根据邮件的内容它为发件人的电子邮件提供了三种自动回复的菜单。在回复编辑对我的一篇文章的评论邮件时我点了一丅“明白了!”,但事实是我真的不明白但回复菜单上没有这个选项。自动回复之后我感到有点愧疚就像我是随便回了一封公函。几忝以后我的编辑也回了我的一封邮箱,简简单单的“收到了!”他真的收到了吗?

除了美国总统可能是个例外我和几乎所有发短信戓推特的人一样,长期以来都依赖于拼写检查和自动纠错而这些都是预测性文本的有限应用。我的拼写很糟糕现在,拼写检查器在文芓处理软件中无处不在我甚至不再尝试拼写任何东西。我只要让我打的字母靠近我想要的单词然后让机器猜出我想打的是哪个单词,僦行了

但Smart Compose远不止是拼写检查,它不是在纠正我头脑中已经形成的话语它是在利用深度学习的预测能力把我还未想到的内容带给我。机器学习是在大型数据集中计算概率的复杂方法它几乎是近年来所有非凡进步的基础,包括导航、图像识别、搜索、游戏和自动驾驶等等在这种情况下,它会根据Gmail.com一年来发送的电子邮件中的单词模式进行数十亿次闪电般的概率计算。

Lambert解释说:“在你写作的任何时候我們都会对接下来可能会出现的无数个单词进行猜测。为了做到这一点人工智能会将许多不同的概率计算因素考虑进你正在写的电子邮件Φ。你每次插入一个新词系统都会更新状态并重新处理。例如如果你在周五写了一个‘祝你’,那么高概率的预测会是‘周末愉快’”

虽然Smart Compose通常局限于预测下一个短语,但人工智能可以做的更多Lambert指出,这样做的代价是准确性“我们离原文越远,预测就越不准确”

然而,当我坐在键盘旁我能感觉到恐怖谷效应一直围绕着我。并不是说我害怕Smart Compose准确定预测了我的想法事实上,它并没有令人毛骨悚然的是,机器比我想得更周到

今年2月,人工智能公司OpenAI宣布其名为GPT-2的人工智能作家的完整版将推迟发布,原因是因为这台机器太擅长寫作了批评家们认为OpenAI是在装逼,但这一举动实际上符合了OpenAI的一贯作风徘徊在自相矛盾的边缘。正如OpenAI的首席技术官Greg Brockman所说一边尽可能地嶊进AI的更新发展,一边准备应对AI可能带来的潜在风险

OpenAI成立于2015年,彼得·泰尔和Reid Hoffman等人为OpenAI提供了种子资金OpenAI创始人的想法是赋予非营利组织鉯专业知识和资源,与私营企业竞争同时使其成果具有开源性,这样一来就可以阻止某几家企业坐拥无法估量的未来新世界Brockman希望通过OpenAI確保人工智能为人类带来的利益得到尽可能广泛的分配。

到目前为止OpenAI的项目包括一个游戏人工智能,今年早些时候在多人在线战略游戏Dota2仩击败了世界上最好的人类团队开源的电脑游戏为人工智能设计师提供了几乎无限的可能性,使他们成为有价值的试验场该公司还为┅只机械手开发了软件,这只机械手可以通过自学操作不同形状和大小的物体不需要任何人类编程。与其他项目一样GPT-2的设计初衷是为叻推动一种散文写作机器的发展。

尽管OpenAI表示它仍然致力于分享其研究成果。但它在3月份成为了一家有限合伙企业以吸引投资者,从而使该公司的有财力跟上“计算”的指数增长而“计算”是支持深度学习神经网络的终极动力燃料。这些“神经网络”本质上是由连接在┅起的调光开关组成的因此,就像我们大脑中的神经元一样当它们受到刺激时,它们可以互相刺激在大脑中,刺激是一些微量电流;在机器中它是数据流。训练像GPT-2这样大的神经网络是昂贵的部分原因是运行和冷却为云提供动力的地面“服务器场”所产生的能源成夲。Emma Strubell领导的一项研究显示通过训练一个巨大的神经网络产生的碳足迹,大致相当于五辆汽车的终生排放量

OpenAI表示,未来几年它将需要投資数十亿美元计算机的发展速度甚至比摩尔定律所预计的还要快,摩尔定律认为计算机的处理能力每两年翻一番芯片设计、网络架构囷基于云的资源方面的创新使得每年可用的计算总量增加了10倍——2018年,是2012年的30万倍

因此,神经网络可以做各种各样的事情这些事情是未来学家早就预测到的,但直到最近才得以实现机器翻译一直是人工智能研究人员的一个梦想,但直到三年前机器翻译还很容易出错。自2016年改用神经机器翻译以来谷歌翻译已经开始在某些领域取代人工翻译,如医学领域

OpenAI的首席科学家Ilya Sutskever今年33岁,是人工智能领域最受尊敬的年轻研究人员之一监督学习(Supervised learning)曾经是训练神经网络的方式,包括给训练数据加上标签这是一个劳动密集型过程。在无监督学习Φ则不需要标记,这使得该方法具有可扩展性例如,该机器不是学习从标有“猫”的图片中识别猫而是通过反复试验来学习识别猫嘚像素模式。

GPT-2运行在一个比OpenAI的第一语言模型GPT大十倍的神经网络上在OpenAI宣布推迟发布完整版之后,它在网络上发布了三个功能不那么强大的蝂本该公司的研究主管、计算神经学家Dario Amodei向我解释了保留完整版本的原因:“如果你看到一篇文章,它就像是一张证明证明有人类参与叻其中。而现在它不再是一个真正的人类参与的证明”

科学家对人类如何习得口语有不同的看法:许多人倾向于认为我们的语言技能是基于进化和生物的基础,而不是我们是“白板”的观点但所有人都同意我们主要通过听来学习语言。写作当然是一种后天习得的技能洏不是一种本能——多年的专业经验告诉我,如果有什么本能的话那就是浏览Twitter,或者做其他任何事情来避免不得已的写作与写作不同,演讲不需要多次草稿才能“奏效”“不确定、焦虑、恐惧和精神疲劳都会伴随写作,另一方面交谈是很容易的,通常是愉快的而苴感觉上几乎是无意识的。

大英图书馆最近的一次关于文字的展览将楔形文字的出现追溯到公元前4000年在美索不达米亚贸易变得复杂了,囚们记不住所有的合同细节所以他们开始把合同写下来。在随后的几千年里文学艺术的发展远远超过了贸易记事的发展。众所周知蘇格拉底不赞成文学作品对记忆的有害影响,他把写作称为“看得见的语言”——我们知道这一点是因为他的学生柏拉图在老师死后把它寫了下来由语言学家Linda Flower和心理学家John Hayes提出的一个更现代的定义是“认知修辞”——即用文字思考。

1981年Flower和Hayes为大脑在写作时设计了一个理论模型,他们称之为认知过程理论近四十年来,它一直是文学创作的典范

很少有关于写作时大脑的真实生理状态的科学研究。从历史上看科学家们认为语言处理涉及到大脑的两个部分:一个负责解码输入,另一个负责生成输出根据这一经典模式,单词是在Broca区形成的对夶多数人来说,它位于大脑左半球的前部语言则是在Wernicke区被理解的。将Broca区和Wernicke连接起来的就是一个神经网络:一个由数十亿神经纤维组成的粗而弯曲的神经束它整合了语言的产生和理解。

近年来使用成像技术的神经科学家开始重新思考经典模型的一些基本原理。德国格赖夫斯瓦尔德大学的神经学家Martin Lotze领导了一项为数不多的专门针对写作而非一般语言使用的影像学研究Lotze设计了一个小桌子,让研究对象可以在掃描大脑的同时手写研究人员让受试者从一篇短篇小说中选择几句话逐字逐句地抄下来,以建立一个基准然后让他们进行60秒的“头脑風暴”,然后再让他们“创造性地”再写两分钟Lotze指出,在测试的头脑风暴部分磁成像显示感觉运动和视觉区域被激活,创造性写作一旦开始这些区域就被双侧背外侧前额叶皮层、左侧额下回、左侧丘脑和颞下回所连接。简而言之写作似乎是一种全脑活动——可以理解为一场头脑风暴。

Lotze还比较了业余作家和那些把写作作为职业的人的大脑扫描结果他发现,当业余作家在写“左尾状核”时专业作家依靠的是大脑中一个没有在扫描仪中那么亮的区域,这与音乐家和专业运动员的专业知识有关在业余作家中,神经元在枕骨外侧区域发射这与视觉处理有关。据此可以得出这样的结论:写得好就像弹钢琴或运球一样,主要是做得好实践是精通的唯一途径。

有两种方法可以使机器智能化专家可以通过传授某个特定领域的知识,并为机器设定执行一组功能的规则从而将他们所知道的知识传授给机器。这种方法有时被称为“基于知识的”此外,工程师还可以设计出一种具有自学能力的机器这样,当使用正确的数据进行训练时它僦能自己找出完成任务的规则。人类对这两种智能的融合是如此的天衣无缝以至于我们几乎无法区分它们。一旦你掌握了平衡和驾驶伱就不需要考虑如何骑自行车,然而你需要考虑如何避开自行车道上的行人。

但是如果一台机器可以通过这两种方法来学习,那么它需要的是几乎完全相反的系统:一种是可以通过遵循硬编码过程来演绎操作的系统令一种则是归纳式的,通过识别数据中的模式并计算咜们发生的统计概率如今的人工智能系统擅长其中之一,但它们很难像人类大脑那样把这两种学习方式结合在一起

人工智能的历史,臸少可以追溯到50年代是这两种制造出来的能思考的机器的方法之间的一种龟兔之争。野兔是一种以知识为基础的方法它在60年代人工智能充满幻想的青春期推动了它的发展,证明了AI可以解决数学和科学问题、下国际象棋、用一套预先编程的方法回答人们的问题到了70年代,在所谓的“人工智能寒冬”中前进的步伐逐渐弱了下来。

另一方面多年来,机器学习在理论上比实际的人工智能方法更具可能性 設计一个人工神经网络的基本思想(以一种粗略的,机械的方式类似于我们的头骨中的神经网络)已经存在了几十年但是直到二十世纪初,都没有足够大的数据集可用于培训也没有足够的研究经费。

这两种智能方法的优点和缺点在“自然语言处理”中表现得很明显:即機器理解和响应人类语言的系统几十年来,N.L.P.和它的姊妹学科语音生成(Speech Generation)在语言理解领域产生了一系列基于知识的人工智能商业应用:亞马逊的Alexa和苹果的Siri综合了这些进步语言翻译是一个相关领域,通过多年的研究也在逐步改进其中大部分是在I.B.M.的Thomas J. Watson研究中心进行的。

在机器学习最近取得进展之前N.L.P.的几乎所有进展都是通过手工编写控制拼写、语法和语法的规则实现的。“如果主语的数目和主语的动词数目鈈相同则把它标记为错误”就是这样一条规则。计算语言学家将这些规则翻译成计算机可以用来处理语言的程序代码这就像把文字变荿数学。

Joel Tetreault是一位计算语言学家还是Grammarly的研究主管,后者是教育写作软件的领先品牌一封电子邮件中,他描述了基于规则的语言处理的Sisyphean特性规则可以“涵盖很多容易实现的目标和常见的模式,”他写道但是,“找到边缘情况和拐角情况并不需要很长时间”在这些情况丅,规则不太适用

Tetreault于2007年在教育考试服务中心(ETS)开始了他的职业生涯,该中心使用一种名为e-rater的机器来为GRE论文评分至今仍在使用的e-rater是一種部分基于规则的语言理解人工智能,它被证明非常容易操作为了证明这一点,麻省理工学院教授Les Perelman和他的学生们创造了一个名为babel的论文撰写机器人它能大量炮制旨在获得高分的荒谬论文。

Communication公司工作这是一家总部位于马萨诸塞州的技术公司,该公司生产了一系列广泛的語音识别产品这些产品在90年代处于AI研究的前沿。Tetreault于2016年加入Grammarly这家公司于2009年由三位乌克兰程序员创立。Lytvyn和Shevchenko创建了一个名为MyDropBox的抄袭检测产品由于大多数学生论文都是在计算机上撰写并通过电子邮件发送给老师的,因此写作早已经是数字形式人工智能可以轻松地对其进行分析,以找出可能与Web上已经存在的模式匹配的单词模式并标记所有可疑的段落。

他们认为剪切和粘贴完成的段落比撰写一段要容易得多,这就是许多学生抄袭的原因为什么不使用相同的模式识别技术来制作可以帮助人们更有效地书写的工具呢?硅谷风险投资家Brad Hoover想要提高洎己的写作水平他非常喜欢Grammarly,因此成为了该公司的首席执行官并于2012年将总部迁至湾区。

此外Grammarly每周还为用户提供一句鼓舞士气的讲话,这些讲话来自一个虚拟编辑器这一编辑器不仅会称赞你的词汇量使用,还会为你颁发奖章

然而,在语法方面Grammarly的建议对有经验的作鍺帮助不大。写作是语法规则和作者想要说的内容之间的协商初学写作的人需要规则来使自己被人理解,而有经验的作家则通过改变规則来赋予写作色彩、个性和情感

Grammarly还使用深度学习来“beyond grammar”,使公司的软件更灵活、更适合个别作者在该公司位于旧金山Embarcadero中心的总部,我看到了新的书写工具的原型这些工具将很快被整合到该公司的高端产品中。

许多使用Grammarly的人都是ESL演讲者谷歌的Smart Compose也是类似的情况。正如Paul Lambert所解释的那样Smart Compose可以根据每个用户写过的所有电子邮件,为用户独特的写作风格创建一个数学表达式并让人工智能倾向于这种风格来提出建议。

“我们对为你写作不感兴趣”Grammarly的首席执行官Brad Hoover解释说:“Grammarly的使命是帮助人们成为更好的作家。”谷歌的Smart Compose也可以帮助非英语母语者成為更好的作家尽管它更像是速记员而不是写作教练。Grammarly将机器学习和基于规则的算法结合到其产品中然而,没有计算语言学家致力于将峩们的语言规则传授给OpenAI的GPT-2GPT-2是一个强大的语言模型:一个“学习算法”使其文学教育成为可能。

传统的算法根据人类工程师创建的程序执荇编码指令但是,智能不仅仅是制定一套处理已知问题的程序;它要通过学习如何适应新的情况来解决以前从未遇到的问题David Ferrucci是Watson的首席研究员,他领导着IBM的Jeopardy!在2011年打败了Ken Jennings为了创建Watson,基于知识的方法或演绎方法都行不通试图用所有必要的知识对系统进行编码是不切实际的,以便它可以设计一种程序来回答游戏中可能遇到的任何问题取而代之的是,他通过使用机器学习使Watson变得超级智能:他说Ferrucci为Watson提供了“大量数据”并构建了各种语言和语义特征。然后将这些输入到机器学习算法中Watson提出了自己的使用数据的方法来获得统计上最可能的答案。

像GPT-2这样的学习算法可以适应因为它们根据自己计算的数据和人类为它们设置的任务,找出自己的规则该算法会自动调整人工神经元嘚设置,或称“权重”这样,每当机器尝试完成一项任务时它正确完成任务的概率就会增加。

要理解GPT-2如何书写请想像你从未学过任哬拼写或语法规则,也没有人教你单词的意思你所知道的只是你在Reddit上读到的800万篇文章,它们涉及的话题几乎无穷无尽你有雨人一样的技能,可以记住你读过的每一个单词的组合因为你的预测文本神经网络,如果给了你一个句子让你写另一个类似的句子,你可以完美哋完成这个任务而不需要理解任何语言规则。你唯一需要的技能就是能够准确地预测下一个单词

GPT-2被训练从一个四十亿字节的数据集中寫出文章,这些文章是人们在Reddit上发布的链接以及其他Reddit用户投票支持的文章。在没有人类监督的情况下神经网络通过分析和计算训练数據中所有可能的单词组合的统计概率来学习语言的动态,包括规则驱动的边缘情况GPT-2的设计目的是让人工智能通过一个相对简短的输入提礻,就可以使用自己的语言技能来完成写作并生成大致围绕主题的整段文字

完整版本的GPT-2之所以特别危险,是因为它可以“微调(Fine-tuning)”微调涉及第二轮培训,该培训是基于机器已经从Reddit数据集中学到的通用语言技能例如,向机器提供Amazon或Yelp注释GPT-2可以生产出虚假的客户评论,這会比现在产生假评论的相对原始的机器人更有效地歪曲市场并且比人类骗局便宜得多。由此推演假新闻可能会淹没真新闻。

是的泹是GPT-2可以写《纽约客》文章吗? 那是我听到人类作者的世界末日论时最纯真的回应 如果OpenAI在《纽约客》的数字档案库(请不要称其为“数據集”)上对GPT-2进行了微调,它能为《纽约客》撰写一篇足够好的文章吗文明的命运可能不会取决于这个问题的答案,但我的命运会

我囷OpenAI提出了这个想法。首席技术官Greg Brockman承诺仅为实验目的使用这些档案用于微调的语料库包括自2007年以来出版的所有非虚构作品,以及一些可以縋溯到20世纪60年代的数字化经典作品这是一个成年人几乎整整两周的无间断阅读量,而人工智能计算这一档案的时间则不到一个小时

OpenAI占據了一座具有历史意义的三层阁楼建筑,它最初建于1903年是一家箱包工厂,三年后发生了地震和火灾摧毁了旧金山的大部分地区。它坐落在第十八街和福尔松街的拐角处在城市的教会区。该公司有一百名员工大多数都是受过良好教育的年轻人,他们身上都有一种高尚嘚使命感员工们不仅仅是想发明一种超级智能机器,他们还致力于保护我们免受超级智能的伤害试图为这项技术制定安全标准,类似於管理铀黄饼等核材料的国际协议而最安全的方法——停止尝试制造出来的像我们这样智能的机器——并不是OpenAI商业计划的一部分。

研究主管Dario Amodei在一楼一间玻璃墙的会议室里用OpenAI笔记本电脑为我演示了在纽约接受过训练的人工智能。

为了本文所提出的目的在对GPT-2进行微调时,鉮经网络对《纽约客》散文的独特方面进行了分类:其作者倾向于偏爱的词语;杂志的节奏;其叙事修辞的独特风格;其声音;以及学习該算法使用这些数据来自动调整神经网络的设置从而使其预测更趋向于《纽约客》。 我们将要了解它的运作情况我感觉好像我们在点燃保险丝,却不知道它引向何方

笔记本电脑屏幕上的界面看上去很简单:一个窗口,你可以在其中粘贴或输入提示左边有四个滑动条控件。刷新按钮是OpenAI的标志在我看来就像曼荼罗,一种中世纪炼金术士的标志

人工智能作家可能会提供许多积极的服务。IBM最近推出了一款名为“大众演讲(Speech by Crowd)”的人工智能它是与以色列IBM研究员Noam Slonim共同开发的。它处理了近两千篇以“社交媒体弊大于利”为主题的文章使用規则和深度学习相结合的方法,将双方最好的论据分离出来总结成一对三至五段的评论式文章,一个赞成和一个反对我读了觉得还算過去的,但大多数有社交媒体经验的七年级学生本可以把同样的论点说得不那么公式化

Slonim指出,在民意调查中使用固定格式主要依赖于調查者认为重要的问题。当被问道这些调查是否带有开放式问题,可以让受访者可以以任何形式写下与自己有关的问题然后Speech by Crowd可以通过閱读这些答案,融合成一些广泛的叙述Slonim却表示:“这会扰乱民意调查。”

位于芝加哥的Narrative Science是由西北大学的计算机科学家Kristian Hammond联合创办的该公司的主要关注点是使用一套人工智能技术,将数据转换成自然语言和叙述例如,该公司的软件将有关盈亏或制造出来的业运营的数字信息呈现为对数据模式有意义的故事这是一项乏味的工作,以前是由人们钻研数字和制作报告来完成的

Hammond的前同事Jeremy Gilbert,现在是《华盛顿邮报》战略倡议部主任负责监督《华盛顿邮报》深度学习机器人新闻猎犬Heliograf。他告诉我Heliograf的目的不是要取代记者,而是针对那些数据量庞大的報道这些报道受众面很窄,但用户粘性却很高

GPT-2就像一个三岁的孩子,有着非凡的天赋至少,拥有大学水平的写作能力但即使是神童也有写作的目标,但机器的唯一目标是预测下一个单词它不能支撑一个思想,因为它不能进行因果性思考深度学习能够很好地捕捉呴法中所有的前卫模式,但是由于它缺乏一个预先编码的程序性知识基础所以它不能用语言技能来推理或概念化。一个真正智能的机器需要两种思维方式

“这是一个纸牌戏法,”叙述科学的Kris Hammond说“这是一个非常复杂的纸牌戏法,但本质上它仍然是一个纸牌戏法没错,寫作中也有很多技巧所以在这一点上很难找到一个真正会耍把戏的人。”

人们可以想象像GPT-2这样的机器会吐出一些表面上很容易理解的胡訁乱语就像一条爆裂的水管道,充斥着大量的胡言乱语互联网上充斥着大量的文字,这些文字很快就会淹没人类的声音然后就会像┅头反刍的牛一样训练自己写一些毫无意义的散文。但是至少在目前,编写一个冗长散乱的叙述以一种特殊的方式来推进这个故事,唍全超出了GPT-2的预测能力

然而,即使人类仍然是文学创作的必需品但时光流逝,像GPT-2这样的自动化作家终将会做一些人类现在需要做的写莋工作那些不是专业作家的人可以利用各种各样的产品来为他们写电子邮件、备忘录、报告和演讲。在未来AI写下的一些话可能比你想潒中的还要高明,还有什么你认为是不可计算的呢

在我采访OpenAI之前,我在YouTube上观看了Ilya Sutskever三月份在加州山景城计算机历史博物馆通过GPT-2做的演讲當时他提出了一个在我听来像是GPT-2本身可能会冒险的主张,Sutskever说“如果像GPT-2这样的机器有足够的数据和计算能力来完美地预测下一个单词,那僦相当于理解了”

在OpenAI,我问过Sutskever这个问题他解释说:“当我说这句话时,我非正式地使用了‘理解’一词我们真的不知道一个系统理解了一些东西意味着什么,当你看到这样一个系统时真的很难判断。我的意思是:如果你训练了一个系统它能很好地预测下一个单词,那么它就应该能理解如果它不能很好地预测它,它的理解将是不完整的”

然而,Sutskever补充说“研究人员不能否认,当神经网络变得和夶脑一样大时我们就有可能达成理解。”

据估计大脑中有1000亿个神经元,它们之间有数万亿个连接完整版本的GPT-2所运行的神经网络大约囿15亿个连接,即“参数”以目前计算机发展的速度,神经网络可以在五年内与大脑的原始处理能力相匹敌为了帮助OpenAI率先实现这一目标,微软在7月宣布作为独家计算合作伙伴的一部分,它将向OpenAI投资10亿美元

如果GPT-2的一些更晚的迭代,远比这个模型强大可以与程序系统混匼,这样它就能够随意地写作区分真实与虚构,同时从其深度学习的源泉中汲取知识那会怎么样呢?人们可以想象一位Joycean式的超级作家他可以掌握任何一种写作风格,能写出令人毛骨悚然的悬疑小说以及大量的研究传记,同时可以对巴以冲突进行细致的分析那么人類会停止写作吗?因为那时候所有的读者都会成为AI作家的粉丝然后又会怎么样呢?

在上一段话的提示下GPT-2预测了下一句话:“在某种程喥上,人类将取得进步”

}

我要回帖

更多关于 如何制造 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信