产业共生的要素是新名词吗

【导语】晓多客服机器人整理:人工智能和人机交互的关系?人机交互是人工智能吗的问题,电商机器人找晓多科技,人机交互是人工智能吗正文如下:

关于人工智能的这些专业名词的含义,你真的知道吗?

在了解人工智能有关的专业名词之前,我们首先来了解下,什么叫做人工智能,人工智能的定义是怎样的?

人工智能作为一门前沿交叉学科,其定义一直存有不同的观点:《人工智能——一种现代方法》中将已有的一些人工智能定义分为四类:像人一样思考的系统、像人一样行动的系统、理性地思考的系统、理性地行动的系统。维基百科上定义“人工智能就是机器展现出的智能”,即只要是某种机器,具有某种或某些“智能”的特征或表现,都应该算作“人工智能”。大英百科全书则限定人工智能是数字计算机或者数字计算机控制的机器人在执行智能生物体才有的一些任务上的能力。百度百科定义人工智能是“研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学”,将其视为计算机科学的一个分支,指出其研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

目前在国家科研单位认为,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。

二十年来人工智能领域关键技术的发展状况,包括机器学习、知识图谱、自然语言处理、计算机视觉、人机交互、生物特征识别、虚拟现实/增强现实等关键技术。

Learning)是一门涉及统计学、系统辨识、逼近理论、神经网络、优化理论、计算机科学、脑科学等诸多领域的交叉学科,研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,是人工智能技术的核心。基于数据的机器学习是现代智能技术中的重要方法之一,研究从观测数据(样本)出发寻找规律,利用这些规律对未来数据或无法观测的数据进行预测。根据学习模式、学习方法以及算法的不同,机器学习存在不同的分类方法。

知识图谱本质上是结构化的语义知识库,是一种由节点和边组成的图数据结构,以符号形式描述物理世界中的概念及其相互关系,其基本组成单位是“实体—关系—实体”三元组,以及实体及其相关“属性—值”对。不同实体之间通过关系相互联结,构成网状的知识结构。在知识图谱中,每个节点表示现实世界的“实体”,每条边为实体与实体之间的“关系”。通俗地讲,知识图谱就是把所有不同种类的信息连接在一起而得到的一个关系网络,提供了从“关系”的角度去分析问题的能力。

自然语言处理是计算机科学领域与人工智能领域中的一个重要方向,研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,涉及的领域较多,主要包括机器翻译、机器阅读理解和问答系统等。

人机交互主要研究人和计算机之间的信息交换,主要包括人到计算机和计算机到人的两部分信息交换,是人工智能领域的重要的外围技术。人机交互是与认知心理学、人机工程学、多媒体技术、虚拟现实技术等密切相关的综合学科。传统的人与计算机之间的信息交换主要依靠交互设备进行,主要包括键盘、鼠标、操纵杆、数据服装、眼动跟踪器、位置跟踪器、数据手套、压力笔等输入设备,以及打印机、绘图仪、显示器、头盔式显示器、音箱等输出设备。人机交互技术除了传统的基本交互和图形交互外,还包括语音交互、情感交互、体感交互及脑机交互等技术,以下对后四种与人工智能关联密切的典型交互手段进行介绍。

计算机视觉是使用计算机模仿人类视觉系统的科学,让计算机拥有类似人类提取、处理、理解和分析图像以及图像序列的能力。自动驾驶、机器人、智能医疗等领域均需要通过计算机视觉技术从视觉信号中提取并处理信息。近来随着深度学习的发展,预处理、特征提取与算法处理渐渐融合,形成端到端的人工智能算法技术。根据解决的问题,计算机视觉可分为计算成像学、图像理解、三维视觉、动态视觉和视频编解码五大类。

生物特征识别技术是指通过个体生理特征或行为特征对个体身份进行识别认证的技术。从应用流程看,生物特征识别通常分为注册和识别两个阶段。注册阶段通过传感器对人体的生物表征信息进行采集,如利用图像传感器对指纹和人脸等光学信息、麦克风对说话声等声学信息进行采集,利用数据预处理以及特征提取技术对采集的数据进行处理,得到相应的特征进行存储。识别过程采用与注册过程一致的信息采集方式对待识别人进行信息采集、数据预处理和特征提取,然后将提取的特征与存储的特征进行比对分析,完成识别。从应用任务看,生物特征识别一般分为辨认与确认两种任务,辨认是指从存储库中确定待识别人身份的过程,是一对多的问题;确认是指将待识别人信息与存储库中特定单人信息进行比对,确定身份的过程,是一对一的问题。

生物特征识别技术涉及的内容十分广泛,包括指纹、掌纹、人脸、虹膜、指静脉、声纹、步态等多种生物特征,其识别过程涉及到图像处理、计算机视觉、语音识别、机器学习等多项技术。目前生物特征识别作为重要的智能化身份认证技术,在金融、公共安全、教育、交通等领域得到广泛的应用。下面将对指纹识别、人脸识别、虹膜识别、指静脉识别、声纹识别以及步态识别等技术进行介绍。

虚拟现实(VR)/增强现实(AR)是以计算机为核心的新型视听技术。结合相关科学技术,在一定范围内生成与真实环境在视觉、听觉、触感等方面高度近似的数字化环境。用户借助必要的装备与数字化环境中的对象进行交互,相互影响,获得近似真实环境的感受和体验,通过显示设备、跟踪定位设备、触力觉交互设备、数据获取设备、专用芯片等实现。

【嵌牛导读】未来的人机交互将是多模式状态,与人工智能密不可分。

【嵌牛鼻子】智能人机交互 人工智能

【嵌牛提问】当人和机器之间的边界逐渐模糊,人机交互的边界在哪里?未来人机交互会发展成什么样子?

【嵌牛正文】在2013年的电影《她》中,男主结束了恋爱长跑之后,爱上了一个电脑操作的系统女声,这个叫“萨曼莎”的姑娘不仅有着略带沙哑的迷人嗓音,并且幽默风趣。

就这样,他们成了无话不谈的朋友,甚至发展出一段“畸形”的恋情。

虽然电影是虚构的,但这也恰恰证明了,未来以用户为中心的交互模式不会仅仅停留在操作方便等基础方面,对于更好地识别用户表达意图与情感等方面,都将取得重大突破。

问题来了,当人和机器之间的边界逐渐模糊,人机交互的边界在哪里?未来人机交互会发展成什么样子?

在AI Time第七期的辩论中,清华大学的史元春、中科院软件所的田丰、中科院计算所的陈益强、小小牛科技创意公司的CEO曹翔就一起论道了人机交互与智能的相关问题。

1945年,在电子计算机尚未“出世”时,范内瓦·布什就发表了题为“As We May Think”的文章,形象描述了未来个人电脑——一种被称为MEMEX的机器,阐释了直接交互、超链接、网络存储等概念。

1960年,约瑟夫·利克莱德提出“人机共生”的思想,并在布什的领导下通过美国国家科技计划大力支持了人机共生理念下的图形与可视化、虚拟对象操控、互联网络等研究项目,在他的主导下,个人电脑、互联网络的标志性关键技术在六七十年代逐次诞生了。

约瑟夫·立克立德领导的交互式计算不但研发了分式操作系统,而且直接引导了图形技术。

在范内瓦·布什、约瑟夫·利克莱德等先驱的推动下,在语言学、心理学、计算机科学的共同参与下,计算机从没有用户界面,到有了图形用户界面,开创了个人电脑以及互联网络等惠及整个社会的新产业。

现在手机无需利用鼠标,可以利用新的传感技术,包括AI技术,这些都在使得人们能够更多地感受周围世界,这也是人机交互的一部分。

未来,在新的传感和多媒体技术的共同支持下,机器将可以通过感知和数据处理技术来理解我们,来理解周围的环境,实现更自然、更智能的人机交互。

曹翔介绍道,他现在的工作可以说是“现实版神笔马良”,用一张普通的纸和一个普通的画笔作画之后,用手机采集,瞬间就能转化生成三维动画。通过技术把创作的门坎降低,让普通人能够表达自己的创意是研究的初衷。

到目前为止还是普适计算的时代,未来人机交互会是多模态的,可以用键盘、语音,也可以用手势、表情、唇动等。他首先介绍了基于多通道或多模态感知理论的手语识别,原因有二,其一是因为姿势语言太多太泛,没有清晰的目标边界,其二是因为希望技术能服务于残障人士的日常交流。

第二个工作也和多模态相关,人机交互的终极目标是希望人机交互和人人交互一样。目前通过多模态,包括知识性感知,让机器获知人目前的状态,继而再进行下一步行为。未来可以利用可穿戴设备,对人的生理和心理的境况进行推断,然后进行交互。

陈益强也认为,未来的人机交互模式会是多模态的。围绕“多模态”设想,他提到了目前工作。一个是基于多通道或多模态感知理论的手语识别,将面部识别、手势动作识别和手语识别相融合,用以提高手语识别精度。二是通过多模态手段,使机器人获知人类当前状态。

田丰主要关注面向教育和医疗的人机交互的研究,他分享了再输入技术和相关理论方面的研究成果。由于输入不可避免地存在不精确性,希望用智能化的方法进行改善和帮助。

运动目标的选择是人机交互里非常重要的任务,玩游戏的时候就知道,相对静止来说运动目标的选中更难,怎样来提高选中的效率,同时去理解用户选择目标的能力。他们首先做了大量的用户研究,产生了针对不同速度和尺寸的物体在运动过程的落点分布,建立出模型,计算出用户选中物体的概率。这个模型不仅可以分析正常人,对帕金森病人等也可以用做辅助诊断。

值得一提的是,田丰带领团队研发的笔式电子教学系统获得了国家科技进步二等奖,并与协和医院共同取得了国家卫健委颁发的医疗健康人工智能应用落地30最佳案例的荣誉。

史元春介绍道,在使用手机软键盘时,26个字母挤在狭窄的输入界面里,再配上胖乎乎的手指,点错的经历太多了。这是触屏这种自然交互界面上典型的难题:胖手指难题。

基于研究工作,他们提出了基于贝叶斯推理的自然用户意图理解框架,建模用户行为特征,在模糊的输入信号上推测用户的真实意图。你点的不准没关系,算法可以猜得准。利用这项技术,史元春团队已经研究实现了手机、平板、头盔、电视等一系列接口上的输入法,输入准确度大幅度提高,且几乎不需要视觉瞄准,进而还能支持盲人用户准确实现软键盘输入。

未来的接口也会延伸感知人的操控行为,史教授正在研制的手机前置摄像头上就能:“感知到人手在界面上的变化后,我们就能以此做出新的‘输入法’。”

比如手握手机的任意边框或位置,就可以输入信息、访问界面,甚至和桌子的交互,也能变成对手机的操作。”

针对交互界面的构建是否存在计算模型的问题,田丰指出,传统上存在计算模型,而针对自然人交互,现在还没有相应的理论计算模型,但是应该朝着这个方向努力。

史元春教授同意以上观点,并指出定量评估的方法虽有,但很不充分。不过借助相应的传感技术,定量评估的原理和技术都在不断拓展,这从红外反射监测血流、血压参数、情绪变化等一系列应用上就可以看出。

以后的计算终端是多种多样的,适配的场景和任务也是不一样的,所以完全统一的大而全的模型非常难以建立,但是在特定任务上,技术背后的科学原理一定是有计算模型的,研究者们都应该去努力探索。

此外,定量评估的方法理论上是存在的,但现在很难说是好方法,因为界面在扩展,相应的实现技术、原理和评价技术也都在做扩展和变化。

曹翔也指出,因为人机交互的任务多样,很难去界定效率,更多是用主观感受衡量。从大方向上讲,一定是需要定量数据的,人工智能需要数据,而人机交互离不开人工智能。

针对建模的机制和限制,曹翔指出,具有明确任务的工作建模相对容易,因为目标很清晰,但是体验性的、娱乐性的、沟通性的工作比较难用计算的方式建模,因为其中夹杂着大量非简单人机交互的内容,比如人与人之间的互动等。

用大数据的方式对情绪的预测更有效果,本身人类对情绪化的东西也没有细分到小单元。反过来说,大数据分析或人工智能分析,能在没有用明确的细分模型的情况下做出预测,恰恰能解决非标准性任务。但如果是利用大数据解决问题,建立的可能是一个通用的模型,涉及到个人也会一些差别。

陈益强认为,人机交互要做得好,就一定要做到个性化,也就一定会用到智能方法。从交互来说,最初键盘是确定性交互,鼠标是属于感知层次。往智能上走,语音识别、手势识别这部分在感知以外加入了知识性学习。到第三部分,即情感智能,在执行前还需要加上知识,或者说认知。这也与人脑的三个部分,即中枢神经、小脑和大脑相对应。

智能和人机交互一样,也是按人也分层次,人机交互我们从传统到智能也分层次,可以把它理解为消除不确定性。越往上走,不确定性越大,尤其对意图理解,但是我们怎么去消除它,是人机交互上应用的一个探讨。

人工智能和人机交互,都有“人”这个字,对于二者的关系,史元春首先指出,这是中文说法,英文没有这样的词,但二者的共性在于都是很早很明确地谈到人机关系。

史元春教授认为,人机交互应该让机器更好的适应人,适应人的本性,适应人的操控能力、感知能力和认知能力。从“人” 的研究内容上来说,人机交互与人工智能有差异,但出发点是一致的,即“人机共生”。

目前看,人工智能的研究更多的体现在人的识别、语言的表达等数据密集型任务上的处理方法,人机交互的研究更偏重于对人的主动交互行为和感知能力的建模、传感和建立适应的接口技术,人机关系必定向着共生的方向发展,这些研究内容和方法会相互影响和适应,交叠的研究内容会越来越多。

“做人工智能最后要接触人机交互,做人机交互最后也要接触人工智能。”

田丰提到中国科学上有一篇观点性的论文,他指出,人机交互和人工智能在未来的趋势会从交替沉浮走向协同共进。国家人工智能发展规划里一个核心研究点是人机协同,人机协同也是人机交互未来的方向。从人工智能角度讲,自动驾驶等也讲人机协同,其实是殊途同归的。

曹翔指出,人工智能和人机交互的研究价值观、出发点会略有不同。人工智能根本上讲,终极目标是让机器能做所有人能做的事情,人机交互则是指人和机器的合作,两者不矛盾,但是要看情境。

针对人机交互研究对AI的贡献,他指出,首先必须承认AI对人机交互研究的贡献。从大趋势上讲,机器学习中大量的人工标注数据就是人机交互的过程。进一步讲,AI的一个挑战在于可解释AI,最终担心的是可不可被信任,解释的原因是希望能够放心地使用。

某种意义上讲也许解决AI可信任的问题,在于创造一种方式,让人和AI的系统在一个互动过程中慢慢通过衡量判断,可能这个恰恰是人机交互帮助解决所谓AI可解释问题的方法。

对于智能人机交互的畅想,史元春指出,未来计算机的形态会变化,甚至可能不存在了,但计算机技术会持续为我们服务,成为人机共生的一部分,交互接口、交互任务会有很大的变化,但会更自然,更智能。

她把智能人机交互集中分为三类,一是手势,然后是语音,还有可穿戴设备,包括手环、头盔。在这三类上看到了很多新技术和新产品,但都还没有成为主流,也就是说,都存在一定的问题。

比如语音交互,不光是识别率没有达到百分之百,同时语音表达的带宽和表达的数据类型还不完整,和空间有关的数据效率低、没有精度。此外,还有打扰、隐私等,都有很大的限定条件,穿戴更是这样。

陈益强举例穿戴设备可以附着于衣服和鞋子,人机交互最终将实现人机共生。并且,在材料、技术的进步下,能够完全理解人类自然行为的意图,甚至帮助解决人口老龄化、阿尔茨海默病等。

曹翔根据自己目前的研究内容,指出,要通过技术把每个人的创造力充分发挥出来,创造力在未来会成为生存和工作所不可或缺的一部分。

未来在输出上或许能获得更多体验,比如把挖掘出更多感官体验,不只是视觉和听觉领域,甚至创造一个幻想的世界,这是十分有趣的。

田丰称,他对于如何通过人机交互的研究推动产业发展更为关心,相关人口老龄化问题已经与协和医院进行了深入合作,通过对老年人的动作进行解读,提供量化的辅助诊断。

针对人机交互人才的培养,史元春指出,工业界是有需求的,但是学术界还很迷茫。有博士生毕业后在工业界无法找到与专业十分匹配的职位,由于工业界的进步会促使学术界对人才培养建立一套科学的方法。

史元春教授提到:“我们培养的人才应该能够发现交互难题,并且能通过科学的方法来解决这个问题。”

曹翔指出,交互设计师、用户研究员等对口培养的专业,不难找工作;难找工作的是把人机交互作为一个研究领域去学习的学生,因为现有的一个萝卜一个坑的职业体系,并不太适合跨学科的人才,但创业特别需要这样的人。

人机交互属于人工智能吗

首先,人工智能并不等于“XX学习”。

人工智能是一个非常古老的名词,在今天看来,是个很抽象的概念。

与“人工智能”这个词距离最近的,是游戏行业。在几年之前,人工智能这个概念并不火,也没听说有别的行业讨论过人工智能。

唯独在游戏行业,人工智能在许多年前,就已经是个烂大街的概念了。我在小学六年级的暑假(1997年),大舅手把手教我用C语言写出了人生中第一个小游戏(一个控制台飞行棋)。那时候,我就第一次从大舅口中听到了“人工智能”这个词。

以游戏为例,你控制主角的那些操作,就叫做人机交互,比如按W,主角往前跑,按空格,主角就跳起来。而NPC的行为,就是人工智能。

在游戏行业,凡是用来制作NPC寻路,以及战斗相关逻辑的技术,都被称作AI。

比如《英雄联盟》《王者荣耀》等游戏,小兵NPC从出生之后就一路向对方的水晶移动,若途中遇到敌人,就追击敌人,敌人走远,就再次向敌方水晶移动。这就是用游戏行业最常见的WayPoint算法实现的。

再比如战棋类的游戏,简单的就如《中国象棋》、《五子棋》,复杂一点的就如《火焰之纹章》、《三国志》、《超级机器人大战》等。这些棋子或角色在移动之前,通常都会显示出它所能移动的范围。这是使用排序算法实现的,排序算法通常会分成“深度优先算法”和“广度优先算法”两类,但这不是今天要说的主题,故略去不谈。

这些算法,就是游戏行业的人工智能。其中WayPoint(路点算法),排序算法,另外还有一种A*算法(中文读作A星算法),是游戏AI算法中最常见的三种。而游戏行业中的AI算法,其实远远不止这些,几十种还是有的。

后来的机器学习、深度学习,其实也只是算法而已。算法是新的,但人工智能这个概念却是早已有之,算法也是多种多样,远非“XX学习”可以代表的。

XX学习也可以用于游戏行业,但对于游戏行业来说,其实并没什么帮助。有了它,做NPC时又多了一些选择。没有它,相关的解决技术也已经足够多了。

最大的不同在于,XX学习把“人工智能”这个名词,扩散到了游戏之外的行业。至少听起来,像个高端大气的新概念似的。。。

为什么要研究人工智能及人机交互

当前技术没有达到足够智能的水平,人机需要输入指令输出结果,叫人机交互;设计人机交互叫交互设计;人机交互可用性满意度影响用户体验;影响的结果需要用户研究来预判和分析。人工智能技术的进步与否直接影响上面所以东西的革新与否。

【总结】以上是晓多科技对“人工智能和人机交互的关系?人机交互是人工智能吗”的解答,淘宝/京东/拼多多/抖音机器人找晓多客服机器人。人机交互是人工智能吗的相关内容关注我们。

版权声明:除非特别标注,否则均为本站文章,转载时请以链接形式注明文章出处。

}

我要回帖

更多关于 产业共生的要素 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信