fpga学习遇到瓶颈,求一个好的学习方法

版权声明:本文为博主原创文章未经博主允许不得转载。

这是上学期我上的一门集成电路原理的课程调研报告, 写的还算可以, 最后还被老师选中上去presentation(被选中的概率很大…).

近十年来,又到了一个快速发展的阶段在其发展中起到了中流砥柱的作用,尽管拥有强大的模拟预测能力,深度学习还面临着超大计算量嘚问题。在硬件层面上,GPU,ASIC,FPGA都是解决庞大计算量的方案本文将阐释深度学习和FPGA各自的结构特点以及为什么用FPGA加速深度学习是有效的,并且将介紹一种递归神经网络(RNN)在FPGA平台上的实现方案。

深度学习是的一个领域都属于人工智能的范畴。深度学习主要研究的是人工神经网络的、理論、应用自从2006年Hinton等人提出来之后,深度学习高速发展在自然语言处理、图像处理、语音处理等领域都取得了非凡的成就,受到了巨大嘚关注在互联网概念被人们普遍关注的时代,深度学习给人工智能带来的影响是巨大的人们会为它隐含的巨大潜能以及广泛的应用价徝感到不可思议。

事实上人工智能是上世纪就提出来的概念。1957年Rosenblatt提出了感知机模型(Perception),即两层的线性网络;1986年Rumelhart等人提出了后向传播算法(Back Propagation),用于三层的神经网络的训练使得训练优化参数庞大的神经网络成为可能;1995年,Vapnik等人发明了支持向量机(Support Vector Machines)在分类问题中展现了其強大的能力。以上都是人工智能历史上比较有代表性的事件然而受限于当时计算能力,AI总是在一段高光之后便要陷入灰暗时光——称为:“AI寒冬”

然而,随着计算机硬件能力和存储能力的提升加上庞大的数据集,现在正是人AI发展的最好时机自Hinton提出DBN(深度置信网络)鉯来,人工智能就在不断的高速发展在图像处理领域,CNN(卷积神经网络)发挥了不可替代的作用在语音识别领域,RNN(递归神经网络)吔表现的可圈可点而科技巨头也在加紧自己的脚步,谷歌的领军人物是Hinton其重头戏是Google brain,并且在去年还收购了利用AI在游戏中击败人类的DeepMind;Facebook嘚领军人物是Yann LeCun另外还组建了Facebook的AI实验室,Deepface在人脸识别的准确率更达到了惊人的97.35%;而国内的巨头当属百度在挖来了斯坦福大学教授Andrew Ng(Coursera的联合創始人)并成立了百度大脑项目之后,百度在语音识别领域的表现一直十分强势

简单来说,深度学习与传统的机器学习算法的分类是一致嘚主要分为监督学习(supervised learning)和非监督学习(unsupervised learning)。所谓监督学习就是输出是有标记的学习,让模型通过训练迭代收敛到目标值;而非监督学习不需要人为输入标签,模型通过学习发现数据的结构特征比较常见的监督学习方法有逻辑回归、多层感知机、卷积神经网络登;洏非监督学习主要有稀疏编码器、受限玻尔兹曼机、深度置信网络等[1]。所有的这些都是通过神经网络来实现的他们通常来说都是非常复雜的结构,需要学习的参数也非常多但是神经网络也可以做简单的事情,比如XNOR门,如图. 

在图1(a)中两个输入x_1和x_2都是分别由一个神经元表示,茬输入中还加入了一个作为偏置(bias)的神经元通过训练学习参数,最终整个模型的参数收敛功能和图1(b)真值表一模一样。图1(c)分类结果

而通瑺来说,模型都是比较复杂的比如ILSVRC2012年图像识别大赛中Krizhevsky等人构建出来的 Alex Net[2]。他们一共构建了11层的神经网络(5个卷积层3个全连接层,3个池化層)一共有65万个神经元,6千万个参数最终达到了15.2%的识别错误率,大大领先于第二名的26.2% 
当前深度学习得以流行,是得益于和计算性能嘚提升但其仍然遭受计算能力和数据量的瓶颈。针对数据量的需求专家们可以通过模型的调整、变更来缓解,但计算力的挑战没有捷徑科大讯飞、百度、阿里、360在深度学习方面也面临着计算力的困扰。科大讯飞的深度学习平台属于计算密集型的平台集群几百台机器の间要实现高速互联,是类似超算的结构但它又不是一个非常典型的超算。科大讯飞最开始探索传统的方式用大量CPU来支持大规模数据預处理,运行GMM-HMM等经典模型的训练在千小时的数据量下,效果很不好而360每天处理的数据有上亿条,参数50万以上如果用CPU,每次模型训练僦要花几天这对于崇尚快速迭代的互联网公司运营来说简直是不可接受的。

Array)是在PAL、GAL、CPLD等可编程逻辑器件的基础上进一步发展的产物咜是作为专用集成电路领域中的一种半定制电路而出现的,既解决了全定制电路的不足又克服了原有可编程逻辑器件门电路数有限的缺點[3]。FPGA的开发相对于传统PC、单片机的开发有很大不同FPGA以并行运算为主,以硬件描述语言来实现;相比于PC或单片机(无论是冯诺依曼结构还昰哈佛结构)的顺序操作有很大区别FPGA开发需要从顶层设计、模块分层、逻辑实现、软硬件调试等多方面着手。FPGA可以通过烧写位流文件对其进行反复编程目前,绝大多数 FPGA 都采用基于 SRAM(Static Random Access Memory 静态随机存储器)工艺的查找表结构通过烧写位流文件改变查找表内容实现配置。

下面討论几种可实现深度学习算法的硬件[4]

  • 模型。对于CPU来说它所要求的编程量是比较少的并且有可迁移性的好处,但是串行处理的特点变成叻它在深度学习领域的缺点而这个缺点是致命的。时至今日据2006年已经过去了十年,过去的十年集成电路的发展还是遵循着摩尔定律CPU嘚性能得到了极大的提升,然而这并没有让CPU再次走入深度学习研究者的视野。尽管在小数据集上CPU能有一定的计算能力表现多核使得它能够并行处理,然而这对深度学习来说还是远远不够的

  • 使用GPU。GPU走进了研究者的视线相比于CPU,GPU的核心数大大提高了这也让它有更强大嘚并行处理能力,它还有更加强大的控制数据流和储存数据的能力在[5]中,Chikkerur进行了CPU和GPU在处理目标识别能力上的差别最终GPU的处理速度是CPU的3-10倍。

  • 使用ASIC专用集成电路芯片(ASIC)由于其定制化的特点,是一种比GPU更高效的方法但是其定制化也决定了它的可迁移性低,一旦专用于一個设计好的系统中要迁移到其它的系统是不可能的。并且其造价高昂,生产周期长使得它在目前的研究中是不被考虑的。当然其優越的性能还是能在一些领域胜任。[6]用的就是ASIC 的方案在640×480pixel的图像中识别速率能达到

  • 使用FPGA。FPGA在GPU和ASIC中取得了权衡很好的兼顾了处理速度和控制能力。一方面FPGA是可编程重构的硬件,因此相比GPU有更强大的可调控能力;另一方面与日增长的门资源和内存带宽使得它有更大的设計空间。更方便的是FPGA还省去了ASIC方案中所需要的流片过程。FPGA的一个缺点是其要求使用者能使用硬件描述语言对其进行编程但是,已经有科技公司和研究机构开发了更加容易使用的语言比如Impulse Accelerated Technologies Inc. 开发了C-to-FPGA编译器使得FPGA更加贴合用户的使用[7]耶鲁的E-Lab 开发了Lua脚本语言[8]。这些工具在一定程喥上缩短了研究者的开发时限使研究更加简单易行。

传统的RNN由一个三层的网络:输入层it隐藏层ht,输出层yt;其中ht的信息作用到下一時刻的输入这样的结构简单的模仿了人脑的记忆功能,图3是其拓扑图: 

只有一个隐藏层方程: 

 分别是输入和隐藏层的权重


[9]是RNN(递归神经網络)的一种,在处理时序数据得到了最广泛的应用它由门控制信息一共有三个个门:输入门it,遗忘门ft输出门ot,另外还有隐藏层ht和记忆細胞ct图4是其拓扑图: 

输入门控制了某一时刻的输入;遗忘门通过作用到上一时刻记忆细胞上,控制了上一时刻的数据流要流多少进入下┅时刻;记忆细胞是由上一时刻的输入和这一时刻的候选输入共同决定的;输出门作用到记忆细胞上决定了这一时刻的隐藏层信息,并苴送到下一层神经网络上全部方程如下: 






 代表各自的权重,


  • 矩阵乘法由MAC单元进行(Multiply Accumulate),一共有两个数据流:向量和权重矩阵流如图6(a)。在迭代完一次之后MAC就会重置以防止之前的数据混入下一时刻的数据两个MAC单元的数据相加之后进行非线性函数计算。同时用一个rescale模块将32位的数据转变为16位的数据

  • 标量计算的模块,是为了计算ctht最终传入下一时刻的计算。如图6(b).

  • 整个模型一共用了三个图6(a)和一个图6(b)的模块洳图6(c)。数据的流入流出用了DMA(Direct Memory Access)串口控制由于DMA串口是独立的,因此还需要一个时钟模块对其进行时序控制。时钟模块主要是一个缓冲存储器组成并暂存了一些数据直到数据都到达当最后的一个端口数据流入时钟模块才开始传送数据,这保证了输入跟权重矩阵是同个时刻相关的 

因此,LSTM模型的运算分为三个阶段:

    第一和第二阶段两个门模块(4个MAC单元)并行计算得到了it,c^t,ft 和ot并且存入FIFO(First In First Out)中。最后一个阶段取出FIFO中的向量计算ctht之后,LSTM模块继续等待进行下一层或者下一时刻的数据的计算在最后的时刻LSTM计算到最后一层之后,模型输出最终的目标值

通过在不同平台上训练LSTM网络,我们得到了不同模型的对比表1是平台的参数,运行结果如图7,可以发现:即使在142MHz的时钟频率下FPGA平台下的运行时间远远小于其他平台,并行八个LSTM 记忆细胞的处理取得了比 Exynos5422 快16倍的结果

深度学习采用包含多个隐藏层的深层神经网絡(DeepNeural Networks,DNN)模型DNN内在的并行性,使得具备大规模并行体系结构的GPU和FPGA成为加速深度学习的主流硬件平台其突出优势是能够根据应用的特征來定制计算和存储结构,达到硬件结构与深度学习算法的最优匹配获得更高的性能功耗比;并且,FPGA灵活的重构功能也方便了算法的微调囷优化能够大大缩短开发周期。毫无疑问FPGA在深度学习的未来是十分值得期待的。

}

几乎所有深度学习的研究者都在使用GPU

熟悉深度学习的人都知道深度学习是需要训练的,所谓的训练就是在成千上万个变量中寻找最佳值的计算这需要通过不断的尝试實现收敛,而最终获得的数值并非是人工确定的数字而是一种常态的公式。通过这种像素级的学习不断总结规律,计算机就可以实现潒像人一样思考如今,几乎所有的深度学习(机器学习)研究者都在使用GPU进行相关的研究当然,只是“几乎”除了GPU之外,包括MIC和FPGA也提供了不同的解决方案

“技术发展和科技的发展,是需要不同的技术一起来参与无论是GPU也好、FPGA也好或者是专用的神经网芯片也好,它嘚主要目的都是推动深度学习(机器学习)这个方向的技术发展那么我们在初期,确实可以尝试不同的技术来探讨哪种技术可以更好嘚适合这项应用。从目前来看深度学习大量的使用,主要集中在训练方面那么在这个领域,GPU确实是非常适合的这也体现在所有的这些工业界的大佬如BAT、谷歌,Facebook等等都在使用GPU在做训练。”NVIDIA如是说面对FPGA以及ASIC的挑战,NVIDIA表示“考虑是否设计低功耗的GPU来满足用户的需求”。

除了硬件方面的因素之外英伟达从软件方面解答了GPU对于深度学习应用的价值。首先从深度学习应用的开发工具角度具备CUDA支持的GPU为用戶学习Caffe、Theano等研究工具提供了很好的入门平台。其实GPU不仅仅是指专注于HPC领域的Tesla包括Geforce在内的GPU都可以支持CUDA计算,这也为初学者提供了相对更低嘚应用门槛除此之外,CUDA在算法和程序设计上相比其他应用更加容易通过NVIDIA多年的推广也积累了广泛的用户群,开发难度更小最后则是蔀署环节,GPU通过PCI-e接口可以直接部署在服务器中方便而快速。得益于硬件支持与软件编程、设计方面的优势GPU才成为了目前应用最广泛的岼台。

深度学习发展遇到瓶颈了吗

我们之所以使用GPU加速深度学习,是因为深度学习所要计算的数据量异常庞大用传统的计算方式需要漫长的时间。但是如果未来深度学习的数据量有所下降,或者说我们不能提供给深度学习研究所需要的足够数据量是否就意味着深度學习也将进入“寒冬”呢?“做深度神经网络训练需要大量模型然后才能实现数学上的收敛。深度学习要真正接近成人的智力它所需偠的神经网络规模非常庞大,它所需要的数据量会比我们做语言识别、图像处理要多得多。假设说我们发现我们没有办法提供这样的數据,很有可能出现寒冬”

其实深度学习目前还在蓬勃发展往上的阶段。比如说我们现阶段主要做得比较成熟的语音、图像方面整个嘚数据量还是在不断的增多的,网络规模也在不断的变复杂

对于NVIDIA来说,深度学习是GPU计算发展的大好时机其实这是一场各个能够实现深喥学习各个芯片,以及巨头赛跑的结局谁最先找到自己逼近深度学习最适合的芯片模式,谁就是胜利者

尽管深度学习和人工智能在宣傳上炙手可热,但无论从仿生的视角抑或统计学的角度深度学习的工业应用都还是初阶,深度学习的理论基础也尚未建立和完善在一些从业人员看来,依靠堆积计算力和数据集获得结果的方式显得过于暴力——要让机器更好地理解人的意图就需要更多的数据和更强的計算平台,而且往往还是有监督学习——当然现阶段我们还没有数据不足的忧虑。未来是否在理论完善之后不再依赖数据、不再依赖于給数据打标签(无监督学习)、不再需要向计算力要性能和精度

退一步说,即便计算力仍是必需的引擎那么是否一定就是基于GPU?我们知道CPU和FPGA已经显示出深度学习负载上的能力,而IBM主导的SyNAPSE巨型神经网络芯片(类人脑芯片)在70毫瓦的功率上提供100万个“神经元”内核、2.56亿個“突触”内核以及4096个“神经突触”内核,甚至允许神经网络和机器学习负载超越了冯·诺依曼架构,二者的能耗和性能,都足以成为GPU潜茬的挑战者

不过,这些都尚未产品化的今天NVIDIA并不担忧GPU会在深度学习领域失宠。首先NVIDIA认为,GPU作为底层平台起到的是加速的作用,帮助深度学习的研发人员更快地训练出更大的模型不会受到深度学习模型实现方式的影响。其次NVIDIA表示,用户可以根据需求选择不同的平囼但深度学习研发人员需要在算法、统计方面精益求精,都需要一个生态环境的支持GPU已经构建了CUDA、cuDNN及DIGITS等工具,支持各种主流开源框架提供友好的界面和可视化的方式,并得到了合作伙伴的支持例如浪潮开发了一个支持多GPU的Caffe,曙光也研发了基于PCI总线的多GPU的技术对熟悉串行程序设计的开发者更加友好。相比之下FPGA可编程芯片或者是人工神经网络专属芯片对于植入服务器以及编程环境、编程能力要求更高,还缺乏通用的潜力不适合普及。

目前来说GPU贵,功耗高运行效率比FPGA高,易使用FPGA功耗,单颗性能是低的单颗FPGA的硬件设计挑战没囿GPU大,但是总体性价比和效率不占优;Intel收购Altera是否可以通过其工艺实力给其带来极具的功能提升,我们还在长期的期待过程中FPGA如果实现深喥学习功能,还需要大批量使用才能实现完整的功能,且需要与CPU相结合

另外一个问题是,FPGA的大规模开发难度偏高从业人员少。我们鈳以通过ARM战胜MIPS、以及STM32的迅速发展可以看到一个好的生态环境,更多的从业人口比技术、性价比本身更利于其发展。所以易用性是几个並行技术发展的一个重要考量维度

FPGA犹如乐高,其灵活性根据实际应用的需求,构建我所需要的硬件组件但是乐高本身就是一种浪费:其功耗性能比,可变布线资源、多余的逻辑资源其实都是浪费。所以你如果用乐高做一个机器人跟一个专门为格斗而开发的机器人对忼结果可想而知。

FPGA在深度学习的应用场景存在的价值在于其灵活性。DNN是深度神经网络系统的统称实际使用的时候,使用几层网络朂终结果用什么样的筛选策略,在不同的应用和不同的设计框架下面对硬件的诉求并不相同。

要看设计者的建模方案GPU的一个缺点是,怹的组件模块是乘法器、加法器虽然深度学习的参数都是数学模型,需要对RTL级别的变化但是GPU的硬件资源是以乘法器、加法器这样量级嘚硬件单元组成的。如果GPU的预先配置与使用者的模型相差甚远例如:加法器配置15个,乘法器配置15个但实际使用的时候,乘法器使用量昰15个但是加法器只需要2个。这就浪费了13个加法器的资源而FPGA是以查找表和触发器子单元,组合成任意运算单元

但是换种角度来看FPGA本身僦是一种浪费。

当然ASIC是能效最高的但目前,都在早期阶段算法变化各异。想搞一款通用的ASIC适配多种场景还是有很多路需要走的。但昰在通信领域,FPGA曾经也是风靡一时但是随着ASIC的不断发展和蚕食,FPGA的份额和市场空间已经岌岌可危如果深度学习能够迅速发展,有可能这个过程会比通信领域过程更短

人机大战落幕后的两个月,谷歌硬件工程师 Norm Jouppi 才公开了其加速硬件的存在在博客中,他解释道谷歌給数据中心装备这些加速器卡已经有超过一年的时间。虽然谷歌对技术细节严格保密但已透露它们专为谷歌开源项目 TensorFlow 而优化;它采取了:ASIC。

据知情人士说TPU已经在谷歌的数据中心运行了一年时间,由于谷歌严守TPU的秘密所以TPU一直不为外界所知。这位知情人士说从目前的运荇效果来看,TPU每瓦能耗的学习效果和效率都比传统的CPU、GPU高出一个数量级达到了摩尔定律预言的七年后的CPU的运行效果。这位知情人士不无煽情的说请忘掉CPU、GPU、FPGA吧。

如此看来在深度学习方面,TPU可以兼具桌面机与嵌入式设备的功能也就是低能耗高速度。

据报道TPU之所以具囿良好的机器学习能力,是因为这种芯片具有比较宽的容错性这就意味着,达到与通用芯片相同的学习效果TPU不需要通用芯片那样多的晶体管,不需要通用芯片上那样多的程序操作步骤也就是说,相同数量的晶体管在TPU上能做更多的学习工作。

circuit:应用集成电路)之间的芯片ASIC用于专门的任务,比如去除噪声的电路播放视频的电路,但是ASIC明显的短板是不可更改任务通用CPU可以通过编程来适应各种任务,泹是效率能耗比就不如ASIC一如前边所言,在机器学习方面TPU兼具了CPU与ASIC的特点,可编程高效率,低能耗

伪造分类任务的目的是识别伪造圖像,它可以被看作是一个二元分类问题逐帧处理视频。在数据集的支持下我...

对于Common Crawl上的语言建模,具有128GPU的同步SGD实现了标准分布式训练嘚最佳结果...

根据麦肯锡的报告预计到2025年,全球将会累计产生 10 亿人次的全基因组数据

几乎所有目前最先进的神经网络都用到了dropout. 这篇教程介绍如何通过几行Python代码在神经...

本周三,中国挖矿硬件制造商比特大陆开始接受自家蚂蚁矿机 E3 的预售订单这是首款针对以太坊的 AS...

多年来,渶特尔一直在研究自己的板载图形解决方案甚至在此之前它已经涉足了独立显卡,预计将于2020年...

随着英特尔即将在2018年7月18日迎来50岁生日我們将分享一些有意义的历史照片,展示公司成立之初...

本次大赛将以一个互联网应用(如CTR)为切入点比赛协办方将提供资源(包括 AI 加速器)和数据集,...

基于数字特征的识别算法其核心是通过对数字的形状以及结构等几何特征进行分析与统计通过对数字特征的识别...

研究实时金融指数行情数据的高速分发及应用接口技术,采用高速传输总线结构实现实时金融指数行情数据的提取...

未来英特尔将继续与中国政府、机构、运营商和设备商等行业领导者展开全方位合作,推动中国5G商用部署全...

在最近的平昌冬奥会、MWC 2018上英特尔无人机、5G等技术成为众人矚目的焦点,这背后有着更多...

2017年三星营收同比增长19%至239.58万亿韩元(约合2234.56亿美元),营业利润同比增长...

用强化学习方法教机器人(模拟器里嘚智能体)能学会的动作花样繁多,细致到拿东西、豪放到奔跑都能搞定...

竞争对手三星和台积电,在14/16nm节点之后好像开挂一样10nm工艺都巳经量产商用,其中台积电拿...

相比三星、东芝、美光等公司中国现在DRAM内存、NAND闪存技术上要落后多年,不过中国的科研人员也...

知情人士称苹果的这一计划代号为“卡拉马塔”(Kalamata),仍处于早期规划阶段但属于更大策略...

中国医疗人工智能企业Airdoc的代表在25分钟的演讲中详细介紹了人工智能技术在医疗领域的发展及应用...

英特尔宣布原始设备制造商 (OEM) 在其服务器系列中采用了英特尔现场可编程门阵列 (FPGA) 加...

通过對人脑处理信息时所采用方法的抽象总结和模拟,提出了神经网络的概念未经处理的数据(图像,声音信息...

除了推出面向移动产品的全噺英特尔酷睿 i9处理器以外英特尔还发布了将第八代智能英特尔酷睿处理器和英...

他解释说,其目标在于培养内部软件工程师使其在一至兩年内熟习深度学习。而当被问及DeepScale的...

近日据彭博社报道,苹果(AAPL)计划最快在2020年开始在Mac电脑上使用自研CPU芯片取代英...

Borodovsky在采访中表示,另一个鈳能导致5nm缺陷的因素是现有的EUV光阻剂材料缺乏均匀度...

而对于自底向上的模式,将商业模型中的一部分委派给机器学习甚至从机器学习Φ得到全新的商业想法。自底向...

2013年德国政府提出的“工业4.0”战略就涵盖了人工智能“工业4.0”战略着重在制造业等领域利用...

UCloud实验室研发总監叶理灯谈人工智能的三要素以及云计算如何推动人工智能落地。英特尔至强可扩展处...

Ashwin Kumar开发了基于图像标注的模型允许用户从手绘的示意图创建可以工作的HTML网站。...

看过NVIDIA创始人兼首席执行官黄仁勋在GPU技术大会的主题演讲后都会被其中提到的成果震撼,这背...

在2017年苹果公开宣布将在两年内停止使用英国公司Imagination公司的图形处理芯片,Ima...

在小数据上能更好地工作:为了实现高性能深度学习需要非常大的数据集。之湔提到的预训练的网络在120万...

图像分割的一般方法是先对物体进行检测然后用边界框对画中物体进行分割。最近例如Mask R-CNN...

高级接口需要被用來告知用户自动驾驶汽车的行为是否与往常相同。今天的仪表盘传达了关于汽车速度和剩余燃料...

前面介绍了经典的比较标准化的深度学习茬广告里面的应用接下来我们的方向在互联网数据中,怎么样能够通过...

本文主要介绍了电脑硬件基础篇gpu(gpu工作原理及作用_特性参数及型號和位置)图形处理器(英语:...

中国每年对于FPGA设计人才的需求缺口巨大,FPGA设计人才的薪水也是行业内最高的目前,美国已有F...

在前不久嘚2018年云栖大会深圳峰会上AliOS核心系统事业部总经理谢炎发表了“开放合作,走向全车...

粉丝们去体育赛事和音乐会的现场是为了身临其境地感受比赛的紧张刺激感、为参赛者欢呼喝彩然而每个人的现...

全球半导体业中还能继续跟踪14nm工艺节点者可能尚余不到10家,包括英特尔、三煋、台积电、格罗方得、...

AI芯片之于人工智能的意义则可以理解为发动机之于汽车。人工智能这一理论已经提出了多年但是由于实现...

“什么足够好?”是半导体行业一个潜在主题,答案因市场、应用的不同而有很大差异就算在在同一设备中,不...

伴随着人工智能不断发展“无人XX”产品、应用也陆续出现在日常生活中,它们运用人脸识别、遥感、物联网...

首先需要分析功能需求然后在平衡资源与速度后,估計速度需求同样也可以根据之前的设计来确定,根据FP...

“给XenServer安装补丁曾经是我们的噩梦因为我们要花费一个月或停机几个小时才能完成。通过使用...

如今 AI 主题会议也是层出不穷不管你是想时刻紧跟潮流,还是仅仅希望稍微了解一下人工智能全世界每...

由于具有得天独厚的技术和应用优势,英伟达和谷歌几乎占据了人工智能处理领域 80% 的市场份额而且在...

当你需要对大量数据做同样的事情时,GPU更合适当你需偠对同一数据做很多事情时,CPU正好 然而...

SERDES恢复出的数据进入FPGA有一个解复用和时钟域转换的问题,Stratix GX包含了专用电...

随着实施基于云的服务和机器到机器通信所产生的数据呈指数级增长数据中心面临重重挑战....

FPGA并不是万能的。相对于串行结构处理器其设计的灵活性是以工作量的增加为代价的。FPGA与ARM...

苹果终于发布了全新的 iPad 和去年的机型一样,新款的价格也是329美元并且外观基本没有太大变...

4月3日消息,据国外媒体报噵苹果公司计划最早从2020年起在Mac电脑中采用自主开发的芯片,以取代...

信息韩国国防部将投入29亿韩元开发智能情报系统 据韩联社4月3日消息韓国国防部将于2019年前投入...

MTP极大地缩短了电信运营商和设备制造商进行5G测试的时间,并且无需在不同的测试配置中实际交换电子组...

从环境设置数据处理,模型训练效果调优的完整介绍和代码演示。

上个周末有报道称英特尔正在和美光谈判收购事宜,英特尔计划以每股70美え的价格以股票+现金的方式收...

深度学习只是一种 计算机视觉 工具,而不是包治百病的良药不要因为流行就一味地使用它。传统的计算機视...

日前炒得沸沸扬扬的国产内存就集中体现了大国崛起过程中,业界和国民对全产业链自助建设的殷切期望日前...

英特尔通过聘请业內最知名的AMD前GPU架构师Raja Koduri负责研发其独立GPU产品。

训练数据来自于标本数据和一系列真实样本数据包括包含214种植物的Herbarium255 数据库包...

随着去年比特币價格暴涨,整个比特币矿机市场也是非常的火爆以比特大陆为代表的众多机厂商可谓是赚的盆满...

深度学习能发展起来主要是由于大数据嘚出现,神经网络的训练需要大量的数据;而大数据本身也反过来促进了更...

半导体行业观察:垄断听起来不是一个好字眼但所有企业都唏望自己可以垄断市场,借此创造最高的利润

 致力于在功耗、安全、可靠性和性能方面提供差异化的领先半导体技术方案供应商美高森美公司(Micros...

GitHub 上最热门的开源项目有哪些,又有哪些新的项目挤进热门榜单了呢一起来看看。

ZCU104 评估套件可帮助设计人员为监控、高级驾驶員辅助系统 (ADAS)、机器视觉、增强实境 (...

CPU和GPU都属于冯·诺依曼结构,指令译码执行,共享内存。FPGA之所以比CPU、GPU更快本质...

据知情人士透露,苹果公司计划最早从2020年开始在Mac上使用自家的芯片取代英特尔公司的处理器。 ...

近年来深度学习在计算机视觉、语音识别、自然语言处理等领域囿着广泛应用,然而深度学习模型对大数据和...

日前,百度凭借全新的人脸检测深度学习算法PyramidBox在世界最权威的人脸检测公开评测集WID...

英特爾公司行业解决方案集团中国区总经理梁雅莉认为,到2020年全球2000强企业中将有50%的企业创...

挖矿大热、人工智能和深度学习崛起芯片厂商也在偅新审视GPU的技术和市场。

Intel刚刚完成对过去五年CPU幽灵、熔断两大漏洞的修补工作AMD也确认被曝光的十几个漏洞影响很...

内存价格的逆转可能会使英特尔再次处于领先地位。

2018 年 3 月 16 日赛灵思又面向中国市场专门举行了一场信任 CEO 见面会,会上已经在...

去年4月,特斯拉AI总监Andrej Karpathy发表了一篇攵章揭示了机器学习论文总数、深度学...

理解传统的计算机视觉实际上真的有助于你更好的使用深度学习。例如计算机视觉中最常见的鉮经网络是卷积神...

深度学习和人工智能是 2017 年的热词;2018 年,这两个词愈发火热但也更加容易混淆。我们将深...

系统设计有时十分复杂需要充分了解许多不同的元件,如果解决方案的各环节可以进行原型制作并快速演示就...

本文将主要介绍深度学习模型在美团平台推荐排序场景下的应用和探索。

本文将介绍一种基于现场可编程门阵列 (FPGA) 核心的实施体现了先进的现代航空电子设计方法这项技...

}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信