公司11网络问题无法登录登录问题

我家的网是电信的无线路由连接的时候11平台总是上不去,其他上网啊什么都很正常但是我用自己手机发射3G热点,电脑却能登录11平台了什么原因啊... 我家的网是电信的,无线路由连接的时候11平台总是上不去其他上网啊什么都很正常,但是我用自己手机发射3G热点电脑却能登录11平台了,什么原因啊

我前幾天也遇到这种情况主要是11网络问题无法登录节点问题,也就是之前你用什么网连接的再用其他放的11网络问题无法登录会出现上不去嘚情况,我的是网线查的端口换了个位置结果就不行了搞了半天 又换回去就好了,插拔网线重启路由都试试吧,这个11真蛋疼

你对这個回答的评价是?

采纳数:1 获赞数:8 LV2

只要一直登陆就行连续登陆5-10次就能登上了

你对这个回答的评价是?

wifi的问题无线不稳定或者受到干擾会出现这种情况!

你对这个回答的评价是?

}

雷锋网(公众号:雷锋网)按:本文經AI新媒体量子位(公众号 ID: QbitAI)授权转载转载请联系出处。王瀚宸 编译自 TheOrangeDuck

每个人在调试神经11网络问题无法登录的时候,大概都遇到过这样┅个时刻:

什么鬼!我的神经11网络问题无法登录就是不 work!到底该怎么办!

机器学习博客 TheOrangeDuck 的作者育碧蒙特利尔实验室的机器学习研究员 Daniel Holden,吔就是这个人:

根据自己工作中失败的教训整理了一份神经11网络问题无法登录出错原因清单,一共 11 条量子位搬运过来,各位被神经11网絡问题无法登录虐待的时候可以按图索骥。

当然也祝你们看了这 11 条之后,功力大进炼丹顺利。

在使用神经11网络问题无法登录的过程Φ非常重要的一点是要考虑好怎样规范化(normalize)你的数据。

这一步不能马虎不正确、仔细完成规范化的话,你的11网络问题无法登录将会鈈能正常工作

因为规范化数据这个重要的步骤在深度学习圈中早已被大家熟知,所以论文中很少提到因此常会成为初学者的阻碍。

大體上说规范化是指从数据中减去平均值,然后再除以标准差的操作

通常这个操作对每个输入和输出特征是分别完成的,但你可能会想哃时对一整组的特征进行规范化再挑出其中一些特殊处理。

我们需要规范化数据的主要原因是在神经11网络问题无法登录中几乎所有的數据传输途径中,都是假设输入和输出的数据结构满足标准差接近于 1平均值几乎为 0。这个假设在深度学习中的每个地方都会出现从权偅因子的初始化,到活化函数再到训练11网络问题无法登录的优化算法。

一个未训练的神经11网络问题无法登录通常输出的结果范围从 - 1 到 1洳果你希望它的输出值在其它的范围,比如说 RGB 图片表示颜色的值域就是 0 到 255你将会遇到麻烦。

当期望的输出值是 255神经11网络问题无法登录開始训练时情况会极不稳定,因为实际产生的值为 - 1 或者 1对大多数用来训练神经11网络问题无法登录的优化算法来说,这和 255 相比都有巨大的誤差这将会产生巨大的梯度,你的训练误差很可能会爆表

就算碰巧在你训练的起始阶段,误差没有爆表这个过程仍然是没有意义的,因为神经11网络问题无法登录在向错误的方向学习和发展

如果你先将你的数据规范化(在这个例子中你可以将 RGB 值除以 128 然后减去 1),那么這些情况就都不会发生

总体来说,神经11网络问题无法登录中各种特征的值域决定了他们的重要性

如果输出中的一项特征的值域很大,那么意味着与其他特征相比它将会产生更大的误差。同样地输入中值域大的特征也会支配着11网络问题无法登录,在下游中引起更大的變化

因此,仅仅依靠许多神经11网络问题无法登录库中的自动规范化盲目地减去平均值后再除以方差,并不总是合适的做法可能有这樣一个输入特征,取值范围通常在 0 到 0.001 之间它的值域这么小是因为这个特征不重要,还是因为它与其他特征相比有着更小的单位呢这决萣了你要不要将它规范化。

类似地还要谨慎对待那些值域较小的特征,因为它们的标准差可能很小接近或者严格等于 0。如果你对它们進行规范化可能会产生 NaN(Not a Number) 的错误。

这种情况需要谨慎地对待要仔细琢磨你的这些特征真正代表着什么,以及考虑规范化的过程是为了将所有输入的特征等价

这是少数几个我认为在深度学习中需要人类完成的任务。

当你训练11网络问题无法登录经过了几个 epoch 之后误差(error)开始下降了——成功!

但这是否意味着你完成了训练呢?博士能毕业了吗很不幸,答案是否定的

你的代码中,基本上还肯定还存在一些錯误这个 bug 可能存在于数据预处理,训练11网络问题无法登录甚至是最后给出推断结果的过程中

只是误差开始下降,并不意味着你的11网络問题无法登录学到了 “真功夫”

毋庸置疑,在数据传输过程中的每个阶段检查数据正确性都很重要通常这意味着要通过一些方法来对結果进行可视化。

如果你的数据是图像那么情况就很简单,相应的动画数据很好生成但如果你的数据比较奇葩,也要找出一种合适的方法能够在预处理、11网络问题无法登录训练和数据传递的每个阶段来检查数据的正确性,将其与原始的真实数据比较

跟传统的编程过程不同,机器学习系统失败时都不出声

在传统编程中,我们习惯了当遭遇状况时计算机报错随后我们可以结合报错内容来 debug。不幸的是这个过程并不适用于机器学习应用。

所以我们需要极其小心地在每个阶段检查我们的过程是否有问题,从而能够察觉到 bug 的产生以及茬需要回头仔细检查代码的时候及时发现。

有许多种方法来检查你的11网络问题无法登录是否有效其中之一是要明确训练误差的意义。将茬训练集上运行的神经11网络问题无法登录的输出结果进行可视化——输出结果跟实际情况相比怎样

你可能看到在训练过程中误差从 100 下降箌 1,但最终结果仍然是不可用的因为在实际场景中误差为 1 仍然是不可接受的结果。如果11网络问题无法登录在训练集上有效那么再在验證集上测试——它是否同样适用于之前没有见过的数据呢?

我的建议是从一开始就可视化所有过程不要等11网络问题无法登录不奏效时再開始做,在你开始尝试不同的神经11网络问题无法登录结构之前你要确保整个流程没有一丝差错。这是你能够正确评估不同11网络问题无法登录模型的唯一方式

绝大部分数据都很 tricky。我们认为非常相似的事物从数据上看可能拥有完全不同的数值表达形式。

就拿视频中的人物動作来说如果我们数据是在一个特定地点或是特点方向上,记录人物的关节相对于录像中心的 3D 位置那么换一个方向或地点,可能同一套动作会拥有完全不同的数字表达形式

因此,我们需要用新的方式来表达我们的数据比如说放到一些本地参考系中(诸如跟人物的质惢相关的一些),让相似的动作有相似的数值表达

思考你的特征具体代表着什么——你是否可以在它们上面做一些简单的变换,来确保鼡来代表相似事物的数据点通常具有相似的数值表达是否存在一个本地坐标系,能以一种不同的形式更自然地表达你的数据比如说一個更好的色彩空间?

神经11网络问题无法登录只对输入的数据做一些最基本的假设但是这些假设中有一条,是认为这些数据分布的空间是連续的即对于空间中的大部分,两个数据点间的点类似这两个数据点的 “混合”相邻的数据点在某种意义上代表着相似的事情。

当数據空间中存在较大的不连续时亦或者一大组分开的数据均代表着同一件事情时,将会使得学习任务的难度大大增加

理解数据预处理(preprocess)的另一种方式,是把它作为减少由排列组合导致的数据激增的一种尝试

举例来说,如果一个基于人物动作训练过的神经11网络问题无法登录需要学习在该人物在各个地点、各个方向上的同一组动作那么将会耗费大量的资源,学习的过程将会是冗余的

正则化(regularization)方式是訓练神经11网络问题无法登录时另一个不可或缺的方面,通常以 Dropout 层、小噪声或某种形式的随机过程等方式应用到11网络问题无法登录中

即使茬你看来当前数据规模远大于参数规模,或是在某些情况下不会出现过拟合效应,或者就算出现也不影响效果你仍然应该加入 Dropout 层或一些其他形式的小噪声。

向神经11网络问题无法登录添加正则化的一种最基本方法是在11网络问题无法登录中的每个线性层(如卷积层或稠密層)前加入 Dropout 层。

在开始设置 Dropout 值时可定义中等值到较低值,如 0.25 或 0.1你可根据11网络问题无法登录的各项指标,来判断过拟合程度并进行调整若仍觉得不可能出现过拟合效应,可以将 Dropout 值设置到非常小如 0.01。

正则化方式不仅仅是用来控制过拟合效应它在训练过程中引入了一些隨机过程,在某种意义上 “平滑” 了代价格局这种方式可加快训练进程,有助于处理数据中的异常值并防止11网络问题无法登录中出现極端权重结构。

跟 Dropout 层一样数据增强或者其他类型的噪声也可作为正则化方式。

虽然 Dropout 层通常被认为是一种将许多随机子11网络问题无法登录嘚预测结果结合起来的技巧但它也可看作是一种通过在训练时产生多种输入数据的相似变体来动态扩展训练集大小的方法。

而且要知道防止过拟合并提高11网络问题无法登录准确性的最佳方法是向神经11网络问题无法登录输入大量且不重复的训练数据。

5. 设置了过大的批次大尛

设置了过大的批次(batch)大小可能会对训练时11网络问题无法登录的准确性产生负面影响,因为它降低了梯度下降的随机性

要在可接受嘚训练时间内,确定最小的批次大小一个能合理利用 GPU 并行性能的批次大小可能不会达到最佳的准确率,因为在有些时候较大的批次大尛可能需要训练更多迭代周期才能达到相同的正确率。

在开始时要大胆地尝试很小的批次大小,如 16、8甚至是 1。

较小的批次大小能带来囿更多起伏、更随机的权重更新这有两个积极的作用,一是能帮助训练 “跳出” 之前可能卡住它的局部最小值二是能让训练在 “平坦” 的最小值结束,着通常会带来更好的泛化性能

数据中其他的一些要素有时也能起到批次大小的作用。

例如以两倍大小的先前分辨率來处理图像,得到的效果与用四倍批次大小相似

做个直观的解释,考虑在 CNN 11网络问题无法登录中每个滤波器的权重更新值将根据输入图潒的所有像素点和批次中的每张图像来进行平均,将图像分辨率提高两倍会产生一种四倍像素量同样的平均效果,与将批次大小提高四倍的做法相似

总体来说,最重要的是要考虑到在每次迭代中有多少决定性的梯度更新值被平均,并确保平衡好这种不利影响与充分利鼡 GPU 并行性能的需求之间的关系

6. 使用了不适当的学习率

学习率对11网络问题无法登录的训练效果有着巨大的影响。如果你刚入门使用了常鼡深度学习框架中给出的各种默认参数,那几乎可以肯定你的设置不对。

关闭梯度裁剪找出学习率的最大值,也就是在训练过程中不會让误差爆表的上限值把学习率设置为比这小一点的值,很可能就非常接近最佳学习率了

大多数深度学习框架会默认启用梯度裁剪方式。这种方式通过限制在每个步骤中可以调整权重的数量来防止训练过程中优化策略出现崩溃。

当你的数据中包含许多异常值会造成夶幅度的梯度和权重更新,这种限制特别有用但是在默认情况下,这种方式也会使用户很难手动找到最佳学习率

我发现,大多数深度學习新手会设置过高的学习率并且通过梯度裁剪来缓解此问题,使得全局训练过程变慢并且改变学习率后的11网络问题无法登录效果不鈳预测。

如果你好好清洗了数据删除了大多数异常值,并设置了合理的学习率实际上并不需要梯度裁剪方式。如果关闭了梯度裁剪之後里你发现11网络问题无法登录偶尔会发生训练错误,那就再打开它

但是要记住,发生训练错误通常表明你的数据还存在一些问题梯喥裁剪只是一个暂时的解决方法。

7. 在最后一层使用了错误的激活函数

在最后一层中不合理的激活函数有时会导致你的11网络问题无法登录無法输出所需值的全部范围。最常见的错误是在最后一层使用 ReLU 函数,导致11网络问题无法登录只能产生正值输出

如果要实现回归任务,那么在最后一层通常不需要使用任何激活函数除非你详细地知道你想输出哪一类值。

再次确认下你输入数据的实际意义以及归一化后嘚具体范围。

很可能出现的情况是11网络问题无法登录的输出区间是从负无穷大到正无穷大,在这种情况下你不该在最后一层使用激活函数。

如果11网络问题无法登录输出只在某个区间内有意义则需使用一些特殊的激活函数。比如某11网络问题无法登录输出为 [0, 1] 区间的概率徝,根据这种情况可使用 S 形激活函数

在选择最后一层的激活函数时,有许多玄学

在神经11网络问题无法登录产生输出后,你也许会将其裁剪到 [-1, 1] 的区间那将这个裁剪过程当作最后一层的激活函数,这似乎是有意义的因为这将确保11网络问题无法登录中的误差函数不会对不茬 [-1, 1] 区间外的值进行惩罚。但是没有误差意味着区间外的这些值没有对应梯度这在某些情况下无法进行11网络问题无法登录训练。

或者你吔可以在最后一层使用 tanh 函数,因为这个激活函数的输出范围是 [-1, 1]但是这也可能出现问题,因为这个函数在 1 或 - 1 附近时斜率变得很大可能会使权重大幅增加,最终只产生 - 1 或 1 的输出

一般来说,最好的选择通常是采用求稳策略在最后一层不使用任何激活函数,而不是试图使用┅些机灵的技巧可能会适得其反。

8. 11网络问题无法登录含有不良梯度

使用 ReLU 激活函数的深度神经11网络问题无法登录通常可能遭受由不良梯度引起的所谓 “死神经元”这可能会对11网络问题无法登录的性能产生负面影响,或者在某些情况下导致完全无法训练

如果发现在 epoch 到 epoch 之间,你的训练误差不会变化就可能是由于 ReLU 激活函数导致了所有的神经元已经死亡。

换一个激活函数试试比如 leaky ReLU 或 ELU,看看是不是还会发生同樣的情况

ReLU 激活函数的梯度对于正值为 1,对于负值为 0这是因为对于小于 0 的输入来说,输入的很小变化不会影响输出

这可能看起来不是┅个问题,因为正值的梯度很大但是很多层叠在一起,而负权重可以将具有强梯度的大正值变为 0 梯度的负值

你可能经常发现,无论输叺什么部分甚至全部隐藏单元对成本函数都是 0 梯度,这就是所谓的11网络问题无法登录 “已死”所有权重都无法更新。

很多运算都具有 0 梯度比如裁剪,舍入或取最大 / 最小值,如果用它们来计算成本函数相对于权重的导数都会产生不良梯度。

如果它们出现在你的符号圖的任何地方要非常小心,因为它们常常会导致意想不到的困难

9. 没有正确地初始化11网络问题无法登录权重

如果你没有正确地初始化神經11网络问题无法登录权重,那么神经11网络问题无法登录很可能根本就无法训练

神经11网络问题无法登录中有许多其他组件,会假设你的权偅初始化是正确的或者标准的,它们会将权重设置为 0或者使用你自定义的随机初始化权重,于是将不会起作用

“he”、“lecun” 或 “xavier” 权偅初始化都是受欢迎的选择,在几乎任何情况下都应该很好地工作只要选一个(我最喜欢的是 “lecun”)就行了。

但是一旦神经11网络问题无法登录开始训练了你就可以自由的实验,寻找最适合你任务的权重了

你可能听说过,可以使用 “小随机数” 初始化神经11网络问题无法登录权重但并不那么简单。

所有上述初始化方法都是靠复杂、细致的数学发现的这也说明了为什么它们是最佳的。

更重要的是很多其他神经11网络问题无法登录组件都是围绕这些初始化构建的,并根据经验使用它们进行测试 自己进行初始化可能会导致难以复现其他研究者的成果。

其他层可能也需要仔细地初始化11网络问题无法登录偏移被初始化为零,而其他更复杂的层(如参数激活函数)可能会带有洎己的初始化这与正确的同样重要。

10. 神经11网络问题无法登录太深了

11网络问题无法登录越深越好不一定。

当你对11网络问题无法登录进行基准测试试着在一些任务上提高 1% 的准确度时,更深的11网络问题无法登录通常会表现得更好

但是如果你设计的浅层(3 到 5 层)11网络问题无法登录没有学习任何特征,那么可以保证你设计的超深(如 100 层)11网络问题无法登录也会没有效果,甚至更加糟糕

刚开始时,先试试浅層神经11网络问题无法登录的效果通常是 3 到 8 层。只有当你的11网络问题无法登录有一定效果要开始着手提高准确率时,再去研究更深层11网絡问题无法登录的结构

看起来似乎是当有人决定堆一个几百层的神经11网络问题无法登录时,神经11网络问题无法登录模型忽然得到了突破性的结果但事实并非如此。

在过去十年中神经11网络问题无法登录中所有改良技术所取得的微小进步,对浅层和深层11网络问题无法登录嘟同样适用如果你的11网络问题无法登录不起作用,这很可能不是深度问题是其他方面出错了。

从小型11网络问题无法登录开始训练也意味着能更快地训练11网络问题无法登录、更快地完成模型推理及更快地完成不同结构和参数配置的迭代过程。首先与仅堆叠更多11网络问題无法登录层相比,上面提到的所有方面将对模型准确率产生更大的影响

某些情况下,隐藏单元太多或者太少都会导致11网络问题无法登录难以训练。

隐藏单元太少可能会没有能力表达所需的任务;太多单元又会导致11网络问题无法登录缓慢、难以训练,残留噪声难以消除

开始时的隐藏单元数量,最好在 256 到 1024 个之间

然后,看一下研究类似应用的研究人员使用了多少个隐藏单元找找灵感。如果你的同行所用的数量和上面给出的数字相差很远可能会有一些特殊的原因,这可能对你来说很重要

当决定隐藏单元的数量时,关键在于考虑要表达你想通过11网络问题无法登录传递的信息所需的最小真实值是多少。

然后考虑到 dropout、11网络问题无法登录使用冗余的表示、以及为你的估计留一点余地,可以将这个数字放大一点

如果你正在做分类,可以使用类别数目的 5 到 10 倍作为隐藏单元的数量;如果做回归,可以使鼡输入或输出变量数目的 2 到 3 倍

当然,所有这些都高度依赖于环境没有简单的自动解决方案,决定隐藏单元数量时最重要的依然是直覺。

实际上与其他因素相比,隐藏单元的数量通常对神经11网络问题无法登录性能影响很小而在许多情况下,高估所需隐藏单位的数量除了拖慢训练速度之外也不会有什么负面影响。

一旦11网络问题无法登录开始正常工作如果你还是担心,可以尝试各种不同数量的隐藏單元并测量11网络问题无法登录精度,直到找到最合适的设置

雷锋网版权文章,未经授权禁止转载详情见。

}

我要回帖

更多关于 11网络问题无法登录 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信