深度神经网路

深度神经网路

深度神经网路指的是微软推出了一新款语音识别软体,其工作原理是模仿人脑思考方式,从而使该软体的语音识别速度更快,识别準确率也更高。

    • 中文名:深度神经网路
    • 外文名:Deep Neural Network
    • 类型:语音识别软体
    • 工作原理:模仿人脑思考方式
    • 特点:语音识别速度更快识别準确率更高

功能

微软介绍,这种新型语音识别软体採用了名为“深度神经网路”的技术,使得该软体处理人类语音的过程与人脑相似。对此微软必应(Bing)搜寻业务部门主管斯特凡·维茨(Stefan Weitz)在本周一表示:“我们试图複製人脑聆听和处理人类语音的方式。”

微软还表示,与原有WP手机语音识别技术相比,新型技术的语音识别準确性提高了15%,且创建相应文本及搜寻关键字的速度也更快。如此一来,必应返回相应搜寻结果所用时间比以前快了两倍。

微软语音处理技术部门高级项目经理麦可·特加尔夫(Michael Tjalve)也表示:“通过我们最新的语音识别器,你不但得到的结果更好,而且速度更快。”

微软已面向美国市场的Windows Phone手机用户发布了这项技术。用户通过这项新技术,将更容易使用语音命令来创建简讯、进行网路搜寻等活动。

工作

多层的好处是可以用较少的参数表示複杂的函式。

在监督学习中,以前的多层神经网路的问题是容易陷入局部极值点。如果训练样本足够充分覆盖未来的样本,那么学到的多层权重可以很好的用来预测新的测试样本。但是很多任务难以得到足够多的标记样本,在这种情况下,简单的模型,比如线性回归或者决策树往往能得到比多层神经网路更好的结果(更好的泛化性,更差的训练误差)。

非监督学习中,以往没有有效的方法构造多层网路。多层神经网路的顶层是底层特徵的高级表示,比如底层是像素点,上一层的结点可能表示横线,三角; 而顶层可能有一个结点表示人脸。一个成功的算法应该能让生成的顶层特徵最大化的代表底层的样例。如果对所有层同时训练,时间複杂度会太高; 如果每次训练一层,偏差就会逐层传递。这会面临跟上面监督学习中相反的问题,会严重欠拟合。

2006年,hinton提出了在非监督数据上建立多层神经网路的一个有效方法,简单的说,分为两步,一是每次训练一层网路,二是调优使原始表示x向上生成的高级表示r和该高级表示r向下生成的x'儘可能一致。方法是

1,首先逐层构建单层神经元,这样每次都是训练一个单层网路。

2,当所有层训练完后,hinton使用wake-sleep算法进行调优。将除最顶层的其它层间的权重变为双向的,这样最顶层仍然是一个单层神经网路,而其它层则变为了图模型。向上的权重用于”认知“,向下的权重用于”生成“。然后使用Wake-Sleep算法调整所有的权重。让认知和生成达成一致,也就是保证生成的最顶层表示能够儘可能正确的复原底层的结点。比如顶层的一个结点表示人脸,那么所有人脸的图像应该激活这个结点,并且这个结果向下生成的图像应该能够表现为一个大概的人脸图像。Wake-Sleep算法分为醒(wake)和睡(sleep)两个部分。

2.1,wake阶段,认知过程,通过外界的特徵和向上的权重(认知权重)产生每一层的抽象表示(结点状态),并且使用梯度下降修改层间的下行权重(生成权重)。也就是“如果现实跟我想像的不一样,改变我的权重使得我想像的东西就是这样的“。

2.2,sleep阶段,生成过程,通过顶层表示(醒时学得的概念)和向下权重,生成底层的状态,同时修改层间向上的权重。也就是“如果梦中的景象不是我脑中的相应概念,改变我的认知权重使得这种景象在我看来就是这个概念“。

由于自动编码器(auto-encoder,即上面说的神经网路。广义上的自动编码器指所有的从低级表示得到高级表示,并能从高级表示生成低级表示的近似的结构,狭义上指的是其中的一种,谷歌的人脸识别用的)有联想功能,也就是缺失部分输入也能得到正确的编码,所以上面说的算法也可以用于有监督学习,训练时y做为顶层网路输入的补充,套用时顶层网路生成y'。

相关词条

相关搜索

其它词条