爱吧机器人网 » 技术 > 神经网络 > 文章列表

神经网络

栏目简介:人工神经网络(ANN)是受构成人类大脑的生物神经网络启发而发展出来的计算系统。 ANN基于被称为人造神经元的相关单元的集合(类似于生物脑中的轴突)。神经元之间的每个连接(突触)可以将信号传输到另一个神经元。接收(突触后)神经元可以处理信号,然后信号连接到它的下游神经元。神经元可以具有通常由0~1之间的实数表示的状态。神经元和突触也可以具有随着学习进行而变化的权重,这可以增加或减少其发送到下游的信号的强度。此外,它们可以具有这样的阈值,使得只有当聚合信号低于(或高于)它时,该电平是发送的下行信号。神经元通常被分层组织,不同的层可以在其输入上执行不同类型的变换。信号从第一(输入)到最后(输出)层行进,可能经历了多次遍历层。神经网络方法的最初目标是以与人类大脑相同的方式解决问题。随着时间的推移,注意力集中于匹配特定的心理能力,导致与生物学的偏差,如反向传播,或反向传递信息,并调整网络以反映信息。人工神经网络已被用于各种任务,包括计算机视觉,语音识别,机器翻译,社交网络过滤,医疗诊断等许多领域。

卷积神经网络入门这一篇就够了

卷积神经网络入门这一篇就够了

[2018-01-17]  CNN的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二...

神经网络结构在命名实体识别(NER)中的应用

神经网络结构在命名实体识别(NER)中的应用

[2018-01-17]  近年来,基于神经网络的深度学习方法在自然语言处理领域已经取得了不少进展。作为NLP领域的基础任务—命名实体识别(Named Entity Recognition,NER)也不例外,神经网络结构在NER中也取得了不错...

为什么很难训练深度神经网络?

为什么很难训练深度神经网络?

[2018-01-17]  在这篇文章中,我将解释在深度神经网络训练中一个常见的误解。似乎大家都认为,训练深度神经网络很难的原因主要是因为梯度消失(或爆炸)的问题。“梯度消失”是指通过隐藏层从后向前看...

助力卷积神经网络时空特征学习 史上最大行人重识别视频数据集被提出

助力卷积神经网络时空特征学习 史上最大行人重识别视频数据集被提出

[2018-01-13]  本文提出了一个大型的、长序列的、用于行人重识别的视频数据集,简称LVreID。与现有的同类数据集相比,该数据集具有以下特点:1)长序列:平均每段视频序列长为200帧,包含丰富的视角、...

首次中文讲解开源神经网络框架Caffe2和FB的AI应用

首次中文讲解开源神经网络框架Caffe2和FB的AI应用

[2017-12-12]  这应该是第一次使用全中文来讲解Caffe2和FB的AI应用的演讲。观看这次演讲不需要机器学习/神经网络,甚至计算机科学的基础。它适合每一个愿意了解人工智能、神经网络和Caffe2的人...

新技术利用人工神经网络一键修复数字图像

新技术利用人工神经网络一键修复数字图像

[2017-12-11]  由马里兰大学计算机科学家领导的一个小组设计了一种新的算法,该算法结合了人工神经网络,同时对损坏的数字图像应用各种修复。由于该算法可以被“训练”来识别理想的,未损坏的图像...

将学习速率可视化来优化神经网络--将学习速率视作超参数并使用可视化

将学习速率可视化来优化神经网络--将学习速率视作超参数并使用可视化

[2017-11-21]  学习速率是随着时间的推移神经网络里信息积累的速度。学习速率决定了神经网络达到(以及是否能达到)所需特定输出的最佳、最有利位置的速度。在原始随机梯度下降(SGD)中,学习速率与误差...

微软升级神经网络:不支持的语言翻译质量也能得到提升

微软升级神经网络:不支持的语言翻译质量也能得到提升

[2017-11-17]  实际上,早在一年之前,微软就已经提及过自己的这项神经网络技术,还为它配备了专门的支持神经网络翻译的Microsoft Translator Text and Speech API。从那时起,微软开始扩大神经机器翻译(NMT)的使用...

如何将人工神经网络与自然历史科学想结合

如何将人工神经网络与自然历史科学想结合

[2017-11-15]  你可能以为人类关于自然科学的研究已经很深入了,你可能以为人类关注世界的认知已经很丰富了,但是实际上,却有数以万计,甚至是数以亿计的物种正在各国的自然历史博物馆中沉睡,它们...

神经网络是怎样理解图片的?

神经网络是怎样理解图片的?

[2017-11-09]  我们总是听说人工智能在图像识别上超越了人类,刷脸也逐渐成了生活中司空见惯的事儿。这些图像识别技术背后,通常是深度神经网络。...