哪一个神经网络模型更适合于自然语言,哪一个神经网络模型更适合于自然语言
哪一个神经网络模型更适合于自然语言?
通常神经网络不会给出公式,因为通常情况下参数非常多,比如有些用于图像分类的卷及神经网络,经常有几十层,参数能达到几千万或更好的数量级。
因此神经网络通常给出的是结构,对于卷及神经网络会给出卷积核大小,filter数等等,在这不做赘述。
神经网络的适用范围还是很多的,比如多层感知器MLP可以通过几个自变量来预测因变量,这算是简单的神经网络结构,好多非人工智能领域的简单模型仅有三层,且隐藏层神经元数量不多。
卷积神经网络CNN(Xception, Interception, VGG16, VGG19, ResNet等)通常用来做图片分类,循环神经网络RNN(包括LSTM, NARX等)通常用于时间序列分析,自然语言分析等。
你可以学习下Coursera 上Andrew Ng的Machine Learning和Deep learning 等课程,介绍的很详细,而且课程是免费的。
在中国知网或Web of Science或者CSDN可以搜索到很多相关模型的应用案例或研究。