神经网络中如何确定隐藏层的层数和大小 |
您所在的位置:网站首页 › 多少层比较好 › 神经网络中如何确定隐藏层的层数和大小 |
在前馈神经网络中,隐藏层的数量和层数的确定尚无依据,一般是由经验决定。 查阅了大量相关的文章之后我对其进行了综合梳理。 这里需要明确的一点是,这些只是根据经验提出的一些参考的方法,具体的层数和大小还是要在实际实验中进行验证。 在此之前我们还需要理解一点,就是当我们神经元足够多,隐藏层足够多的时候我们甚至能完美拟合所有的点,但是也会带来过拟合的问题。因此我们要把握一个适中的度。 二分类问题方法出自:Beginners Ask “How Many Hidden Layers/Neurons to Use in Artificial Neural Networks?”1 对于二分类比较好理解。但是我对这个方法持保留态度。 先看下边这两类,我们只需要一条斜线就可以完成映射。所以不需要隐藏层,直接input到output即可。 虽然从理论上说,层数越多拟合函数越强,但是实际上更深的层数可能会带来过拟合的问题,同时也会增加训练难度,使模型难以收敛。 回归问题评论区有人问回归问题怎么设置网络。 ❓ 不就是画一条线 把他们分开变成画一条线把他们连起来吗…… 从上边我们可以得到一个结论:在神经网络中,当数据需要非线性分离的时候才需要隐藏层。 什么是线性? 对于隐藏层的层数我找到一个说法: Table: Determining the Number of Hidden Layers3 Num Hidden LayersResultnoneOnly capable of representing linear separable functions or decisions.1Can approximate any function that contains a continuous mapping from one finite space to another.2Can represent an arbitrary decision boundary to arbitrary accuracy with rational activation functions and can approximate any smooth mapping to any accuracy.>2Additional layers can learn complex representations (sort of automatic feature engineering) for layer layers.翻译过来就是: 没有隐藏层:仅能表示线性可分离函数或决策。1 可以近似任何包含从一个有限空间到另一个有限空间的连续映射的函数。2 可以使用有理激活函数将任意决策边界表示为任意精度,并且可以将任何平滑映射近似到任何精度。>2 可以学习的复杂特征。 多分类如果二分类可以按照上述方法进行计算,那多分类如何搞? 现在比较常见的方法是根据输入层和输出层的大小进行估算。 现在假设: 输入层大小为 n n n输出层分为 m m m类样本数量为 s s s一个常数 c c c常见的观点有隐藏层神经元个数 h h h: h = s c ( n + m ) c ∈ [ 2 , 10 ] h = \frac{s}{c(n+m)} \quad c \in [2,10] h=c(n+m)sc∈[2,10] h = n + m + c c ∈ [ 1 , 10 ] h = \sqrt{n+m} + c \quad c \in [1,10] h=n+m +cc∈[1,10] h = n m h = \sqrt{nm} h=nm h = log 2 n h = \log_2n h=log2n h = 1.5 ∗ n h = 1.5*n h=1.5∗n h = 1.5 ∗ ( n + m ) h = 1.5*(n+m) h=1.5∗(n+m) h < 2 n h |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |