alex-rudenkiy Asked:2020-08-26 02:57:57 +0800 CST2020-08-26 02:57:57 +0800 CST 2020-08-26 02:57:57 +0800 CST 为什么维度越来越大? 772 棘手的问题,为什么从 2d (x,y) 开始的数据的维度在每次卷积后都会增加? 更新: 首先键入每个过滤器,这大致是一个小特征(鼻子的边界,耳朵的边界),然后将其与其他一般过滤器特征泛化为一般特征(鼻子,耳朵等) нейронные-сети 1 个回答 Voted Best Answer MaxU - stop genocide of UA 2020-08-26T06:06:13+08:002020-08-26T06:06:13+08:00 为什么(技术上)增加卷积神经网络中矩阵/张量的深度? Conv2D 层中的过滤器数量设置了该层输出张量中的层数。例如,如果您使用 64 个过滤器,那么在输出中我们会得到一个深度为 64 层的矩阵。从逻辑上讲,过滤器的数量指定了网络必须学会识别的特征数量。 为什么(出于什么目的)增加卷积网络中深层过滤器的数量? 在初始层,CNN(卷积神经网络)学习识别简单的特征,例如:水平线、垂直线、纵向线;弧线等 在 CNN 的更深层次上,学习结合在早期层中识别的特征以识别稍微复杂的特征,例如从先前层中获得的线/弧(特征)创建的简单几何形状。层越深,它试图揭示的抽象/概括的特征就越多。一个特征越抽象,就越难以基于简单特征的组合来描述它,因此此类特征的数量从 CNN 的初始层向更深的层增长。 数学类比——为了在二维空间中描述一条直线,两个数字就足以指定倾斜和位移的角度,要描述更复杂的图形,需要更多的数字(系数、变量)和更复杂的对象,我们需要更多的信息来准确、明确地描述他。
Conv2D 层中的过滤器数量设置了该层输出张量中的层数。例如,如果您使用 64 个过滤器,那么在输出中我们会得到一个深度为 64 层的矩阵。从逻辑上讲,过滤器的数量指定了网络必须学会识别的特征数量。
在初始层,CNN(卷积神经网络)学习识别简单的特征,例如:水平线、垂直线、纵向线;弧线等 在 CNN 的更深层次上,学习结合在早期层中识别的特征以识别稍微复杂的特征,例如从先前层中获得的线/弧(特征)创建的简单几何形状。层越深,它试图揭示的抽象/概括的特征就越多。一个特征越抽象,就越难以基于简单特征的组合来描述它,因此此类特征的数量从 CNN 的初始层向更深的层增长。
数学类比——为了在二维空间中描述一条直线,两个数字就足以指定倾斜和位移的角度,要描述更复杂的图形,需要更多的数字(系数、变量)和更复杂的对象,我们需要更多的信息来准确、明确地描述他。