全局平均池化(GAP):一种在卷积神经网络中常用的下采样/汇聚操作,对每个通道(feature map)在空间维度(高×宽)上的所有数值取平均值,把每个通道压缩为一个数,从而将特征图转换为更紧凑的向量表示。常用于分类网络的末端,用来减少参数量并降低过拟合风险。(也常与“全局最大池化”等并列讨论。)
/ˈɡloʊbəl ˈævərɪdʒ ˈpuːlɪŋ/
Global average pooling reduces the feature map to one value per channel.
全局平均池化把特征图在每个通道上压缩成一个数值。
Instead of using a fully connected layer, the model applies global average pooling to improve generalization and cut down parameters.
模型不使用全连接层,而是采用全局平均池化来提升泛化能力并减少参数量。
该术语由三部分构成:global(全局的)强调对整个空间范围进行汇聚;average(平均)表示用均值作为汇聚方式;pooling(池化/汇聚)源于深度学习中“把一片区域的特征汇总为一个代表值”的概念。作为方法名,它在卷积网络结构设计中逐渐固定下来,常简写为 GAP。