东方耀AI技术分享

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 3256|回复: 0
打印 上一主题 下一主题

[课堂笔记] caffe中卷积的参数详解

[复制链接]

1365

主题

1856

帖子

1万

积分

管理员

Rank: 10Rank: 10Rank: 10

积分
14439
QQ
跳转到指定楼层
楼主
发表于 2019-9-3 08:29:22 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式


caffe中卷积的参数详解


  1. layer {
  2.   name: "conv5_1"
  3.   type: "Convolution"
  4.   bottom: "pool4"
  5.   top: "conv5_1"
  6.   param {
  7.     lr_mult: 1.0
  8.     decay_mult: 1.0
  9.   }
  10.   param {
  11.     lr_mult: 2.0
  12.     decay_mult: 0.0
  13.   }
  14.   convolution_param {
  15.     num_output: 256
  16.     pad: 1
  17.     kernel_size: 3
  18.     weight_filler {
  19.       type: "xavier"
  20.     }
  21.     bias_filler {
  22.       type: "constant"
  23.       value: 0.0
  24.     }
  25.     dilation: 1
  26.   }
  27. }
复制代码


lr_mult: 学习率的系数,最终的学习率是这个数乘以solver.prototxt配置文件中的base_lr。
如果有两个lr_mult, 则第一个表示权值的学习率,第二个表示偏置项的学习率。
一般偏置项的学习率是权值学习率的两倍。


decay_mult:1  这是权重衰减  下面那个是bias的


如果将他们都设置为0:
kwargs['param'] = [dict(lr_mult=0, decay_mult=0), dict(lr_mult=0, decay_mult=0)]
net.update(freeze_layer, kwargs)
则表示该卷积层不参与学习,为冻结了该层


weight_filler
type: "xavier" #权值初始化。 默认为“constant",值全为0,很多时候我们用"xavier"算法来进行初始化,也可以设置为”gaussian"


dilation:卷积核的膨胀系数




让天下人人学会人工智能!人工智能的前景一片大好!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|人工智能工程师的摇篮 ( 湘ICP备2020019608号-1 )

GMT+8, 2024-5-18 10:40 , Processed in 0.173664 second(s), 18 queries .

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表