需求:Resnet50做调优训练,将最后分类数目由1000改为500。
问题:网上下载了resnet50_weights_tf_dim_ordering_tf_kernels_notop.h5,更改了Resnet50后,由于所有层均参加训练,导致训练速度慢。实际上只需要训练最后3层,前面的层都不需要训练。
解决办法:
①将模型拆分为两个模型,一个为前面的notop部分,一个为最后三层,然后利用model的trainable属性设置只有后一个model训练,最后将两个模型合并起来。
②不用拆分,遍历模型的所有层,将前面层的trainable设置为False即可。代码如下:
for layer in model.layers[:-3]: print(layer.trainable) layer.trainable = False
注意事项:
①尽量不要这样:
layers.Conv2D(filters1, (1, 1), trainable=False)(input_tensor)
因为容易出错。。。
②加载notop参数时注意by_name=True.
补充知识:Keras关于训练冻结部分层
设置冻结层有两种方式。
(不推荐)是在搭建网络时,直接将某层的trainable设置为false,例如:
layers.Conv2D(filters1, (1, 1), trainable=False)(input_tensor)
在网络搭建完成时,遍历model.layer,然后将layer.trainable设置为False:
# 冻结网络倒数的3层 for layer in model.layers[:-3]: print(layer.trainable) layer.trainable = False
也可以根据layer.name来确定哪些层需要冻结,例如冻结最后一层和RNN层:
for layer in model.layers: layerName=str(layer.name) if layerName.startswith("RNN_") or layerName.startswith("Final_"): layer.trainable=False
可以在实例化之后将网络层的 trainable 属性设置为 True 或 False。为了使之生效,在修改 trainable 属性之后,需要在模型上调用 compile()。
这是一个例子
x = Input(shape=(32,)) layer = Dense(32) layer.trainable = False y = layer(x) frozen_model = Model(x, y) # 在下面的模型中,训练期间不会更新层的权重 frozen_model.compile(optimizer='rmsprop', loss='mse') layer.trainable = True trainable_model = Model(x, y) # 使用这个模型,训练期间 `layer` 的权重将被更新 # (这也会影响上面的模型,因为它使用了同一个网络层实例) trainable_model.compile(optimizer='rmsprop', loss='mse') frozen_model.fit(data, labels) # 这不会更新 `layer` 的权重 trainable_model.fit(data, labels) # 这会更新 `layer` 的权重
在网络搭建时,可以考虑最后一个分类层命名和分类数量关联,这样当费雷数量方式变化时,model.load_weight(“weight.h5”,by_name=True)不会加载最后一层
以上这篇Keras: model实现固定部分layer,训练部分layer操作就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
P70系列延期,华为新旗舰将在下月发布
3月20日消息,近期博主@数码闲聊站 透露,原定三月份发布的华为新旗舰P70系列延期发布,预计4月份上市。
而博主@定焦数码 爆料,华为的P70系列在定位上已经超过了Mate60,成为了重要的旗舰系列之一。它肩负着重返影像领域顶尖的使命。那么这次P70会带来哪些令人惊艳的创新呢?
根据目前爆料的消息来看,华为P70系列将推出三个版本,其中P70和P70 Pro采用了三角形的摄像头模组设计,而P70 Art则采用了与上一代P60 Art相似的不规则形状设计。这样的外观是否好看见仁见智,但辨识度绝对拉满。