Posted in Python onJune 22, 2020
我就废话不多说了,大家还是直接看代码吧~
model = Model(inputs=[src, tgt], outputs=[y, flow]) #定义网络的时候会给出输入和输出 model.compile(optimizer=Adam(lr=lr), loss=[ losses.cc3D(), losses.gradientLoss('l2')], loss_weights=[1.0, reg_param]) #训练网络的时候指定loss,如果是多loss, loss weights分别对应前面的每个loss的权重,最后输出loss的和 train_loss = model.train_on_batch( [X, atlas_vol], [atlas_vol, zero_flow]) #开始训练,loss中y_pred 和y_true的对应关系是: #输出y与atlas_vol算cc3Dloss,输出flow与zero_flow算gradientloss
补充知识:keras服务器用fit_generator跑的代码,loss,acc曲线图的保存
我就废话不多说了,大家还是直接看代码吧~
import matplotlib.pyplot as plt ... //数据处理代码 省略 history = model.fit_generator( image_generator, steps_per_epoch=2000 // 32 , epochs=16, verbose=1, validation_data=image_generator_TEST, validation_steps=20 ) print(history.history.keys()) plt.switch_backend('agg') #服务器上面保存图片 需要设置这个 //acc plt.plot(history.history['acc']) plt.plot(history.history['val_acc']) plt.title('model accuracy') plt.ylabel('accuracy') plt.xlabel('epoch') plt.legend(['train', 'test'], loc='upper left') plt.savefig('acc.jpg') //loss plt.plot(history.history['loss']) plt.plot(history.history['val_loss']) plt.ylabel('loss') plt.xlabel('epoch') plt.legend(['train', 'test'], loc='upper left') plt.savefig('loss.jpg')
以上这篇终于搞懂了Keras中multiloss的对应关系介绍就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持三水点靠木。
终于搞懂了Keras中multiloss的对应关系介绍
- Author -
evanna-y声明:登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。
Reply on: @reply_date@
@reply_contents@