终于搞懂了Keras中multiloss的对应关系介绍

(编辑:jimmy 日期: 2025/9/30 浏览:2)

我就废话不多说了,大家还是直接看代码吧~

model = Model(inputs=[src, tgt], outputs=[y, flow])  
#定义网络的时候会给出输入和输出
model.compile(optimizer=Adam(lr=lr), loss=[
           losses.cc3D(), losses.gradientLoss('l2')], loss_weights=[1.0, reg_param]) 
#训练网络的时候指定loss,如果是多loss,
loss weights分别对应前面的每个loss的权重,最后输出loss的和
train_loss = model.train_on_batch(
      [X, atlas_vol], [atlas_vol, zero_flow]) 
 #开始训练,loss中y_pred 和y_true的对应关系是:
 #输出y与atlas_vol算cc3Dloss,输出flow与zero_flow算gradientloss

补充知识:keras服务器用fit_generator跑的代码,loss,acc曲线图的保存

我就废话不多说了,大家还是直接看代码吧~

import matplotlib.pyplot as plt

...  //数据处理代码 省略

history = model.fit_generator(
  image_generator, steps_per_epoch=2000 // 32 ,
  epochs=16, verbose=1,
  validation_data=image_generator_TEST, validation_steps=20
)

print(history.history.keys())
plt.switch_backend('agg')  #服务器上面保存图片 需要设置这个
//acc
plt.plot(history.history['acc'])
plt.plot(history.history['val_acc'])
plt.title('model accuracy')
plt.ylabel('accuracy')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.savefig('acc.jpg')
//loss
plt.plot(history.history['loss'])
plt.plot(history.history['val_loss'])
plt.ylabel('loss')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.savefig('loss.jpg')

以上这篇终于搞懂了Keras中multiloss的对应关系介绍就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

一句话新闻

一文看懂荣耀MagicBook Pro 16
荣耀猎人回归!七大亮点看懂不只是轻薄本,更是游戏本的MagicBook Pro 16.
人们对于笔记本电脑有一个固有印象:要么轻薄但性能一般,要么性能强劲但笨重臃肿。然而,今年荣耀新推出的MagicBook Pro 16刷新了人们的认知——发布会上,荣耀宣布猎人游戏本正式回归,称其继承了荣耀 HUNTER 基因,并自信地为其打出“轻薄本,更是游戏本”的口号。
众所周知,寻求轻薄本的用户普遍更看重便携性、外观造型、静谧性和打字办公等用机体验,而寻求游戏本的用户则普遍更看重硬件配置、性能释放等硬核指标。把两个看似难以相干的产品融合到一起,我们不禁对它产生了强烈的好奇:作为代表荣耀猎人游戏本的跨界新物种,它究竟做了哪些平衡以兼顾不同人群的各类需求呢?