Я хотел бы обучить модель Keras только с одним выходом, но их несколько y_true
. Так:
def CustomLossFunc([y_true1, y_true2], y_pred):
Score1 = func1(y_true1, y_pred)
Score2 = func2(y_true2, y_pred)
return Score1 + Score2
Возможно ли это в Керасе?
Я думаю об этом: может быть, я мог бы разделить единственный y_pred на два идентичных y_pred1 и y_pred2. Затем обучите его как модель с двумя выходами. И присвойте два y_true двум y_pred. Но я думаю, что это немного грязно, может быть, есть лучшие способы.
Вы можете нарезать y_true внутри пользовательской функции потерь при использовании model.fit
:
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
import numpy as np
BS = 3
N = 5
X = np.random.rand(BS,N)
Y = np.random.rand(BS,N*2)
def CustomLossFunc(y_true, y_pred):
y_true1 = y_true[:, :N]
y_true2 = y_true[:, N:]
Score1 = MAE(y_true1, y_pred)
Score2 = MSE(y_true2, y_pred)
return Score1 + Score2
def MAE(y_true, y_pred):
return tf.reduce_mean(tf.abs(y_true - y_pred))
def MSE(y_true, y_pred):
return tf.reduce_mean((y_true - y_pred)**2.)
input_shape = (N,)
input_layer = keras.Input(shape=input_shape)
output_layer = layers.Dense(N, 'relu')(input_layer)
model = keras.Model(inputs=input_layer, outputs=output_layer)
optimizer = keras.optimizers.Adam(learning_rate=1e-4)
model.compile(optimizer=optimizer, loss=CustomLossFunc)
model.fit(X, Y, batch_size=BS, epochs=1)
Если вы используете GradientTape
, просто добавьте потери вместе:
tf.GradientTape() as tape:
y_pred = model(X)
loss = loss_1(y_true1, y_pred) + loss_2(y_true2, y_pred)
grads = tape.gradient(loss , model.trainable_variables)
optimizer.apply_gradients(zip(grads , model.trainable_variables))
Спасибо! Это очень полезно. Есть небольшая проблема, что два y_true
могут быть разной формы. Я думаю, что мог бы вручную расширить один из них, чтобы они были в той же форме.
Без проблем, рад помочь
Очень хороший письменный ответ!
Я не пробовал несколько y_true. Но я на 99% уверен, что это возможно. Вы можете добавить любую потерю с
add_loss()