Код: Выделить всё
No gradients provided for any variable.
Есть ли какая -то охрана или обертка, которые можно положить на мои тензоры и бросить в тот момент, когда я потеряю дифференциацию? Конечно, это должно быть транзитивным, поэтому, если я сделаю это: < /p>
raw_output = my_model((input_data))
tf.make_sure_all_steps_are_differentiable(raw_output)
# this is differentiable of course, although I am not sure if it's correct in this context
multiplied = raw_output * 5
# This is not differentiable and should raise
# Non differentiable operation attempted on tensor [name]
# or something like that
# The guard should have been transferred to the new tensor during previous operation
argmaxed = tf.argmax(multiplied, other, arguments)
< /code>
Есть ли у Tensorflow такой помощник? Я мог бы найти много вопросов о том, что дифференцируемое, а что нет. Это поможет узнать, как вы его используете.
Подробнее здесь: https://stackoverflow.com/questions/796 ... differenti