Итак, исходным кодом был код, написанный ниже, где используется значение по умолчанию значение порога relu равно 0.
model = Sequential([
Dense(n_inputs, input_shape=(n_inputs, ), activation = 'relu'),
Dense(32, activation = 'relu'),
Dense(2, activation='softmax')
])
Однако Keras предоставляет реализацию той же функции, на которую можно сослаться здесь, а также добавить снимок экрана.

Итак, я изменил свой код на следующий, чтобы передать только пользовательскую функцию чтобы получить следующую ошибку.
from keras.activations import relu
model = Sequential([
Dense(n_inputs, input_shape=(n_inputs, ), activation = relu(threshold = 2)),
Dense(32, activation = relu(threshold = 2)),
Dense(2, activation='softmax')
])
Ошибка: TypeError: в relu() отсутствует 1 обязательный позиционный аргумент: 'x'
I понимаю, что ошибка в том, что я не использую x в функции relu, но у меня нет возможности передать что-то подобное. Синтаксис предполагает, что я напишу model.add(layers.Activation(activations.relu)), но тогда я не смогу изменить порог. Здесь мне нужен обходной путь или решение.
Затем я использовал реализацию Layer функции ReLU, которая сработала для меня, как написано ниже, но я хочу выяснить, есть ли способ может заставить реализацию функции активации работать, потому что слой не всегда удобно добавлять, и я хочу внести больше изменений внутри функции Dense.
Код, который сработал у меня:-< /strong>
from keras.layers import ReLU
model = Sequential([
Dense(n_inputs, input_shape=(n_inputs, )),
ReLU(threshold=4),
Dense(32),
ReLU(threshold=4),
Dense(2, activation='softmax')
])
Подробнее здесь: https://stackoverflow.com/questions/674 ... n-function