Я пытаюсь создать составной автокодер последовательности LSTM, который принимает сигнал из 430 временных шагов, каждый из которых имеет 1 значение. Код модели можно увидеть ниже:
Когда я запускаю autoencoder.summary(), я получаю сводную информацию о модели нормально, но когда я запускаю autoencoder.fit(), я получаю следующую ошибку:< /p>
---------------------------------------------------------------------------
KeyError Traceback (most recent call last)
in ()
----> 1 autoencoder.fit(xtrainsc, xtrainsc,
2 epochs = 50,
3 batch_size = 128,
4 shuffle = True,
5 validation_data = (xtestsc, xtestsc))
/usr/local/lib/python3.10/dist-packages/keras/src/utils/traceback_utils.py in error_handler(*args, **kwargs)
120 # To get the full stack trace, call:
121 # `keras.config.disable_traceback_filtering()`
--> 122 raise e.with_traceback(filtered_tb) from None
123 finally:
124 del filtered_tb
/usr/local/lib/python3.10/dist-packages/keras/src/ops/function.py in _run_through_graph(self, inputs, operation_fn, call_fn)
177 output_tensors = []
178 for x in self.outputs:
--> 179 output_tensors.append(tensor_dict[id(x)])
180
181 return tree.pack_sequence_as(self._outputs_struct, output_tensors)
KeyError: 'Exception encountered when calling Functional.call().\n\n\x1b[1m139922652929696\x1b[0m\n\nArguments received by Functional.call():\n • inputs=tf.Tensor(shape=(None, 430, 1), dtype=float32)\n • training=True\n • mask=None'
Я уже изменил свой набор данных (пакет, временные шаги, функция), и когда я пробую приведенный ниже код, адаптированный из оригинального руководства по созданию автоэнкодеров keras, он работает, просто поезд и потеря проверки начинает давать значения NaN через несколько эпох.
Я пытаюсь создать составной автокодер последовательности LSTM, который принимает сигнал из 430 временных шагов, каждый из которых имеет 1 значение. Код модели можно увидеть ниже: [code]feat_dim = 1 timesteps = 430 inputs = keras.Input(shape = (timesteps, feat_dim), dtype = 'float32') x = layers.LSTM(320, activation = 'relu', return_sequences = True)(inputs) x = layers.LSTM(256, activation = 'relu', return_sequences = True)(x) x = layers.LSTM(128, activation = 'relu', return_sequences = True)(x) x = layers.LSTM(64, activation = 'relu', return_sequences = True)(x) x = layers.LSTM(32, activation = 'relu', return_sequences = True)(x) x = layers.LSTM(16, activation = 'relu', return_sequences = True)(x) encoded = layers.LSTM(encoding_dim, activation = 'relu', return_sequences = False)(x)
x = layers.RepeatVector(timesteps)(encoded) x = layers.LSTM(16, activation = 'relu', return_sequences = True)(x) x = layers.LSTM(32, activation = 'relu', return_sequences = True)(x) x = layers.LSTM(64, activation = 'relu', return_sequences = True)(x) x = layers.LSTM(128, activation = 'relu', return_sequences = True)(x) x = layers.LSTM(256, activation = 'relu', return_sequences = True)(x) x = layers.LSTM(320, activation = 'relu', return_sequences = True)(x) decoded = layers.TimeDistributed(layers.Dense(feat_dim, activation = 'sigmoid'))(x)
autoencoder.fit(xtrainsc, xtrainsc, epochs = 50, batch_size = 128, shuffle = True, validation_data = (xtestsc, xtestsc)) [/code] Когда я запускаю autoencoder.summary(), я получаю сводную информацию о модели нормально, но когда я запускаю autoencoder.fit(), я получаю следующую ошибку:< /p> [code]--------------------------------------------------------------------------- KeyError Traceback (most recent call last) in () ----> 1 autoencoder.fit(xtrainsc, xtrainsc, 2 epochs = 50, 3 batch_size = 128, 4 shuffle = True, 5 validation_data = (xtestsc, xtestsc))
/usr/local/lib/python3.10/dist-packages/keras/src/utils/traceback_utils.py in error_handler(*args, **kwargs) 120 # To get the full stack trace, call: 121 # `keras.config.disable_traceback_filtering()` --> 122 raise e.with_traceback(filtered_tb) from None 123 finally: 124 del filtered_tb
/usr/local/lib/python3.10/dist-packages/keras/src/ops/function.py in _run_through_graph(self, inputs, operation_fn, call_fn) 177 output_tensors = [] 178 for x in self.outputs: --> 179 output_tensors.append(tensor_dict[id(x)]) 180 181 return tree.pack_sequence_as(self._outputs_struct, output_tensors)
KeyError: 'Exception encountered when calling Functional.call().\n\n\x1b[1m139922652929696\x1b[0m\n\nArguments received by Functional.call():\n • inputs=tf.Tensor(shape=(None, 430, 1), dtype=float32)\n • training=True\n • mask=None' [/code] Я уже изменил свой набор данных (пакет, временные шаги, функция), и когда я пробую приведенный ниже код, адаптированный из оригинального руководства по созданию автоэнкодеров keras, он работает, просто поезд и потеря проверки начинает давать значения NaN через несколько эпох. [code]encoded = layers.LSTM(encoding_dim, activation = 'relu')(inputs) x = layers.RepeatVector(timesteps)(encoded) decoded = layers.LSTM(encoding_dim, activation = 'relu', return_sequences = True)(x) decoded = layers.TimeDistributed(layers.Dense(feat_dim, activation = 'sigmoid'))(decoded)
autoencoder = keras.Model(inputs, decoded) encoder = keras.Model(inputs, encoded) encoded_input = keras.Input(shape=(timesteps, encoding_dim)) decoder = keras.Model(encoded_input, decoded) [/code] Кто-нибудь сталкивался с подобной ошибкой и исправил ее? Я хотел бы получить некоторую помощь в этом. Заранее спасибо.
Я пытаюсь построить модель, которая принимает два входных параметра. В рамках этой модели я разработал три блока: два соответствуют структуре первых блоков EfficientNetB0 до блока 4 (A), а третий блок (B) отражает архитектуру последних блоков...
Ниже приведены зависимости, которые я использовал
implementation 'com.squareup.retrofit2:retrofit:2.0.2'
implementation 'com.squareup.retrofit2:converter-gson:2.0.2'
Ниже приведен код, который я называю API модернизации
RequestBody jsonBody =...
Я обучаю простую последовательную модель НЛП в keras. Вот архитектура модели:
from keras.models import Sequential
from keras import layers
from keras.layers import Embedding, Flatten, Dense
Не удалось настроить исключение инициализации контекста получения спящего режима. Пробовали альтернативные версии зависимости Hibernate, и хотя таблица создается в БД, я думаю, что существует некоторая проблема, связанная с Bean.
Студент
package...
Не удалось настроить исключение инициализации контекста получения спящего режима. Пробовали альтернативные версии зависимости Hibernate, и хотя таблица создается в БД, я думаю, что существует некоторая проблема, связанная с Bean.
Студент
package...