Я понимаю, что они говорят мне, что [0 1 0 0] — это метка2, [0 0 0 1] — метка 4, [1 0 0 0] — метка 1, [0 0 1 0] — метка 3.
Код: Выделить всё
import pickle
from keras.preprocessing.sequence import pad_sequences
MAX_SEQUENCE_LENGTH = 1000
MAX_NB_WORDS = 20000
with open ('textsdata', 'rb') as fp:
texts = pickle.load(fp)
tokenizer = Tokenizer(num_words=MAX_NB_WORDS)
tokenizer.fit_on_texts(texts)
sequences = tokenizer.texts_to_sequences(texts)
inputquery = ["Play some music will ya"]
sequences = tokenizer.texts_to_sequences(inputquery)
model = load_model('my_model.h5')
model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['acc'])
print("sequences", sequences)
data = pad_sequences(sequences, maxlen=MAX_SEQUENCE_LENGTH)
classes = model.predict(data)
y_classes = classes.argmax(axis=-1)
print(y_classes)
Значение перед softmax или значение того, что достаточно уверенно, чтобы сказать это. это label1, или label2, или label3, или label4.
Мне нужен процент, равный любому из них или всем этим процентам, например...
Если на входе задан выход, например
Класс1 - 0,87
Класс2 - 0,3
Класс3 - 0,5
Класс4 - 0,5
Как я могу получить такой вывод, а не просто [1 0 0 0]
Что должно я добавляю рядом с приведенным выше кодом, пожалуйста, скажите
Подробнее здесь: https://stackoverflow.com/questions/527 ... -model-cnn
Мобильная версия