Я работаю над проектом, в котором мне нужно выполнить классификацию с помощью нейронной сети. Я использую простой MLP, начиная с 1024 функций. Итак, у меня есть 1024-мерный массив с одним или двумя связанными с ним числами.
Эти числа (в данном случае) являются целыми числами, которые ограничены диапазоном [0, 359] . Как лучше всего научить модель этому научиться? Моя первая идея — использовать вектор как основную истину, в котором все элементы равны 0, кроме меток. Проблема в том, что я не знаю, какую функцию потерь я могу использовать для оптимизации этой модели. Более того, я не знаю, проблема ли в том, что количество меток не фиксировано.
У меня еще вопрос. Такое представление может работать в этом случае, но не работает для других типов данных. Поскольку возможно, что метки, которые я использую, на более поздних этапах проекта могут быть не целыми числами (а более сложными данными, такими как несколько значений с плавающей запятой), есть ли способ представить их так, чтобы это имело смысл для более чем одного типа? данных?
Подробнее здесь: https://stackoverflow.com/questions/792 ... d-which-lo
Классификация с несколькими метками в pytorch: как представить основную истину и какую функцию потерь использовать? ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Почему моя классификация текста с несколькими метками имеет низкую точность?
Anonymous » » в форуме Python - 0 Ответы
- 77 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Почему цели не вернули истину и не предотвратили повторение сгенерированных координат?
Anonymous » » в форуме Javascript - 0 Ответы
- 2 Просмотры
-
Последнее сообщение Anonymous
-