Я настраиваю модель Mt5 на арабской части набора данных Xl-sum
В течение десяти эпох и полученная модель манипуляции хранилась в библиотеке обнимающихся лиц, были получены хорошие результаты при обучении и проверке потеря как и мера Ружа была в районе 60, но при тестировании я удивился, что результаты представляют собой смесь арабских символов и мусора, и это непонятно.
i хочу знать, в чем ошибка
Подробнее здесь: https://stackoverflow.com/questions/788 ... p-learning
Обобщение текста с глубоким обучением ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Проблема с глубоким обучением, как вы можете повысить нашу точность, используя код?
Anonymous » » в форуме Python - 0 Ответы
- 5 Просмотры
-
Последнее сообщение Anonymous
-