Я работаю над проектом анализа настроений с большим набором данных, содержащим 160 000 строк встроенных комментариев. Код>, оперативная память в Google Colab полностью занята, а сеанс вылетает. разделение такого большого набора данных?
Я работаю над проектом анализа настроений с большим набором данных, содержащим 160 000 строк встроенных комментариев. Код>, оперативная память в Google Colab полностью занята, а сеанс вылетает. разделение такого большого набора данных?
Я работаю над проектом анализа настроений с большим набором данных, содержащим 160 000 строк встроенных комментариев. Когда я использую train_test_split из sklearn.model_selection, оперативная память в Google Colab полностью занята, а сеанс сбои....
Работаю над тонкой настройкой phi-3.5-mini, и при попытке запустить Trainer.train() я получаю следующую ошибку:
***** Running training *****
Num examples = 647
Num Epochs = 3
Instantaneous batch size per device = 8
Total train batch size (w....
Работаю над тонкой настройкой phi-3.5-mini, и при попытке запустить Trainer.train() я получаю следующую ошибку:
***** Running training *****
Num examples = 647
Num Epochs = 3
Instantaneous batch size per device = 8
Total train batch size (w....