Сбой оперативной памяти при использовании train_test_split в большом наборе данных в Colab [закрыто]Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Сбой оперативной памяти при использовании train_test_split в большом наборе данных в Colab [закрыто]

Сообщение Anonymous »

Я работаю над проектом анализа настроений с большим набором данных, содержащим 160 000 строк встроенных комментариев. Код>, оперативная память в Google Colab полностью занята, а сеанс вылетает. разделение такого большого набора данных?

Подробнее здесь: https://stackoverflow.com/questions/794 ... t-in-colab
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Сбой оперативной памяти при использовании train_test_split в большом наборе данных в Colab
    Anonymous » » в форуме Python
    0 Ответы
    9 Просмотры
    Последнее сообщение Anonymous
  • Ядро Jupyter Lab умирает до запуска Train.train()
    Anonymous » » в форуме Python
    0 Ответы
    54 Просмотры
    Последнее сообщение Anonymous
  • Ядро Jupyter Lab умирает до запуска Train.train()
    Anonymous » » в форуме Python
    0 Ответы
    44 Просмотры
    Последнее сообщение Anonymous
  • Seq2Seq train.train() продолжает выдавать ошибку индексации
    Anonymous » » в форуме Python
    0 Ответы
    48 Просмотры
    Последнее сообщение Anonymous
  • Seq2Seq train.train() продолжает выдавать ошибку индексации
    Anonymous » » в форуме Python
    0 Ответы
    26 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»