В настоящее время я использую scipy.io.readsav () для импорта файлов idl .sav в Python, который работает хорошо, например: < /p>
data = scipy.io.readsav('data.sav', python_dict=True, verbose=True)
< /code>
Однако, если файл .sav большой (скажем,> 1 ГБ), я получаю память, когда пытаюсь импортировать в Python. < /p>
Обычно, итерация через данные, конечно, решает это (если бы это был файл .txt или .csv, а не загружаю его, я не знаю, как я могу использовать этот файл, если я не знаю, что я не знаю, что я не знаю, что я не знаю, что я не знаю, что я не знаю, что я не знаю, что я не знаю. об импорте его использует readsav.
Любые идеи, как я могу избежать этой ошибки памяти?
Подробнее здесь: https://stackoverflow.com/questions/634 ... with-scipy
Импорт больших файлов IDL в Python с Scipy ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
OpenSplice DDS IDL Проблема с определением структуры и пространством имен
Anonymous » » в форуме JAVA - 0 Ответы
- 19 Просмотры
-
Последнее сообщение Anonymous
-