df = pl.LazyFrame(
{
"target": [
[1.0, 2.0],
[3.0, 4.0],
],
"point_cloud": [
[
[7.0, 8.0],
[9.0, 10.0],
],
[
[9.0, 10.0],
],
],
},
schema={
"target": pl.Array(pl.Float32, 2),
"point_cloud": pl.List(pl.Array(pl.Float32, 2)),
},
)
< /code>
Файл имеет 4 миллиона строк и составляет 20 ГБ (не подходит в ОЗУ). < /p>
Я пытаюсь получить размер точечных облаков, таких как: < /p>
df = (
pl.scan_parquet(dataset).select(size=pl.col("point_cloud").list.len()).collect()
)
< /code>
Но моя программа заканчивает память и умирает. Я пытался изменить Collect (Engine = "Streaming")
, но результат одинаково.
Я озадачен, потому что, когда я пытаюсь получить, например, x координата всех целей, она работает нормально (и очень быстро):
df = pl.scan_parquet(dataset).select(x=pl.col("target").arr.get(0)).collect()
< /code>
Могу ли я получить помощь с этим? src = "https://i.sstatic.net/fyygm4rv.jpg"/>
У меня есть паркетный файл с набором данных, который выглядит так: < /p> [code]df = pl.LazyFrame( { "target": [ [1.0, 2.0], [3.0, 4.0], ], "point_cloud": [ [ [7.0, 8.0], [9.0, 10.0], ], [ [9.0, 10.0], ], ], }, schema={ "target": pl.Array(pl.Float32, 2), "point_cloud": pl.List(pl.Array(pl.Float32, 2)), }, ) < /code> Файл имеет 4 миллиона строк и составляет 20 ГБ (не подходит в ОЗУ). < /p> Я пытаюсь получить размер точечных облаков, таких как: < /p> df = ( pl.scan_parquet(dataset).select(size=pl.col("point_cloud").list.len()).collect() ) < /code> Но моя программа заканчивает память и умирает. Я пытался изменить Collect (Engine = "Streaming") [/code], но результат одинаково. Я озадачен, потому что, когда я пытаюсь получить, например, x координата всех целей, она работает нормально (и очень быстро): df = pl.scan_parquet(dataset).select(x=pl.col("target").arr.get(0)).collect() < /code> Могу ли я получить помощь с этим? src = "https://i.sstatic.net/fyygm4rv.jpg"/>
Все.
Я борюсь с проблемами с памятью при сортировке LazyFrame, превышающего объем памяти, с помощью поляров с помощью команды Skin_csv.
Я Я разрабатываю механизм, который сможет объединять и сортировать несколько больших наборов данных в виде...
Я работаю с большими объемами данных, которые обрабатываю с помощью набора данных TensorFlow (TFDS) и сохраняю в pandas.DataFrame. Моя цель — преобразовать данные из одного формата в другой для дальнейшего анализа. Но когда я создаю DataFrame с...
Yesterday I tried to open a *.txt file larger than 3 MB with android. Why can't android open it? Previously I had tried to open that file with Windows with the same RAM capacity and Processor speed.
Предположим, у меня есть фрейм данных в полярах с результатом столбца, который представляет собой некоторое число с плавающей запятой.
df = pl.from_repr(
┌─────┬──────────┐
│ a ┆ outcome │
│ --- ┆ --- │
│ i64 ┆ f64 │
╞═════╪══════════╡
│ 2 ┆...