Как эффективно десериализовать сжатый список объектов, добавить к нему и снова сжать его, не используя слишком много памC#

Место общения программистов C#
Ответить
Anonymous
 Как эффективно десериализовать сжатый список объектов, добавить к нему и снова сжать его, не используя слишком много пам

Сообщение Anonymous »

Я унаследовал некоторый код, который выполняет следующие шаги:

[*]Начиная с байтового массива сжатых данных, передайте его в потоковом режиме и разархивируйте.
[*]Десериализовать его в список объектов
[*]Добавить в список
[*]Сериализовать список
[*]Сжать данные обратно в байтовый массив

Код: Выделить всё

private static readonly RecyclableMemoryStreamManager MemoryStreamManager = new RecyclableMemoryStreamManager();

static async Task Main(string[] args)
{
using (FileStream fileStream = new FileStream("C:\\data.txt", FileMode.Open, FileAccess.Read))
{
var dataList = await DecompressData(fileStream);
dataList.Add(new MyObject { });
using(var stream = MemoryStreamManager.GetStream())
{
await JsonSerializer.SerializeAsync(stream, dataList);
stream.Position = 0;
var b = await CompressData(stream);
}
}

Console.WriteLine("All done");
}

private static async Task DecompressData(Stream data)
{
using (var resultStream = MemoryStreamManager.GetStream())
{
GZipStream gzip = new GZipStream(data, CompressionMode.Decompress);

List recordsList = await JsonSerializer.DeserializeAsync(gzip);
return recordsList;
}
}

private static async Task CompressData(Stream data)
{
byte[] compressedData;
using (var ms = MemoryStreamManager.GetStream())
{
using (GZipStream gzip = new GZipStream(ms, CompressionMode.Compress))
{
data.CopyTo(gzip);
compressedData = ms.GetBuffer();
}

}

return compressedData;
}
Это сильно отличается от того, с чего начинался код, я просто пытаюсь максимально оптимизировать его память. С тестовым входным файлом размером 600 КБ и 22 МБ после распаковки он ранее использовал 100 МБ памяти. Теперь объем памяти снизился до 90 МБ. Области с высоким использованием памяти все еще существуют, например, await JsonSerializer.SerializeAsync(stream, dataList);, который использует 10 МБ для записи данных в поток. Можно ли это оптимизировать, как и в другом направлении, где нет байтового массива, а есть только потоки по мере необходимости?
Data.CopyTo(gzip); также дублируется данные, но в этот момент данные сжимаются, поэтому используется только < 1 МБ

Подробнее здесь: https://stackoverflow.com/questions/792 ... -it-and-co
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «C#»