В моем приложении для обработки загрузки моего файла я использую пакет xlxs npm. И для размещения данных я использую readasarraybuffer . Производительность readasarraybuffer разложения увеличивается, когда увеличивается количество строк файла.readExcelFile(file: File) {
const reader = new FileReader();
reader.onload = (e: any) => {
const data = new Uint8Array(e.target.result);
const workbook = xls.read(data, { type: 'array' });
const sheetName = workbook?.SheetNames[0];
const worksheet = workbook.Sheets[sheetName];
const jsonData = xls.utils
.sheet_to_json(worksheet, {
raw: true,
defval: null
})
.filter((row: any) => {
return Object.values(row).some(
(cell) => cell !== null && cell !== undefined && cell !== ''
);
});
const mappedData = this.mapExcelDataToColumns(jsonData);
this.orders_list =
mappedData.length > 0 ? mappedData : jsonData ? jsonData : [];
this.uploadFile(file);
};
reader.readAsArrayBuffer(file);
}
< /code>
Как исправить эту проблему? или какой -либо лучший способ справиться с этим?
Подробнее здесь: https://stackoverflow.com/questions/793 ... n-300-rows
ReadAsarrayBuffer медленно, когда он пытается обработать файл с более чем 300 рядами ⇐ Javascript
Форум по Javascript
1738067291
Anonymous
В моем приложении для обработки загрузки моего файла я использую пакет xlxs npm. И для размещения данных я использую readasarraybuffer . Производительность readasarraybuffer разложения увеличивается, когда увеличивается количество строк файла.readExcelFile(file: File) {
const reader = new FileReader();
reader.onload = (e: any) => {
const data = new Uint8Array(e.target.result);
const workbook = xls.read(data, { type: 'array' });
const sheetName = workbook?.SheetNames[0];
const worksheet = workbook.Sheets[sheetName];
const jsonData = xls.utils
.sheet_to_json(worksheet, {
raw: true,
defval: null
})
.filter((row: any) => {
return Object.values(row).some(
(cell) => cell !== null && cell !== undefined && cell !== ''
);
});
const mappedData = this.mapExcelDataToColumns(jsonData);
this.orders_list =
mappedData.length > 0 ? mappedData : jsonData ? jsonData : [];
this.uploadFile(file);
};
reader.readAsArrayBuffer(file);
}
< /code>
Как исправить эту проблему? или какой -либо лучший способ справиться с этим?
Подробнее здесь: [url]https://stackoverflow.com/questions/79393816/readasarraybuffer-is-slow-when-it-try-to-process-a-file-with-more-than-300-rows[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия