У меня есть приложение Node.js, которое взаимодействует с базой данных PostgreSQL, содержащей миллионы пользователей. Для конкретной функции мне нужно принести около 100 000 пользователей на основе критерия (например, пользователи, которые имеют определенный идентификатор канала в своей конфигурации отслеживания), а затем обрабатывать каждого пользователя (например, создание задач уведомления или автоматического >
В настоящее время моя реализация приносит все соответствующие пользователи в память, а затем обрабатывает их в кусках, например, так: < /p>
async function processMessageForSubscribers(channelId, channelName, message, addresses) {
try {
// get around 100000 users in memory
const users = await getUsersByTrackedTelegramChannel(channelId);
const CHUNK_SIZE = 500;
const notifyTasks = [];
const autotradeTasks = [];
// Split users into chunks for parallel processing
const processUserChunk = async (userChunk) => {
await Promise.all(
userChunk.map(async (user) => {
const config = user.trackingConfig[channelId];
const autotradeAmount = config?.autotradeAmount;
if (config.newPost === 'NOTIFY') {
// Create notification tasks
createNotificationTask(user, addresses, message, channelId, channelName, autotradeAmount, notifyTasks);
}
})
);
};
// Process users in chunks
for (let i = 0; i < users.length; i += CHUNK_SIZE) {
const chunk = users.slice(i, i + CHUNK_SIZE);
await processUserChunk(chunk);
}
await queueTasks(notifyTasks, autotradeTasks);
} catch (error) {
console.error('Error processing subscribers:', error);
throw error;
}
}< /code>
< /div>
< /div>
< /p>
Я обеспокоен тем, что привлечение 100 000+ пользователей в память сразу может привести к высокому использованию памяти и потенциально влияет на производительность. < /p>
Вопрос:
Какова наилучшая практика для обработки больших наборов данных из Postgresql в node.js, чтобы избежать высоких накладных расходов?>
Подробнее здесь: https://stackoverflow.com/questions/794 ... thout-high
Как я могу эффективно обрабатывать большие наборы данных PostgreSQL в node.js без высоких накладных расходов на память? ⇐ Javascript
Форум по Javascript
1740323289
Anonymous
У меня есть приложение Node.js, которое взаимодействует с базой данных PostgreSQL, содержащей миллионы пользователей. Для конкретной функции мне нужно принести около 100 000 пользователей на основе критерия (например, пользователи, которые имеют определенный идентификатор канала в своей конфигурации отслеживания), а затем обрабатывать каждого пользователя (например, создание задач уведомления или автоматического >
В настоящее время моя реализация приносит все соответствующие пользователи в память, а затем обрабатывает их в кусках, например, так: < /p>
async function processMessageForSubscribers(channelId, channelName, message, addresses) {
try {
// get around 100000 users in memory
const users = await getUsersByTrackedTelegramChannel(channelId);
const CHUNK_SIZE = 500;
const notifyTasks = [];
const autotradeTasks = [];
// Split users into chunks for parallel processing
const processUserChunk = async (userChunk) => {
await Promise.all(
userChunk.map(async (user) => {
const config = user.trackingConfig[channelId];
const autotradeAmount = config?.autotradeAmount;
if (config.newPost === 'NOTIFY') {
// Create notification tasks
createNotificationTask(user, addresses, message, channelId, channelName, autotradeAmount, notifyTasks);
}
})
);
};
// Process users in chunks
for (let i = 0; i < users.length; i += CHUNK_SIZE) {
const chunk = users.slice(i, i + CHUNK_SIZE);
await processUserChunk(chunk);
}
await queueTasks(notifyTasks, autotradeTasks);
} catch (error) {
console.error('Error processing subscribers:', error);
throw error;
}
}< /code>
< /div>
< /div>
< /p>
Я обеспокоен тем, что привлечение 100 000+ пользователей в память сразу может привести к высокому использованию памяти и потенциально влияет на производительность. < /p>
Вопрос:
Какова наилучшая практика для обработки больших наборов данных из Postgresql в node.js, чтобы избежать высоких накладных расходов?>
Подробнее здесь: [url]https://stackoverflow.com/questions/79461439/how-can-i-efficiently-process-large-postgresql-datasets-in-node-js-without-high[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия