Мне нужно реализовать дублированный поиск с довольно большими наборами данных. Я работаю с JS, PHP, MySQL.
У меня есть записи таблицы базы данных , каждая запись содержит данные , полученные из электронной таблицы. Количество строк данных находится в диапазоне 1K -200k, количество столбцов строк исправлено, допустим, 10.
Метод хранения данных записывает данные - я могу использовать выделенную таблицу для строк данных или сохранить ее в JSON/Blob/ETC. Поле в таблице записей. < /p>
Теперь требовалось: Проверьте на наличие дубликатов между новым набором данных (в настоящее время обрабатывается) и существующими данными записей. Руки. /> Дубликат, в данном случае, определяется составным ключом из 2 или трех столбцов. Строки - Проблемы с памятью, max_excution_time и т. Д. < /p>
Я в настоящее время тестирую решение на стороне клиента с использованием листовых и канволных данных, которые, кажется, обрабатывают наборы строк 130 тыс. обработка.
Подробнее здесь: https://stackoverflow.com/questions/797 ... t-strategy
Проверьте на наличие дубликатов с большой стратегией наборов данных [закрыто] ⇐ MySql
Форум по Mysql
1753286335
Anonymous
Мне нужно реализовать дублированный поиск с довольно большими наборами данных. Я работаю с JS, PHP, MySQL.
У меня есть записи таблицы базы данных , каждая запись содержит данные , полученные из электронной таблицы. Количество строк данных находится в диапазоне 1K -200k, количество столбцов строк исправлено, допустим, 10.
Метод хранения данных записывает данные - я могу использовать выделенную таблицу для строк данных или сохранить ее в JSON/Blob/ETC. Поле в таблице записей. < /p>
Теперь требовалось: Проверьте на наличие дубликатов между новым набором данных (в настоящее время обрабатывается) и существующими данными записей. Руки. /> Дубликат, в данном случае, определяется составным ключом из 2 или трех столбцов. Строки - Проблемы с памятью, max_excution_time и т. Д. < /p>
Я в настоящее время тестирую решение на стороне клиента с использованием листовых и канволных данных, которые, кажется, обрабатывают наборы строк 130 тыс. обработка.
Подробнее здесь: [url]https://stackoverflow.com/questions/79711909/check-for-duplicates-with-large-dataset-strategy[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия