$res = mysqli_query( $con, "SELECT * FROM myTable WHERE 1 ORDER BY type ASC, added DESC" );
while( $row = mysqli_fetch_assoc( $res ) ) {
$array[$row['cat']][$row['type']][] = $row;
}
< /code>
Таблица имеет 14300 строк и размер 10,8 МБ < /p>
Но когда я проверяю использование памяти, я получаю около 74 МБ, почему? < /p>
Пример: < /p>
echo memory_get_usage(); // return 74.6MB
echo memory_get_peak_usage(); // return 74.6MB
Есть ли способ ускорить/оптимизировать создание приведенного выше массива?>
Я должен прочитать все строки из таблицы MySQL, а затем хранить все строки в массиве PHP. < /p> Пример: < /p> [code]$res = mysqli_query( $con, "SELECT * FROM myTable WHERE 1 ORDER BY type ASC, added DESC" ); while( $row = mysqli_fetch_assoc( $res ) ) { $array[$row['cat']][$row['type']][] = $row; } < /code> Таблица имеет 14300 строк и размер 10,8 МБ < /p> Но когда я проверяю использование памяти, я получаю около 74 МБ, почему? < /p> Пример: < /p> echo memory_get_usage(); // return 74.6MB echo memory_get_peak_usage(); // return 74.6MB [/code] Есть ли способ ускорить/оптимизировать создание приведенного выше массива?>
У нас есть веб-приложение Java, использующее Data Nucleus 1.1.4/JDO 2.3 для сохранения.
Существует операция пакетного импорта, которая сохраняет большое количество объектов JDO в один выстрел. У нас были ситуации, когда выдавались ошибки...
Моя модель слишком велика, чтобы получить партию >64 с обычными устройствами TPU v2. На сайте устранения неполадок упоминается, что в будущих версиях tensorflow будет поддержка bfloat16. Могут ли недавно поддерживаемые версии tf 1.9–1.12...