SELECT CRC32('abc');
> 364b3fb7
< /code>
В то время как MySQL возвращает целое число: < /p>
SELECT CRC32('abc');
> 891568578
< /code>
Из документов AWS: < /p>
Функция CRC32 возвращает 8-символьную строку, которая представляет собой текстовое представление о шестнадцатеричном значении 32-битной бинарной последовательности. />
mySQL CRC32 () Возвращает циклическую проверку избыточности данной строки как 32-разрядное беззнательное значение < /p>
< /blockquote>
Я предполагаю, что значение HEX эквивалентно результату в MySQL, но я не был в состоянии преобразовать его. Мне нужен целочисленный вывод для числового сравнения.SELECT STRTOL(CRC32('abc'), 32);
> 109667532135
Я определенно упускаю то, что я не могу идентифицировать, не будут ли они не принести такого же значения?
Функция Redshift CRC32 возвращает строку: < /p> [code]SELECT CRC32('abc'); > 364b3fb7 < /code> В то время как MySQL возвращает целое число: < /p> SELECT CRC32('abc'); > 891568578 < /code> Из документов AWS: < /p>
Функция CRC32 возвращает 8-символьную строку, которая представляет собой текстовое представление о шестнадцатеричном значении 32-битной бинарной последовательности. /> mySQL CRC32 () Возвращает циклическую проверку избыточности данной строки как 32-разрядное беззнательное значение < /p> < /blockquote> Я предполагаю, что значение HEX эквивалентно результату в MySQL, но я не был в состоянии преобразовать его. Мне нужен целочисленный вывод для числового сравнения.SELECT STRTOL(CRC32('abc'), 32); > 109667532135 [/code] Я определенно упускаю то, что я не могу идентифицировать, не будут ли они не принести такого же значения?
Я установил LocalStack на своем компьютере с Windows и начал с redshift и нескольких других сервисов.
Затем я создал кластер и базу данных.
>awslocal redshift describe-clusters --cluster-identifier my-cluster
{
Clusters :
}
Я пытаюсь записать DataFrame из Spark (PySpark) в бессерверный кластер Amazon Redshift с помощью драйвера Redshift JDBC.
Я постоянно сталкиваюсь с ошибками, связанными с драйвером: р>
• java.sql.SQLException: No suitable driver
Я пытаюсь записать DataFrame из Spark (PySpark) в бессерверный кластер Amazon Redshift с помощью драйвера Redshift JDBC.
Я постоянно сталкиваюсь с ошибками, связанными с драйвером: р>
• java.sql.SQLException: No suitable driver