Как повысить производительность spark.write для jdbc?Python

Программы на Python
Ответить
Anonymous
 Как повысить производительность spark.write для jdbc?

Сообщение Anonymous »

Меня беспокоит одна вещь. У меня есть CSV размером 700 МБ, который содержит более 6 миллионов строк. После фильтрации он содержит ~3 миллиона.
Мне нужно записать его прямо в Azure sql через jdbc. Это очень медленно, и для ввода 3 миллионов строк требуется 20 минут.
Мой кластер имеет 14 ГБ оперативной памяти и 4 ядра. Вот мой код.

Код: Выделить всё

(clearedDF.repartition(4)
.write
.format("jdbc")
.option("driver", "com.microsoft.sqlserver.jdbc.SQLServerDriver")
.option("batchsize", 10000)
.option("url", jdbcUrl)
.option("dbtable", "dbo.weather")
.option("user", properties["user"])
.option("password", properties["password"])
.mode("append")
.save()
)
Можно ли как-нибудь ускорить этот процесс?

Подробнее здесь: https://stackoverflow.com/questions/689 ... e-for-jdbc
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»