Скрипт Python ниже считывает данные JSON из темы Kafka с использованием структурированной потоковой передачи Spark. Любое действие после записи, связанное с этим рамком данных, вызывает ошибку в Spark3-conenct.log
MicroBatchEcecution: тест запроса [ID = D3856D89-78F2-41E7-84F1-635C1AD1B831, RunID = 4E301D2E-56DE-47AB-IFA210310333333131333331]. Ошибка
Java.lang.noclassDeffounderror: Scala /Serializable < /p>
Что может быть причиной этой ошибки? /> < /ul>
Вот пример < /p>
Скрипт Python ниже считывает данные JSON из темы Kafka с использованием структурированной потоковой передачи Spark. Любое действие после записи, связанное с этим рамком данных, вызывает ошибку в Spark3-conenct.log MicroBatchEcecution: тест запроса [ID = D3856D89-78F2-41E7-84F1-635C1AD1B831, RunID = 4E301D2E-56DE-47AB-IFA210310333333131333331]. Ошибка Java.lang.noclassDeffounderror: Scala /Serializable < /p> Что может быть причиной этой ошибки? /> < /ul> Вот пример < /p> [code]from pyspark.sql.types import StructType, StringType, StructField, IntegerType from pyspark.sql import SparkSession from pyspark.sql.connect.functions import col, from_json
query = df_json.writeStream.format("console").outputMode("append").start() print(query.status) query.awaitTermination() < /code> и его вывод в pycharm < /p> {'message': 'Terminated with exception: scala/Serializable', 'isDataAvailable': False, 'isTriggerActive': False} pyspark.errors.exceptions.connect.StreamingQueryException: [STREAM_FAILED] Query [id = 9b9938a6-90b9-44f8-9bb8-de9b0ebe433e, runId = c8a7128e-a770-40f2-9801-ef635795bb39] terminated with exception: scala/Serializable [/code] Я попытался изменить формат записи на kafka, память, но статус и awaittermination () Метод возврата Я ожидаю>
Предположим, что в библиотеке Java есть базовый класс, который не может быть изменен
public class BaseClass {
public Something function(int... args){ ... }
}
Обычно это было бы переопределено в Scala с помощью синтаксиса Scala varargs:
class...
У меня есть приложение Spark Scala, оно использует приведенные ниже версии (вставлен только раздел pom.xml) перечисленных зависимостей и свойств.
Зависимости: org.apache.spark
spark-hive_2.12
3.3.2
У меня есть приложение Spark Scala, оно использует приведенные ниже версии (вставлен только раздел pom.xml) перечисленных зависимостей и свойств.
Зависимости: org.apache.spark
spark-hive_2.12
3.3.2