Spring Batch – Kafka: KafkaItemReader ВСЕГДА считывает данные с самого началаJAVA

Программисты JAVA общаются здесь
Ответить
Anonymous
 Spring Batch – Kafka: KafkaItemReader ВСЕГДА считывает данные с самого начала

Сообщение Anonymous »

Я хочу использовать Spring Batch для потребления данных Kafka. По этой ссылке на весенние советы приведен базовый пример того же самого.

Вот мой читатель:

Код: Выделить всё

  @Bean
KafkaItemReader kafkaItemReader() {
var props = new Properties();
props.putAll(this.properties.buildConsumerProperties());

return new KafkaItemReaderBuilder()
.partitions(0)
.consumerProperties(props)
.name("customers-reader")
.saveState(true)
.topic("test-consumer")
.build();
}
Мой файл application.properties:

Код: Выделить всё

 spring:
kafka:
consumer:
bootstrap-servers: localhost:9092
group-id: groupid-Dev
enable-auto-commit: false
auto-offset-reset: latest
auto.commit.interval.ms: 1000
key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
value-deserializer: org.apache.kafka.common.serialization.StringDeserialize
Проблема:
  • Каждый раз, когда я запускаю задание, оно ищет 0-е число. Компенсировать. Итак, я получаю сообщения с самого начала. Это ошибка?
  • Почему нам нужно вручную указывать разделы для чтения? Что это изменит в будущем, не повлияет ли это на мой код?


Подробнее здесь: https://stackoverflow.com/questions/598 ... -beginning
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «JAVA»