Использование Spring Cloud Stream Binding с брокером сообщений Kafka

от автора

Всем привет! Меня зовут Виталий, я разработчик в компании Web3Tech. В этом посте я представлю основные концепции и конструкции платформы Spring Cloud Stream для поддержки и работы с брокерами сообщений Kafka, с полным циклом их контекстного unit-тестирования. Мы используем такую схему в своем проекте всероссийского электронного голосования на блокчейн-платформе Waves Enterprise.

Являясь частью группы проектов Spring Cloud, Spring Cloud Stream основан на Spring Boot и использует Spring Integration для обеспечения связи с брокерами сообщений. При этом он легко интегрируется с различными брокерами сообщений и требует минимальной конфигурации для создания event-driven или message-driven микросервисов.

Конфигурация и зависимости

Для начала нам нужно добавить зависимость spring-cloud-starter-stream-kafka в build.gradle:

dependencies {    implementation(kotlin("stdlib"))    implementation("org.jetbrains.kotlinx:kotlinx-coroutines-core:$kotlinCoroutinesVersion")    implementation("com.fasterxml.jackson.module:jackson-module-kotlin")     implementation("org.springframework.boot:spring-boot-starter-web")    implementation("org.springframework.cloud:spring-cloud-starter-stream-kafka")     testImplementation("org.springframework.boot:spring-boot-starter-test")    testImplementation("org.springframework.cloud:spring-cloud-stream-test-support")    testImplementation("org.springframework.kafka:spring-kafka-test:springKafkaTestVersion") }

В конфигурацию проекта Spring Cloud Stream необходимо включить URL Kafka-брокера, имя очереди (топик) и другие параметры биндинга. Вот пример YAML-конфигурации для сервиса application.yaml:

spring:  application:    name: cloud-stream-binding-kafka-app  cloud:    stream:      kafka:        binder:          brokers: 0.0.0.0:8080          configuration:            auto-offset-reset: latest      bindings:        customChannel:                   #Channel name          destination: 0.0.0.0:8080      #Destination to which the message is sent (topic)          group: input-group-N          contentType: application/json          consumer:            max-attempts: 1            autoCommitOffset: true            autoCommitOnError: false

Концепция и классы

По сути, мы имеем дело с сервисом, построенным на Spring Cloud Stream, который прослушивает входящую очередь, используя биндинги (SpringCloudStreamBindingKafkaApp.kt):

@EnableBinding(ProducerBinding::class)  @SpringBootApplication    class SpringCloudStreamBindingKafkaApp   fun main(args: Array<String>) {      SpringApplication.run(SpringCloudStreamBindingKafkaApp::class.java, *args)   }

Аннотация @EnableBinding указывает сервису на биндинг как входящего, так и исходящего канала.

Здесь необходимо уточнить ряд концепций.

Binding — интерфейс, в котором описаны входящие и исходящие каналы.
Binder — имплементация middleware для сообщений.
Channel — представляет канал для передачи сообщений между middleware и приложением.
StreamListeners — методы обработки сообщений в виде бинов (beans), которые будут автоматически вызваны после того, как MessageConverter осуществит сериализацию или десериализацию между событиями в middleware и типами объектов в домене “DTO”.
Message Schema — схемы, используемые для сериализации и десериализации сообщений. Могут быть прочитаны из источника или динамически загружены.

Тестирование

Чтобы протестировать сообщение и операции send/receive, нам нужно создать как минимум одного producer и одного consumer. Вот простейший пример того, как это можно сделать в Spring Cloud Stream.

Инстанс бина Producer будет отправлять сообщение в топик Kafka, используя биндер (ProducerBinding.kt):

interface ProducerBinding {     @Output(BINDING_TARGET_NAME)    fun messageChannel(): MessageChannel }

Инстанс бина Сonsumer будет слушать топик Kafka и получать сообщения.

ConsumerBinding.kt:

interface ConsumerBinding {     companion object {        const val BINDING_TARGET_NAME = "customChannel"    }     @Input(BINDING_TARGET_NAME)    fun messageChannel(): MessageChannel }

Consumer.kt:

@EnableBinding(ConsumerBinding::class) class Consumer(val messageService: MessageService) {     @StreamListener(target = ConsumerBinding.BINDING_TARGET_NAME)    fun process(        @Payload message: Map<String, Any?>,        @Header(value = KafkaHeaders.OFFSET, required = false) offset: Int?    ) {        messageService.consume(message)    } }

Мы создали брокер Kafka с топиком. Для тестирования будем использовать встроенную Kafka, доступную нам с зависимостью spring-kafka-test.

Функциональное тестирование с MessageCollector

Мы имеем дело с имплементацией биндера, позволяющей взаимодействовать с каналами и получать сообщения. Отправим сообщение в канал ProducerBinding и затем получим его в виде payload ProducerTest.kt:

@SpringBootTest class ProducerTest {     @Autowired    lateinit var producerBinding: ProducerBinding     @Autowired    lateinit var messageCollector: MessageCollector     @Test    fun `should produce somePayload to channel`() {        // ARRANGE        val request = mapOf(1 to "foo", 2 to "bar", "three" to 10101)         // ACT producerBinding.messageChannel().send(MessageBuilder.withPayload(request).build())        val payload = messageCollector.forChannel(producerBinding.messageChannel())            .poll()            .payload         // ASSERT        val payloadAsMap = jacksonObjectMapper().readValue(payload.toString(), Map::class.java)        assertTrue(request.entries.stream().allMatch { re ->            re.value == payloadAsMap[re.key.toString()]        })         messageCollector.forChannel(producerBinding.messageChannel()).clear()    } }

Тестирование с брокером Embedded Kafka

Используем аннотацию @ClassRule для создания брокера. Так мы сможем поднять сервера Kafka и Zookeeper на случайном порте перед началом теста и выключить их, когда тест завершится. Это избавляет нас от необходимости в рабочем инстансе Kafka и Zookeper на всё время проведения теста (ConsumerTest.kt):

@SpringBootTest @ActiveProfiles("test") @EnableAutoConfiguration(exclude = [TestSupportBinderAutoConfiguration::class]) @EnableBinding(ProducerBinding::class) class ConsumerTest {     @Autowired    lateinit var producerBinding: ProducerBinding     @Autowired    lateinit var objectMapper: ObjectMapper     @MockBean    lateinit var messageService: MessageService     companion object {        @ClassRule @JvmField        var embeddedKafka = EmbeddedKafkaRule(1, true, "any-name-of-topic")    }     @Test    fun `should consume via txConsumer process`() {        // ACT        val request = mapOf(1 to "foo", 2 to "bar")        producerBinding.messageChannel().send(MessageBuilder.withPayload(request)            .setHeader("someHeaderName", "someHeaderValue")            .build())         // ASSERT        val requestAsMap = objectMapper.readValue<Map<String, Any?>>(objectMapper.writeValueAsString(request))        runBlocking {            delay(20)            verify(messageService).consume(requestAsMap)        }    } }

Заключение

В этом посте я продемонстрировал возможности Spring Cloud Stream и использования его с Kafka. Spring Cloud Stream предлагает удобный интерфейс с упрощенными нюансами настройки брокера, быстро внедряется, стабильно работает и поддерживает современные популярные брокеры, такие как Kafka. По итогам я привел ряд примеров с unit-тестированием на основе EmbeddedKafkaRule с использованием MessageCollector.

Все исходники можно найти на Github. Спасибо за прочтение!

ссылка на оригинал статьи https://habr.com/ru/post/552448/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *