Присмотревшись к архитектуре, концептуально, кажется проблем быть не должно нигде, если вы уже не первый год работаете с BigData, стек привычный и даже классический: нет новых инструментов в данной реализации (некоторые скрыты, по понятным причинам), но дьявол зарыт всегда в нюансах конкретной реализации, в деталях... А как мы сообщения парсим? Spark. А нет ли проблем и тонкостей тут?
Оказалось, есть, мой DE пытался запустить парсинг таблицы и укладку в Kafka в новой среде, но все безуспешно, хотя в данном варианте сборки не ожидалось никаких проблем. После того, как инженер решал данную проблему несколько дней и все безуспешно, мне пришло понимание, что следующие итерации лишь потратят в разы больше времени, и не принесут ожидаемого результата, поэтому я настоятельно порекомендовал обратиться к команде экспертов в нашей компании, которые объединены под общим концептом - Т1.Техногильдии – это наше внутреннее сообщество (комьюнити) специалистов и профессионалов, которые поддерживают технологии, инструменты, продукты и решения ключевого стека компании, и как оказалось не зря!