Est-il possible dans Apache Flink, d'ajouter dynamiquement un nouveau flux de données pendant l'exécution sans redémarrer le Job?Apache Flink ajoute dynamiquement un nouveau flux
Pour autant que je compris, un programme Flink d'habitude ressemble à ceci:
val env = StreamExecutionEnvironment.getExecutionEnvironment()
val text = env.socketTextStream(hostname, port, "\n")
val windowCounts = text.map...
env.execute("Socket Window WordCount")
Dans mon cas, il est possible, que par exemple un nouveau périphérique est démarré et, par conséquent, un autre flux doit être traité. Mais comment ajouter ce nouveau flux à la volée?