Je pourrais configurer/intégrer avec succès spark dans KNIME. Je l'ai fait dans CDH 5.7. J'ai suivi les étapes suivantes: 1.Downloaded knime-full_3.3.2.linux.gtk.x86_64.tar.gz. 2.Exécutez l'installation de pacakge et d'exécution mentionnée ci-dessus pour KNIME. 3.Une fois que KNIME est installé goto Fichier -> Installer les Extensions KNIME -> Installer les extensions Bigdata (Vérifiez toutes les extensions liées à Spark et continuez).
Suivez ce lien: https://tech.knime.org/installation-instructions#download
4.Till maintenant que les extensions liées BigData ont été installés, mais ils ont besoin d'une licence pour être fonctionnelle. 5.License doit être acheté.Cependant, le sentier gratuit pendant 30 jours peut être utilisé après quoi il doit être acheté. suivrez ce lien: https://www.knime.org/knime-spark-executor
6.Après plugins sont installés, nous devons configurer Spark-travail-serveur. Pour cela nous avons besoin de télécharger la version compatible de spark-job-server pour la version hadoop que nous avons.
suivrez ce lien pour la version d'étincelle travail-serveur et sa version compatible: https://www.knime.org/knime-spark-executor
Oui, vous êtes right.I ont mentionné les étapes détaillées ci-dessous pour toute référence future. –