2017-09-22 1 views
0

J'essaie d'utiliser h2o steam (en cours d'exécution sur localhost) pour déployer un modèle. Après avoir importé le modèle de h2o flow, cliquez sur l'option "deploy model" dans la section "models" du projet, remplir la boîte de dialogue qui, et en cliquant sur le bouton « déployer », les messages suivants sont affichés:H2O Steam deploy ne peut pas se connecter à Prediction Service Builder

enter image description here

A D'abord, je pensais que c'était parce que peut-être j'avais besoin de démarrer le constructeur de service sur mon propre, donc je l'ai commencé à suivre les docs here, mais toujours eu la même erreur. Toute suggestion serait appréciée. Merci :)

Répondre

0

Vous here, il semble que je dois « override » une sorte de restriction par défaut du navigateur pour accéder à localhost: 8080 (ce qui est ce que je suppose steam essaie de faire pour lancer le constructeur de service (I don Je ne sais pas grand-chose sur les choses liées au réseau)). Je suis autour en lançant steam avec la commande:

$ ./steam serve master --prediction-service-host=localhost --prediction-service-port-range=12345:22345 

où les ports sont une plage arbitraire entre (1025, 65535) que je suis arrivé par mot-recherche de la page de la steam source de code (ligne 182 comme de la date de cet affichage). Cela permet de déployer les modèles via la boîte de dialogue steam sans aucun message d'erreur. Encore une fois, je ne sais pas grand-chose sur les choses liées au réseau, donc si quelqu'un a une meilleure façon de résoudre ce problème (c.-à-permettre l'accès de localhost: 8080) s'il vous plaît poster ou commenter. Merci.

0

Assurez-vous que le serveur HTTP de la jetée est en cours d'exécution localement en exécutant la commande suivante dans votre shell: java -jar var/master/assets/jetty-runner.jar var/master/assets/ROOT.war