2015-09-03 1 views
4

I J'ai implémenté avec succès des modèles de moteur predictionIO. Je peux déployer un moteur avecComment exécuter le moteur de prédiction en tant que service

$pio deploy -- --driver-memory xG 

Mais Comment puis-je exécuter recommandation (ou tout autre) engine as a service? Je veux enregistrer toutes les entrées dans un fichier spécifié pour référence si certains problèmes se produisent.

Il est également mentionné que pour small deployments il est préférable de ne pas utiliser une configuration distribuée. J'ai un jeu de données au format json pour un modèle de classification de texte d'environ 2 Mo et il faut environ 8 Go de mémoire pour que le moteur s'entraîne et se déploie. Cela correspond-il à la catégorie small deployment?

Répondre

0

pio deploy Exécuter le moteur en tant que service. La journalisation va à pio.log et vous pouvez ajouter votre propre journalisation personnalisée. Je dirais que tant que vous avez plus de 8 Go de RAM en réserve, tenez-vous à la seule machine appelée "petit déploiement".