I J'ai implémenté avec succès des modèles de moteur predictionIO. Je peux déployer un moteur avecComment exécuter le moteur de prédiction en tant que service
$pio deploy -- --driver-memory xG
Mais Comment puis-je exécuter recommandation (ou tout autre) engine as a service
? Je veux enregistrer toutes les entrées dans un fichier spécifié pour référence si certains problèmes se produisent.
Il est également mentionné que pour small deployments
il est préférable de ne pas utiliser une configuration distribuée. J'ai un jeu de données au format json pour un modèle de classification de texte d'environ 2 Mo et il faut environ 8 Go de mémoire pour que le moteur s'entraîne et se déploie. Cela correspond-il à la catégorie small deployment
?