Lorsque j'utilise Shark/Spark SQL pour traiter des mégadonnées, Spark alerte Out Of Memory
. Il n'y a pas d'utilisation de tunneling GC. Je suppose que les données brutes sont trop grandes pour être traitées.Comment estimer la mémoire nécessaire pour Shark/Spark SQL?
Ma question est comment je peux estimer la mémoire à allouer pour Spark, ou quand donné une mémoire spécifique à Spark, le maximum de données Spark peut traiter?
C'est une vieille question, maintenant je l'ai résolu. La raison en est que j'ai oublié de mettre la parlliziation – tonyking