J'ai un grand tableau 2D de taille Nx3. Ce tableau contient des données de nuage de points au format (X, Y, Z). J'utilise Python dans Ubuntu dans un environnement virtuel pour lire les données d'un fichier .ply.Numpy.Cov d'un grand tableau Nx3 produit MemoryError
Quand je suis en train de trouver la covariance de ce tableau avec rowvar ensemble à vrai (ce qui signifie chaque rangée étant considérée comme une variable), je reçois MemoryError. Je comprends que cela crée un très grand tableau, apparemment trop grand pour gérer ma mémoire allouée de 8 Go. Sans augmenter l'allocation de mémoire, existe-t-il un moyen différent de contourner ce problème? Existe-t-il différentes méthodes de calcul des éléments de la matrice de covariance afin que la mémoire ne soit pas surchargée?
Quelle est la valeur de 'N'? – Eric
La valeur de N peut être aussi grande que 23000. – troymyname00
Veuillez poster votre code. De mon expérience, 8 Go devrait être suffisant – Marat