J'ai plusieurs milliers de fichiers et ils contiennent chacun une seule ligne très longue. Je veux les convertir tous en un seul fichier avec une entrée par ligne divisée dans les champs ID et cela fonctionne avec quelques fichiers, mais cela prend trop de temps sur des centaines de fichiers et semble planter sur des milliers de fichiers. Vous cherchez un moyen plus rapide et illimité.Parse milliers de fichiers xml avec awk
(find -type f -name '*.xml' -exec cat {} \;) | awk '{gsub("ID","\nID");printf"%s",$0}'
J'ai aussi essayé ..
(find -type f -name '*.xml' -exec cat {} \;) | sed 's/ID/\nID/g'
Je pense que le problème est d'essayer d'utiliser le remplacement au lieu d'insertion ou il utilise trop de mémoire.
Merci
Merci les gars. Ma pipe coule à travers maintenant. J'ai l'impression d'avoir débloqué le secret de l'univers. –