J'ai vu des exemples des termes « float » et « double » être appliqué à différents scénarios et semblent comprendre que les bits et octets servent un rôle, mais je ne peux pas trouver un clair explication de ce la différence est. Les contraintes de mémoire semblent être la cause d'une telle différenciation (??), mais je veux juste juste savoir spécifiquement ce que l'on est par rapport à l'autre. De plus, comment dire si les données sont classées (ou devrait être stocké) comme "float" contre "double"?Quelle est exactement la différence entre les types de stockage en virgule flottante 'float' et 'double'?
Comment ces concepts s'appliquent aux valeurs décimales (vs binaires)?
Contexte: J'ai une série de variables stockées dans une table .csv pour laquelle je suis en train de définir « le type de stockage. » Certains sont des entiers, d'autres sont des chaînes et d'autres encore sont des nombres décimaux. J'essaie juste de comprendre comment définir le "type de stockage" pour chacun.
Possible duplication de [Différence entre float et double] (http://stackoverflow.com/questions/2386772/difference-between-float-and-double) –
Pour ceux qui sont si prompts à faire une rétrogradation, veuillez me faire savoir est faux avec la question, ou passer un peu de temps supplémentaire pour aider ceux (moi) à comprendre quelque chose que vous jugez simple. – theforestecologist
Ce n'est pas mon vote négatif, mais il est fort probable que vous ayez été déclassé en raison de l'absence apparente d'efforts de recherche antérieurs et du fait qu'il existe déjà de nombreux doublons de cette question sur StackOverflow. Quoi qu'il en soit, voir le lien ci-dessus - qui couvre à peu près tout dans votre question (et plus encore). –