J'utilise Spark 2.1.0 en unix et a trouvé un problème bizarre où unix_timestamp est en train de changer l'heure pour un horodatage particulier, je créé un dataframe comme ci-dessousfonction unix_timestamp() change heure étincelle scala
Pour le 1er enregistrement de df2, avoir "20170312020200" comme chaîne, que j'ai ensuite converti en horodatage dans df3, les heures devraient être 02 mais à la place, elles seront 03 dans df3. Mais le 2ème enregistrement n'a pas de problème dans la conversion de chaîne en horodatage.
Cela ne se produit pas lorsque j'exécute l'application à l'aide d'Intellij dans le système local. Cela se passe dans spark-submit aussi bien quand nous courons notre application.
Cela a du sens, mon système local est sur GMT +5,30 et le serveur est sur EDT. – Himanshu