J'essaie d'obtenir des fréquences de pourcentage dans pyspark. Je l'ai fait en Pyhton comme suitComment puis-je obtenir des fréquences de pourcentage dans pyspark
Companies = df['Company'].value_counts(normalize = True)
Obtenir les fréquences est assez simple:
# Dates in descending order of complaint frequency
df.createOrReplaceTempView('Comp')
CompDF = spark.sql("SELECT Company, count(*) as cnt \
FROM Comp \
GROUP BY Company \
ORDER BY cnt DESC")
CompDF.show()
+--------------------+----+
| Company| cnt|
+--------------------+----+
|BANK OF AMERICA, ...|1387|
| EQUIFAX, INC.|1285|
|WELLS FARGO & COM...|1119|
|Experian Informat...|1115|
|TRANSUNION INTERM...|1001|
|JPMORGAN CHASE & CO.| 905|
| CITIBANK, N.A.| 772|
|OCWEN LOAN SERVIC...| 481|
Comment puis-je obtenir pour cent fréquences d'ici? J'ai essayé un tas de choses avec pas beaucoup de chance. Toute aide serait appréciée.
Comment l'utilisation totale compte pour calculer le pourcentage.? – Suresh
Si vous avez trouvé la réponse utile, veuillez l'accepter - merci – desertnaut