J'ai créé un fichier python (python_file.py) avec une fonction, puis j'ai appelé la fonction en UDF dans pyspark-shell dans la même portée. Le code est le suivantPyspark - AttributeError: l'objet 'UserDefinedFunction' n'a pas d'attribut '_get_object_id'
import python_file as outer
pyspark_func = udf(outer.my_funct, StringType())
df1 = df.select(pyspark_func(col('col1')))
Il a donné lieu à
AttributeError: objet 'UserDefinedFunction' n'a pas d'attribut '_get_object_id' erreur.
Quelqu'un peut-il s'il vous plaît m'expliquer l'erreur. Et y a-t-il un autre moyen de le faire?
Comment est-ce lié à la question? Est-ce que cela résout vraiment le problème? –
Oui. Même j'ai fait face au même problème quand j'essaye de questionner le cadre de données en utilisant comme cette requête -> "df1 = df.select (pyspark_func (col ('col1')))" et l'erreur causée en raison de ud utilisateur défini ne sont pas enregistrent temporellement ou permanent –