Je viens de commencer à utiliser Sklearn (MLPRegressor) et Keras (Sequential, avec des couches Dense).Y a-t-il un moyen d'utiliser la similitude cosinus au lieu du produit scalaire en python (sklearn/keras)
Aujourd'hui, je lis le document this décrivant comment l'utilisation de la similitude de cosinus au lieu du produit scalaire améliore les performances. Ceci dit essentiellement que si nous remplaçons f(w^Tx)
par f((w^Tx)/(|x||w|))
, c'est-à-dire que nous ne fournissons pas simplement le produit scalaire à la fonction d'activation mais que nous le normalisons, nous obtenons une performance meilleure et plus rapide.
Existe-t-il un moyen de le faire en Python, spécifiquement dans MLPRegressor dans SKlearn (ou autre), ou dans Keras? (peut-être TensorFlow?)
vérifier ce https://stackoverflow.com/questions/43357732/how-to-calculate-the-cosine-similarity-between-two-tensors/43358711#43358711 –