À quelle vitesse un réseau neuronal devrait-il approcher la fonction z = y^2 + x^2? La mine semble avoir du mal quand je rends les entrées négatives aussi et tous les poids deviennent vraiment petits (* 10^-16! Si j'utilise 2x40x1) ou tous deviennent du même nombre (comme -0.16 et 0.16 si j'utilise 2x20x1). J'utilise 2000 exemples d'entrée par époque. Cependant, il semble que tout va bien si toutes les entrées sont positives. Qu'est-ce que cela pourrait signifier?Approximation de z = y^2 + x^2 avec le réseau neuronal
Quel nombre de paires d'entrées par époque, architecture et nombre d'époques dois-je utiliser pour résoudre cela, pensez-vous? J'utilise backprop, réseau de neurones sans biais avec 1 couche cachée (et mes entrées sont toutes entre -1 et +1 et les sorties désirées [0, 1]).
Merci,
La première chose que je voudrais faire est d'ajouter un autre 1 ou 2 couches cachées, mais pas plus. Quelle fonction d'activation utilisez-vous? –
Salut David, J'utilise Tanh. Hmmm je n'ai pas programmé pour plus d'une couche, mais je vais le faire maintenant et jeter un oeil. Je prévois d'utiliser ce réseau pour la prévision des marchés financiers, si peu soucieux que s'il ne peut pas apprendre une fonction 2D, comment va-t-il cartographier une fonction complexe comme celle d'un marché financier? Oui va programmer dans une autre couche. Quelle architecture conseilleriez-vous pour cela? Il a bien fonctionné pour l'apprentissage XOR en 280 époques. Je n'utilise pas un biais cependant (serait-ce un problème majeur?). Merci – Katya
@Katya, avez-vous résolu cela à la fin? Si oui, quelle était la réponse? – Chogg