L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 598

 
Aleksey Terentev:
1) Comment se passe la formation ? Je ne vois pas comment les pondérations sont appliquées.
2) Les poids du neurone lui-même sont-ils disponibles ?
3) Comme moyen, vous pouvez prendre la dérivée de la MA de clôture ou rapide du 1-4ème ordre. Ou des incréments.
4) Je mettrais la taille de la couche cachée égale à l'entrée.

les poids montent vers les additionneurs, tout est classique, puis le poids est envoyé vers la fonction d'activation. c'était juste peu pratique de tout signer sur le pavé tactile

en tant qu'"environnement" - nous supposons ici une action déjà effectuée par le SN en externe, par exemple une transaction... c'est-à-dire la mémoire du système pour n actions en arrière ; il en va de même pour le retour d'information - quelle action a conduit à quel résultat

donc je vais faire une couche interne égale à celle de l'entrée... et peut-être en ajouter une autre plus tard

 
Yuriy Asaulenko:

Vous ne feriez que perdre votre temps. Il ne fonctionnera pas sur des données réelles.

Par exemple : une mauvaise réponse de NS, et cela affectera toutes les réponses suivantes.


Eh bien pas vraiment, juste ns prendrons en compte la sérialité et l'efficacité des transactions comme un facteur supplémentaire ... c'est juste une option, je ne dis pas que c'est définitif

C'est pourquoi je demande d'autres idées.

+ c'est un élément adaptatif intégrable... comme un transistor.

et le NS principal a d'autres fi

 
Maxim Dmitrievsky:

les poids montent vers les additionneurs, tout est classique, puis le poids est envoyé vers la fonction d'activation. c'était juste peu pratique de tout signer sur le pavé tactile

en tant qu'"environnement" - nous supposons ici une action déjà effectuée par le SN en externe, par exemple une transaction... c'est-à-dire la mémoire du système pour n actions en arrière ; il en va de même pour le retour d'information - quelle action a conduit à quel résultat

je vais donc mettre une couche interne égale à celle de l'entrée... et je pourrais en ajouter une autre plus tard

Puis, en option, la somme des bénéfices en pips. Un commerce réussi -> augmentation, et vice versa.
Mais ici, la subtilité est que dans ce cas, nous devrions penser à ajouter la fonction Q, car elle doit être considérée comme une récompense. Ou dérivez une formule d'apprentissage en tenant compte de la récompense.
 
Aleksey Terentev:
Alors que dire de la somme des profits en pips. Un commerce réussi -> augmentation, et vice versa.
Mais le problème est que, dans ce cas, il faut penser à ajouter la fonction Q, car elle doit être considérée comme une récompense. Ou dérivez une formule d'apprentissage en tenant compte de la récompense.

Oui, ok :) bonne option.

Jusqu'à présent, la formule est simple : des neurones distincts, auxquels sont transmis les résultats des transactions passées, pas même des neurones, mais simplement des valeurs qui sont ajoutées au combinateur. Je n'ai pas encore vraiment lu sur les coolerings.

 
Maxim Dmitrievsky:

Oui, ok :) bonne option.

Jusqu'à présent, la formule est simple : des neurones distincts, auxquels sont transmis les résultats passés de la transaction, pas même des neurones, mais simplement des valeurs qui sont ajoutées à l'additionneur. Je n'ai pas encore vraiment lu sur les coolerings.

Vous créez deux NS identiques, vous en entraînez un avec des images traditionnelles et l'autre avec un transfert direct de poids, dosé en fonction des résultats de la prédiction du premier, c'est-à-dire que le second ne doit apprendre que de l'expérience positive.
 
Ivan Negreshniy:
Vous créez deux NS identiques, vous enseignez à l'un par l'imagerie traditionnelle et à l'autre par le transfert direct des gammes, dosé en fonction du résultat de la prédiction du premier, c'est-à-dire que le second ne doit apprendre que de l'expérience positive.

Il existe une telle variante, d'abord plusieurs SN sont formés sur des périodes différentes, puis ils sont combinés en un seul ... ajustement sophistiqué :)

J'aimerais qu'il comprenne quand il commence à travailler trop secoué et qu'il se réarrange lui-même

 
Maxim Dmitrievsky:

Il existe une telle variante, d'abord plusieurs SN sont formés sur des périodes différentes, puis ils sont combinés en un seul ... ajustement sophistiqué :)

Je veux qu'il comprenne quand il commence à travailler trop astucieusement et à s'accorder lui-même

Vous avez manifestement la mauvaise structure pour de telles fins.
 
Yuriy Asaulenko:
Vous avez manifestement la mauvaise structure pour de telles fins.

comment faites-vous ?

 
Maxim Dmitrievsky:

comment faites-vous ?

Je n'en ai aucune idée). Mais, certainement pas comme ça.
 
Maxim Dmitrievsky:

Il existe une telle variante, d'abord plusieurs SN sont formés sur des périodes différentes, puis ils sont combinés en un seul ... ajustement sophistiqué :)

J'aimerais qu'il comprenne quand il commence à travailler brusquement et qu'il se reconstruise.

Tout d'abord - ce n'est pas exactement un ajustement, car il est prouvé que les comités fonctionnent mieux, cela peut s'expliquer, par exemple, sur les écarts de signe opposés des modèles séparés, ce qui conduit à une précision accrue. Deuxièmement, le tandem NS proposé est un modèle unique et auto-adaptatif qui s'est également avéré bénéfique dans les méthodes d'apprentissage par renforcement.