L'apprentissage automatique pour les robots - page 5

 
Ivan Negreshniy:

Bien sûr, j'ai essayé, et pas seulement moi, par exemple dans le fil de discussion sur le MO, il y a ceux qui l'ont fait, répétant le mantra sur les déchets à l'entrée et oubliant apparemment que les déchets sur la sortie formelle lors de la formation avec un professeur ne sont pas beaucoup mieux, tandis que la sélection et le brassage des vecteurs de caractéristiques ne sauve pas de l'overfitting.

J'essaie de marquer les signaux manuellement, mais le système doit-il être réparti de manière égale, ou dois-je marquer uniquement les entrées avec la logique ?

Comment le réseau s'accommode-t-il de la non-stationnarité ? Et s'en accommode-t-il tout court, par exemple si la taille d'un même motif peut être de 15 mesures ou de 150 ?

 
mytarmailS:

J'essaie de marquer les signaux manuellement, mais le système doit-il être réparti de manière égale, ou dois-je marquer uniquement les entrées avec la logique ?

Comment le réseau s'accommode-t-il de la non-stationnarité ? Et s'en accommode-t-il du tout, par exemple, la taille d'un même motif peut être soit de 15 mesures soit de 150 ?

Certains modèles sont sensibles au nombre de signaux et nécessitent un alignement, d'autres non. Je pense que nous pouvons commencer par un échafaudage aléatoire et une grille auto-écrite qui sont assez peu prétentieux, et quant à la taille du motif, nous pouvons prendre le maximum comme base.
 
Ivan Negreshniy:

Maintenant, pour organiser et discuter des expériences :

  • Tout auteur volontaire crée des modèles avec des signaux de trading de sa stratégie et les publie dans ce fil.
  • Je traite les modèles, crée des conseillers experts ou des indicateurs, et les affiche ici sous forme compilée.
  • Tous les autres peuvent télécharger librement des modèles et des robots, les tester et donner leur avis d'expert.

Pourquoi c'est si compliqué. On peut le faire d'une manière beaucoup plus simple.

De nombreuses transactions sont générées de manière aléatoire sur l'historique. Beaucoup d'entre eux ont réussi, et beaucoup n'ont pas réussi. Sur cet échantillon, nous enseignons le système avec des méthodes de MO. Le MO va le classer et trouver des modèles.

Je l'ai fait sur une séquence de ~10 000 transactions. Même un système simple avec MO apprend bien et dans le test il montre 80-85% de trades réussis. Ce qui est déjà très étrange pour un simple MO, car il ne peut tout simplement pas se souvenir d'autant de transactions - la seule explication est que le MO trouve et généralise certains modèles.

Oui, mais tous ces miracles ne sont observés que sur une séquence d'entraînement).

 
Yuriy Asaulenko:

Pourquoi être si compliqué. On peut le faire d'une manière beaucoup plus simple.

De nombreux métiers sont générés de manière aléatoire dans l'histoire. Beaucoup d'entre eux ont réussi, beaucoup n'ont pas réussi. Sur cet échantillon, nous entraînons le système avec les méthodes de la MO. Le MO va les classer et trouver des modèles.

Je l'ai fait sur une séquence de ~10 000 transactions. Même un système simple avec MO apprend bien et dans le test il montre 80-85% de trades réussis. Ce qui est déjà très étrange pour un simple MO, car il ne peut tout simplement pas se souvenir d'autant de transactions - la seule explication à cela est que le MO trouve et généralise certains modèles.

Oui, mais tous ces miracles ne sont observés que sur une séquence d'entraînement).

Eh bien, oui, en cas de surajustement complet, la séquence d'apprentissage peut être de 100 %, mais la tâche n'est pas de mémoriser, mais de généraliser et d'obtenir des résultats à l'avance.

C'est pourquoi, dans l'expérience, il est suggéré de s'entraîner non pas sur des transactions aléatoires ou sur toutes les transactions rentables possibles, mais sur des transactions (signaux) filtrées à partir des lectures d'un indicateur.

Ainsi, tous les signaux contiendront déjà une dépendance formalisée avec BP, et le réseau neuronal n'aura qu'à la déterminer et à établir un modèle d'exclusion des mauvais signaux qui ne sont pas inclus dans l'échantillon.

 
Yuriy Asaulenko:

Pourquoi être si compliqué. On peut le faire d'une manière beaucoup plus simple.

De nombreux métiers sont générés de manière aléatoire dans l'histoire. Beaucoup d'entre eux ont réussi, beaucoup n'ont pas réussi. Sur cet échantillon, nous enseignons le système en utilisant les méthodes du MO. Le MO va le classer et trouver des modèles.

Je l'ai fait sur une séquence de ~10 000 transactions. Même un système simple avec MO apprend bien et dans le test il montre 80-85% de trades réussis. Ce qui est déjà très étrange pour un simple MO, car il n'est tout simplement pas capable de se souvenir d'autant de transactions - la seule explication est que le MO trouve et généralise certains modèles.

Oui, mais tous ces miracles ne sont observés que sur une séquence d'apprentissage).

votre connaissance du MO tend toujours vers zéro, malheureusement

donc votre réseau neuronal interne n'a pas encore trouvé de consensus sur ce dont il s'agit.
 
Maxim Dmitrievsky:

votre connaissance du ministère de la Défense est toujours, malheureusement, à zéro.

C'est pourquoi votre réseau neuronal interne ne parvient pas encore à un consensus : à quoi bon le faire ?

Ne sois pas si excité, Maxim.) Tout le monde sait déjà que la seule chose plus dure que vous, ce sont les couilles.

 
Ivan Negreshniy:

Eh bien, oui, dans le cas d'un entraînement avec sur-ajustement complet, il peut être de 100%, mais la tâche n'est pas de mémoriser, mais de généraliser et d'obtenir des résultats sur un marché à terme.

C'est pourquoi, dans l'expérience, il est suggéré de s'entraîner non pas sur des transactions aléatoires ou toutes les transactions rentables possibles, mais sur des transactions (signaux) filtrées à partir des lectures d'un indicateur.

Ainsi, tous les signaux contiendront déjà une dépendance formalisée avec BP, et le réseau neuronal n'aura qu'à la déterminer et à établir un modèle d'exclusion des mauvais signaux qui ne sont pas inclus dans l'échantillon.

Avec une dimension d'échantillon d'entraînement beaucoup plus grande que la dimension du SN, le réentraînement est presque irréaliste.

Avec de petits échantillons, le réentraînement est réalisé à une seule reprise. Disons que vous avez reçu 200 transactions réelles.

 
Yuriy Asaulenko:

Avec une dimension d'échantillon d'entraînement beaucoup plus grande que la dimension du SN, le réentraînement est presque irréaliste.

Avec de petits échantillons, le réapprentissage est réalisé en un nombre de fois. Supposons que l'on vous donne 200 transactions réelles.

Cela dépend des données, des paramètres et du type de modèle, par exemple dans les arbres le nombre de niveaux est dynamiquement augmenté, comme dans mon réseau le nombre de neurones, bien qu'il y ait une limite de densité conditionnelle d'information, mais elle est déterminée uniquement par l'échantillon de formation, vous pouvez faire de l'élagage, des comités, etc.

Et le sur-apprentissage, ce n'est pas nécessairement se souvenir de tous les échantillons, c'est simplement s'en souvenir sans généralisation, par exemple en présence d'informations contradictoires qui sont remplacées et ne peuvent être moyennées.

 
Ivan Negreshniy:

Cela dépend des données, des paramètres et du type de modèle, par exemple dans les arbres, le nombre de niveaux augmente dynamiquement, de même que dans mon réseau le nombre de neurones, bien qu'il y ait une limite de densité d'information conditionnelle, mais elle n'est déterminée que par l'échantillon d'entraînement, vous pouvez faire de l'élagage, des comités, etc.

Et le sur-apprentissage, ce n'est pas forcément mémoriser tous les échantillons, c'est simplement les mémoriser sans généralisation, par exemple en présence d'informations contradictoires qui sont remplacées et ne peuvent être moyennées.

Pourquoi ne pas télécharger une stratégie super-duper du marché, l'exécuter dans le testeur (nous faisons confiance au testeur)), et appliquer les résultats à NS, RF, SVM ou autre. Et nous n'avons pas à attendre - nous l'essayons sur la démo et voyons les résultats.

 
Yuriy Asaulenko:

Pourquoi ne pas faire ce qui suit à titre expérimental : télécharger une stratégie super-duper du marché, l'exécuter dans le testeur (nous faisons confiance au testeur)), et soumettre les résultats à NS, RF, SVM ou autre. Et nous n'avons pas à attendre - nous l'essayons sur la démo et voyons les résultats.

Donc vous ne pouvez pas, compilé avec la protection modérateur va rejeter parce que vous avez besoin de la source, et la source va rejeter parce qu'il est nécessaire de protéger les droits du vendeur - cercle vicieux fonctionne :))

Mais il n'y a rien de surprenant ici, car le statut juridique des robots de différentes professions et dans l'environnement des objets, jusqu'à présent, est pauvre...