C'est impossible de gagner de l'argent avec le Forox ! !! - page 32

 
Je ne voulais pas m'immiscer dans la discussion, mais je peux vous dire que c'est la seule façon dont je forme les neurones. Le surentraînement est traité avec quelques astuces de base sur ces données. So joo c'est prometteur.
 
Avals >> :

Le prétraitement, c'est-à-dire ce qui est introduit dans le système, est susceptible d'être important ici. L'IALA, c'est la pierre angulaire des systèmes adaptatifs. Ces valeurs devraient elles-mêmes caractériser les phases stables du marché. Et les synthétiques devraient être générés à partir de ces données. En gros, ils doivent être générés et leur distribution doit être modifiée (en changeant les valeurs des paramètres d'entrée du système adaptatif).

Eh, vous n'avez pas besoin de penser à ce qui est envoyé à l'entrée de l'ATS. Vous devez d'abord disposer de la source originale des données d'entrée, le même OHLC mais synthétique.

 

Après tout, la question s'adressait à ceux qui comprennent les statistiques, car je ne connais pas assez bien le sujet.

Quand je l'implémenterai dans un code fonctionnel, je le mettrai dans la base de code. Ceux qui sont intéressés l'utiliseront.


Si vous avez quelque chose à dire sur le sujet que j'ai suggéré, Ilya, je serai heureux de l'entendre.

 
Oh oui, et il y en a beaucoup ! Quelle est la meilleure façon d'aborder le problème de l'adaptabilité ? Il s'agit de construire une série statistiquement similaire à partir des paramètres statistiques de l'échantillon général. On obtiendrait ainsi un modèle de prix présentant des caractéristiques similaires à celles de l'échantillon général, mais avec un nouveau mouvement, et avec autant de données que nécessaire. Et la nouveauté de son mouvement correspondra aux propriétés de l'échantillon général. Une grille ou un conseiller expert adaptatif ne sera pas en mesure de s'adapter, car les données changent constamment. Mais ces données contiennent des lois d'état qui seront ciblées par le neurone ou le conseiller expert adaptatif. Et ce sont les lois stat qui vont généraliser (essayer de généraliser, il faut encore penser au neurone). C'est la fin de la première partie. :)
 
IlyaA >> :
Oh, il y en a et il y en a beaucoup ! Quelle est la meilleure façon d'aborder le problème de l'adaptabilité ? Il s'agit de construire une série statistiquement similaire sur la base des paramètres statistiques de l'échantillon général. Nous obtenons ainsi un modèle de prix aux caractéristiques similaires à celles de l'échantillon général, mais avec de nouvelles données et un nombre quelconque de celles-ci. Et la nouveauté de son mouvement correspondra aux propriétés de l'échantillon général. Une grille ou un conseiller expert adaptatif ne sera pas en mesure de s'adapter, car les données changent constamment. Mais ces données contiennent des lois d'état qui seront ciblées par le neurone ou le conseiller expert adaptatif. Et ce sont les lois stat qui vont généraliser (essayer de généraliser, il faut encore penser au neurone). C'est la fin de la première partie. :)

La question ne portait pas sur l'apprentissage. La question portait sur la création d'une RV synthétique avec des paramètres statistiques donnés.

 
joo >> :

La question ne portait pas sur la formation. La question portait sur la création d'une BP synthétique avec les paramètres statistiques spécifiés.


L'algorithme est en gros le suivant :

1. décider d'un groupe de paramètres pour la population générale. Environ 5-10 habituellement. Les sociologues en ont 100 à 150.

2. Construire une densité de probabilité pour chaque caractéristique ou combinaison de caractéristiques. 3.

Commencez à modéliser les données avec les distributions spécifiées. La cohérence de la combinaison avec tous les paramètres est vérifiée, et des corrections sont apportées à l'algorithme de génération.

4. Les données sont utilisées pour l'entraînement des Expert Advisors.

 
IlyaA >> :


L'algorithme est en gros le suivant :

1. décider d'un groupe de paramètres pour la population générale. Environ 5-10 habituellement. Les sociologues en ont 100 à 150.

2. Construire une densité de probabilité pour chaque caractéristique ou combinaison de caractéristiques. 3.

Commencez à modéliser les données avec les distributions spécifiées. La cohérence de la combinaison avec tous les paramètres est vérifiée, et des corrections sont apportées à l'algorithme de génération.

4. Les données sont utilisées pour l'entraînement des Expert Advisors.

C'est génial ! Et maintenant pour 1,2,3 sauf pour 4, s'il vous plaît développez.

 
IlyaA писал(а) >> Le surentraînement est guéri par quelques astuces élémentaires sur de telles données.

Quel genre d'astuces ? si ce n'est pas un secret ....))))

 

J'utiliserais (signal réel + bruit artificiel) pour étudier la stabilité de TC.

Et je ne vois aucun sens pratique à un oscillateur purement artificiel. Oui, je comprends l'idée de déboguer l'algorithme TC sur le simulé par un spécialiste des conditions nécessaires, mais je ne suis pas sûr que ce sera adéquat. Ensuite, on peut toujours trouver la zone nécessaire dans les citations réelles et pas une seule.

 
LeoV >> :

Quel genre d'astuces ? si ce n'est pas un secret ....))))


Eh bien, c'est vraiment très simple. Je vais vous dire les méthodes, mais je suis sûr que vous les connaissez aussi.

1. Un arrêt précoce.

2. Vérification croisée.

3. Réduction des poids

4. éliminer les poids.

5. Approximation par lissage.