L'étiquette du marché ou les bonnes manières dans un champ de mines - page 89

 
paralocus писал(а) >>
Je pense que la longueur de l'échantillon d'entraînement ne peut pas être simplement une fonction de la configuration du réseau (nombre d'entrées et nombre de neurones), il faudrait peut-être prendre en compte certaines caractéristiques des lignes sur lesquelles nous voulons entraîner le réseau.

Ceci est possible si la BP est non-stationnaire et la correction sera déterminée par la nature de la non-stationnarité. Cependant, nous sommes encore loin de la correction - nous ne connaissons pas le type de dépendance de la longueur de l'échantillon sur le nombre de poids et la dimensionnalité de l'entrée NS. Intuitivement, je pense que la vue générale ressemblera à ceci : P=4*w, et ceci est vrai pour toute architecture de NS.

Fedor, que dites-vous de mon "épiphanie" sur le problème de la prédiction de la BP binaire ? Après tout, le fait que, pour ce cas particulier de BP, nous puissions utiliser aussi efficacement que NS la statanalyse comme moteur de prédiction, nous permet de nous délier complètement les mains en termes d'intensité des ressources du processus. Je crois qu'il s'agit d'une percée. Là où les traders "incompréhensifs" consacrent du temps et des efforts à former des NS à cinq couches avec une architecture adaptative, il leur suffit de rassembler des statistiques et de ne pas se tortiller (comme le disait Lénine).

 
Neutron >> :

Ceci est possible si la BP est non-stationnaire et la correction sera déterminée par la nature de la non-stationnarité. Cependant, nous sommes encore loin de la correction - nous ne connaissons pas le type de dépendance de la longueur de l'échantillon sur le nombre de poids et la dimensionnalité de l'entrée NS. Intuitivement, je pense que la vue générale ressemblera à ceci : P=4*w, et ceci est vrai pour toute architecture de NS.

Fedor, que dites-vous de mon "épiphanie" sur le problème de la prédiction de la BP binaire ? Après tout, le fait que, pour ce cas particulier de BP, nous puissions utiliser aussi efficacement que NS la statanalyse comme moteur de prédiction, nous permet de nous délier complètement les mains en termes d'intensité des ressources du processus. Je crois qu'il s'agit d'une percée. Là où les traders "incompréhensifs" consacrent du temps et des efforts à former des NS à cinq couches avec une architecture adaptative, il leur suffit de rassembler des statistiques et de ne pas se tortiller (comme le disait Lénine).

Je te le dis, Sergey, c'est plus que tentant. Maintenant, je me suis retiré des réseaux, parce que je suis occupé par les ticks et que j'ai évité jusqu'à présent les conseillers experts sur les grilles avec des entrées binaires. Mais maintenant que j'ai un peu de temps libre, j'ai l'intention de retourner aux expériences avec les grilles, y compris les entrées binaires. Si vous pouvez vous passer des grilles... c'est vraiment une percée. Je me souviens que Prival, et pas seulement Prival, a suggéré l'idée d'une base de données de modèles. Si un modèle statistique permettait de créer une telle base de données, le conseiller expert serait d'une simplicité enfantine mais d'une efficacité adulte. D'ailleurs, nous ne devrions peut-être pas nous éloigner des grilles du tout, la grille devrait simplement changer de tâche - au lieu de prévoir le prochain rapport, elle peut s'occuper de la reconnaissance des formes - à mon avis, la tâche est beaucoup plus perspective et convient très bien aux systèmes de logique floue. Qu'en pensez-vous ?

 
Neutron писал(а) >>

...d'utiliser la statanalyse comme une machine à prévoir, ce qui nous libérerait considérablement les mains en termes d'intensité de ressources du processus. Je pense que c'est une percée...

Pourquoi ne pas utiliser :

- Règles d'ass. ou

- Cohonnen ?

Ils donnent la probabilité même et le soutien.

 

C'est ça l'esprit ! Je ne suis pas venu ici depuis un moment. Il y a déjà 90 pages). Quand vous arrivez à faire des grilles aussi, c'est incroyable).

 
M1kha1l писал(а) >>

Pourquoi ne pas utiliser :

- Règles d'ass. ou

- Cohonnen ?

Ils donnent la probabilité même et le soutien.

Pourquoi ?

Après tout, dans le cas de données d'entrée binaires, ce travail peut tout aussi bien être résolu par des modèles d'analyse statistique. Jugez-en par vous-même - pas de problèmes de formation et de recherche de l'architecture optimale. Comme l'a souligné à juste titre Paralocus, "le conseiller expert serait d'une simplicité enfantine mais d'une efficacité mature" !

 

Après s'être lancé dans des expériences avec des entrées binaires, une question se pose. Je l'ai déjà posée une fois, mais je vais la répéter :

Si j'alimente les entrées avec les signes de la première série de différences PT, alors je devrais prédire exactement l'enak du prochain incrément...

Ci-dessous se trouve mon code à couche unique (j'ai commencé avec jusqu'à présent) et ce code prend l'amplitude, et non le signe, comme une erreur à la sortie de la grille, bien que ce soit le signe qui soit utilisé dans le calcul OUT lui-même. Est-ce correct ? L'erreur ne devrait-elle pas aussi être un signe, ou à tout le moins (bien sûr, il n'y a rien à faire avec l'extrémité fine...) une amplitude suffisante pour obtenir le signe approprié à la sortie ?


 
paralocus писал(а) >>

Je te le dis, Sergey, c'est plus que tentant. Maintenant, je me suis quelque peu éloigné des grilles elles-mêmes, car j'ai repris les ticks et j'ai jusqu'à présent évité les Expert Advisors fondamentaux sur les grilles avec des entrées binaires. Mais maintenant que j'ai un peu de temps libre, j'ai l'intention de retourner aux expériences avec les grilles, y compris les entrées binaires. Si vous pouvez vous passer des grilles... c'est vraiment une percée. Je me souviens que Prival, et pas seulement Prival, a suggéré l'idée d'une base de données de motifs. Si un modèle statistique permettait de créer une telle base de données, le conseiller expert serait d'une simplicité enfantine mais d'une efficacité adulte. D'ailleurs, nous ne devrions peut-être pas nous éloigner des grilles du tout, la grille devrait simplement changer de tâche - au lieu de prévoir le prochain rapport, elle peut s'occuper de la reconnaissance des formes - à mon avis, la tâche est beaucoup plus perspective et convient très bien aux systèmes de logique floue. Qu'en pensez-vous ?

Je suis étonné :) Vous êtes plutôt intelligents, mais regardez à mi-chemin. L'entrée de l'expert dans ce schéma doit être la même base de données avec des statistiques sur les modèles. Eh bien, combien de modèles prévoyez-vous d'y mettre ?

Tous ? Bonne chance ... :) Et si ce n'est pas tous, combien exactement ? Et en quoi cette tâche est-elle plus facile que celle des NS ?

L'expert sera certainement rapide au bout du compte. Seulement, vous devez l'alimenter avec des "vérités" de la base de données, qui, d'ailleurs, ne sont pas vraies quand on les teste. No Fuzzy aidera à extraire la confiture de l'avenir du passé trash (DB).

// Wapcheta, pour être honnête - j'ai vérifié. Il y a environ un an et demi.

// Seulement le schéma était plus élégant. Après une réflexion approfondie et créative, j'ai trouvé la solution suivante : si à un moment donné, je dois // prendre une décision sur un brevet, je ne peux pas la prendre.

// Je dois prendre une décision sur un motif que j'ai au présent, je n'ai pas besoin d'une gigabase avec

// une gigabase avec un tas de motifs non pertinents ??? Je prends le modèle actuel du fourneau et je le fais remonter dans l'histoire,

// Je collecte des statistiques au fur et à mesure. Après l'avoir collecté, je l'utilise immédiatement. La dimensionnalité du problème diminue de x^n

// fois, où n=nombre de motifs dans la base de données. Huh.

// Je l'ai fait. J'ai les résultats. Dans l'ensemble

// Négatif, bien que j'aie découvert quelques méta-lois en cours de route. Je ne vous dirai pas lequel, je suis désolé de le dire. Parce que...

// une régularité pas du tout évidente, il faut le voir. Alors vous le faites vous-même. Bonne chance. (sans ironie)

// Je résume encore une fois : vous n'obtiendrez pas le résultat escompté avec ce dispositif. Mais vous pouvez obtenir une sorte de "satori".

// Il peut vous donner quelques indices pour comprendre la nature du marché en tant que métasystème d'apprentissage. Ce qui est BON.

 
MetaDriver >> :

>> c'est hilarant.)


Mogit était-il pressé ? Celui qui rit le dernier, les cow-boys disent...

Je ne pense pas qu'il y aura un grand DB ici. Tout au plus une centaine et demie de motifs, et très probablement encore moins. Vous avez dû faire fonctionner votre système à la lumière des bougies...

 
paralocus писал(а) >>

Après s'être lancé dans des expériences avec des entrées binaires, une question se pose. Je l'ai déjà posée une fois, mais je vais la répéter :

Si j'alimente les entrées avec les signes de la première série de différences PT, alors je devrais prédire exactement l'enak du prochain incrément...

Ci-dessous se trouve mon code monocouche (j'ai commencé avec jusqu'à présent) et ce code prend l'amplitude, et non le signe, comme une erreur à la sortie de la grille, bien que le calcul OUT lui-même utilise exactement le signe. Est-ce correct ? Ne devrions-nous pas utiliser comme erreur aussi un signe, ou au pire (bien sûr, il n'y a rien à faire avec le pire bout...) l'amplitude est suffisante pour obtenir le signe approprié à la sortie ?

Voici le cas : la raison principale de la transition vers la BP binaire est le refus éventuel des procédures de rationnement et de blanchiment des entrées pour les NS et le plus important - la transition d'une valeur continue analysée (nombre infini de valeurs) à une valeur binaire, prenant seulement deux valeurs +/-1. Cela permet d'économiser considérablement les ressources de calcul. Le réseau lui-même est entraîné par la méthode ORO et pour cela il génère une erreur définie sur la zone des nombres réels (non discrets), ainsi, paralocus, en donnant une entrée +/-1 vous obtiendrez en sortie une valeur comprise entre -1 et 1 avec un pas de 10^-8. Et seulement lorsque le réseau a terminé son apprentissage, vous devez utiliser le signe du mouvement prédit pour la prédiction, et son amplitude, sera proportionnelle à la probabilité de la prédiction correcte (l'amplitude est toujours positive). Cette probabilité peut être utilisée pour une analyse supplémentaire dans le bloc MM.

Tout l'avantage de NS par rapport à d'autres méthodes d'analyse BP est la possibilité de construction non analytique (non explicite) d'une surface multidimensionnelle dans l'espace des données d'entrée "très rares", auxquelles "attirent" les valeurs de la BP initiale (la première différence de kotir). Dans le cas de la représentation binaire, nous avons affaire à une hyper-surface, qui est dégénérée en un hyper-cube multidimensionnel. C'est comme un cristal, qui n'a pas de surface, mais il y a des nœuds de son réseau cristallin (au sens figuré), nous connaissons les coordonnées de ces nœuds à la minute près et nous n'avons pas besoin de dépenser nos ressources pour détecter la surface... Le réseau est inutile.