"New Neural" est un projet de moteur de réseau neuronal Open Source pour la plateforme MetaTrader 5. - page 94

 
Maxim Dmitrievsky:

De bons mots, Mikhalych.

Même Andrei lui-même, qui a eu l'idée du sujet, a admis qu'il disposait d'un simple réseau neuronal et de la génétique. C'est tout. Et les autres composants "secrets" se trouvent dans un autre domaine de compréhension.

dont le seul porteur est exclusivement vous et personne d'autre ?

 
Maxim Dmitrievsky:

Je veux dire ce que vous avez écrit "partagez vos connaissances" quelles connaissances ? Il y a beaucoup de livres et d'articles sur le MoD. Quelle autre connaissance pourrait-il y avoir ?

Je n'étais même pas là, je lisais juste de vieux messages, il y avait toutes sortes de privés, des scientifiques philosophes et quelqu'un d'autre...

Je vous ai prévenu que ce serait mal interprété. Le voici - ça n'a pas pris longtemps.

 
Dmitry Fedoseev:

dont le seul porteur est exclusivement vous et personne d'autre ?

Non, je ne suis porteur de rien, de plus, je suis stupide. C'est pourquoi il est si facile pour moi d'évaluer les informations sans porter de jugement.

 
Maxim Dmitrievsky:

Qu'est-ce que ça a à voir avec l'idole ? Il faisait simplement appel à la compréhension et à la discrétion. Il y a beaucoup d'intelligence là-dedans, car il est impossible pour un homme de trois sous d'écrire son propre programme ML séparé.

Et maintenant... il y a alglib. Il existe un réseau neuronal, une forêt et une régression. Avez-vous besoin d'autre chose ? Je suis d'accord, le réseau neuronal est un peu trop réfléchi. Mais la forêt va bien. C'est à débattre, mais personne n'en veut. C'est pourquoi personne ne sait comment l'utiliser.

Quoi ? Ce que Reshetov a fait, il faut un cerveau pour le faire ? Il suffit de ne pas avoir peur de se mettre dans l'embarras. C'est un sacré réseau... avec un coefficient adapté à l'optimiseur. Ça ne vous fait pas rire ?

Un réseau de neurones. C'est pour cela que j'écris que les experts ne sont pas là pour développer une méthode pratique d'application des réseaux neuronaux, qui pourrait être prise et utilisée pour n'importe quelle tâche en 5 minutes (et c'est possible). Quand on a commencé avec les réseaux neuronaux, il y avait une schizophrénie totale... L'un d'entre eux a demandé une interface graphique immédiatement, un autre voulait activer/désactiver des connexions de manière aléatoire, puis un clown est apparu avec un réseau d'échos - démonstration d'images amusantes... C'est le niveau auquel tout se passe.

Bois. Si quelqu'un avait écrit un article correct, tout le monde aurait compris et tout aurait évolué. Mais tout le monde ici est juste bon pour les ragots.

 
Maxim Dmitrievsky:

Non, je ne suis porteur de rien, de plus, je suis stupide. C'est pourquoi il m'est si facile d'évaluer les informations de manière détendue et impartiale.

Et vous n'avez pas besoin de comprendre quoi que ce soit, l'essentiel est d'avoir beaucoup d'esbroufe et de grandes images.

 
Dmitry Fedoseev:

Quoi ? Ce que Reshetov a fait, il faut un cerveau pour le faire ? Il suffit de ne pas avoir peur de se mettre dans l'embarras. C'est un sacré réseau... avec un coefficient adapté à l'optimiseur. Ça ne vous fait pas rire ?

Un réseau de neurones. C'est ce que j'écris, que les experts ne tirent pas ici pour développer une méthode pratique d'application de réseau neuronal, qui pourrait être prise et utilisée pour n'importe quelle tâche pendant 5 minutes (et c'est possible). Quand on a commencé avec les réseaux neuronaux, il y avait une schizophrénie totale... L'un d'entre eux a demandé une interface graphique immédiatement, un autre voulait activer/désactiver les connexions de manière aléatoire, puis un clown est apparu avec un réseau d'échos - a montré des images amusantes... C'est le niveau auquel ça se passe.

Bois. Si quelqu'un avait écrit un article correct, tout le monde aurait compris et tout aurait évolué. Mais tout le monde ici est juste bon pour les ragots.

Plus tard, il a écrit le studio elon jpredictor en java, 2 réseaux de neurones (mlp et svm, pour être plus précis) avec sélection automatique des caractéristiques.

Vous savez ce qui ne va pas avec le mien ? Entraînez-vous sur des données artificielles en 1 minute et obtenez des bénéfices illimités sur des données artificielles. Vous ne pouvez pas faire ça sur le marché réel, bien sûr. D'où l'idée que les travaux à venir vont au-delà de la compréhension des ML, mais portent sur la compréhension des modèles du marché.

Tu ne sais rien toi-même mais tu écris
 
Maxim Dmitrievsky:

Plus tard, il a écrit un jpredictor stand elon en java, avec 2 réseaux de neurones (mlp et svm, plus précisément) avec sélection automatique des caractéristiques.

Qu'est-ce qui ne va pas avec le mien ? Entraînez-le sur des données artificielles en 1 minute et obtenez des bénéfices illimités sur des données artificielles. Vous ne pouvez pas faire ça sur le marché réel, bien sûr. D'où l'idée que les travaux à venir vont au-delà de la compréhension des ML, mais portent sur la compréhension des modèles du marché.

Vous ne savez rien vous-même, mais vous écrivez

Je n'ai pas vu ce qu'il a écrit là, mais j'imagine voir le reste de son travail.

Lequel est le vôtre et où se trouve-t-il ? C'est celui qui passe par un tas de bibliothèques ? Je suis désolé, mais il est difficile d'y trouver un exemple, non pas que vous puissiez tout utiliser dans votre travail.

Oh, c'est le normal... Je l'ai déjà expliqué deux fois, et je l'explique pour la troisième fois - pour être appliqué facilement et rapidement afin de résoudre tout problème survenant lors de l'écriture d'un EA... ...afin de ne pas s'embarrasser du tout d'un algorithme de Conseiller Expert... et c'est possible. Il est cependant triste que certaines personnes ne puissent même pas en rêver.

***

Il y a beaucoup de choses que je ne sais pas, mais néanmoins, à l'époque, j'avais le code d'un perceptron multicouche universel entraîné par propagation d'erreurs à rebours. Et je ne m'embête pas avec les méthodes modernes de MO, car cela ressemble plus à une secte qu'à quelque chose de sérieux.

 
Dmitry Fedoseev:

Je n'ai pas vu ce qu'il y a écrit, mais j'imagine voir le reste de son travail.

Quel est le vôtre et où se trouve-t-il ? C'est celui qui passe par un tas de bibliothèques ? Désolé, mais il n'y a aucun moyen d'y trouver un exemple, non pas que vous puissiez utiliser tout cela dans votre travail.

Oh, c'est tellement normal... Je l'ai déjà expliqué deux fois, et je l'explique pour la troisième fois - pour être appliqué facilement et rapidement afin de résoudre tout problème survenant lors de l'écriture d'un EA... ...afin de ne pas s'embarrasser du tout d'un algorithme de Conseiller Expert... et c'est possible. Il est cependant triste que certaines personnes ne puissent même pas en rêver.

***

Il y a beaucoup de choses que je ne sais pas, mais néanmoins, à l'époque, j'avais le code d'un perceptron multicouche universel entraîné par propagation d'erreurs à rebours.

Son jpredictor a été discuté à plusieurs reprises dans le fil de discussion sur le MO. Bien sûr, personne ne parle du neurone dans mql.

Le mien n'a pas un tas de libs, juste une forêt d'alglib. Tout est très simple là-bas, il est impossible de penser à quelque chose de plus simple. Vous pouvez utiliser tous les indicateurs et les former presque instantanément. Donc, vous n'avez pas à vous en soucier du tout.

En outre, dans une bibliothèque séparée, il y a un exemple d'entraînement sur des données artificielles (fie Weierstrass), et il est clair que sur toute donnée avec des motifs (cycles périodiques), cette bibliothèque fonctionne comme un graal. Il n'existe pas de cycles de ce type sur le marché, et les trouver et les isoler est hors de portée de ML.

 
Qu'y a-t-il à dire ? Quand le concours d'algorithmes génétiques a été organisé, 90% du forum est devenu hystérique, comme si c'était possible, il s'est avéré que personne ne sait ce que c'est, sans parler d'avoir sa propre implémentation, ou au moins d'essayer d'en faire une... mais au moins combien tout le monde est fanfaron !
 
Maxim Dmitrievsky:

Dans le fil de discussion sur le MO, son jpredictor a été discuté à de nombreuses reprises. Bien sûr, personne ne parle du neurone qui est sur mql.

Le mien n'a pas un tas de librairies, juste une forêt d'alglib. Tout est très simple là-bas, il est impossible de penser à quelque chose de plus simple. Vous pouvez utiliser tous les indicateurs et les former presque instantanément. Donc, vous n'avez pas à vous en soucier du tout.

En outre, dans une bibliothèque séparée, il y a un exemple d'entraînement sur des données artificielles (fie Weierstrass), et il est clair que sur toute donnée avec des motifs (cycles périodiques), cette bibliothèque fonctionne comme un graal. Il n'existe pas de cycles de ce type sur le marché, et les trouver et les isoler est hors de portée de ML.

Voici donc la vraie question : pourquoi les gens ne l'utilisent-ils pas ? Peut-être qu'il y a un problème avec ça ? En termes de convivialité... la clarté des instructions... Je n'ai pas la moindre envie de demander, car je sais que tout sera tellement compliqué, que je ne saurai pas où mettre tout ça.