L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1604

 
Jette-le.
 
Dmitry:

Ah, nous parlons donc de la différence de performance du réseau en formation et au test ?

Il y aura forcément une perte - il n'y a pas moyen de l'éviter.

Il y a deux tests, interne, lorsqu'une partie de l'ensemble de données est sélectionnée pour être vérifiée, généralement 0,2 et externe, lorsqu'on prend juste un morceau que le neuro n'a pas vu. Les résultats de la seconde sont le marché réel, si ce n'est pas le cas, cela signifie qu'il y a une erreur quelque part.
 
Evgeny Dyuka:
Il y a deux tests, interne quand une partie de l'ensemble de données est sélectionnée pour la validation, généralement 0,2 et externe quand on prend juste un morceau que le neuro n'a pas vu. Le résultat de la seconde est un marché réel, si ce n'est pas le cas, il y a une erreur quelque part.

Je dois vous décevoir, mais en fait, votre "test pour tester" fait partie d'un échantillon à enseigner.

 
Dimitri:
Crachez-le.
Je ne le ferai pas. Je suis prêt à sauver quelqu'un qui se tape actuellement la tête contre le mur en essayant de résoudre un problème particulier. Je suis passé par là, et les informations que je vais vous donner pourraient vous éviter un mois d'errance dans le noir.
 
Evgeny Dyuka:
Je ne le ferai pas. Prêt à sauver quelqu'un qui se tape maintenant la tête contre le mur en essayant de résoudre un autre problème spécifique. Je l'ai parcouru, les informations que je donne peuvent sauver un mois d'errance dans le noir.

Très bien, répandez votre "info".

 
Dimitri:

Très bien, répandez votre "info".

Une simple spéculation pour le public est dans le canal télégramme, vous pouvez retracer l'histoire du travail là. Je voudrais ici être précis.
 
Evgeny Dyuka:
Il n'y a que des spéculations pour le public dans le canal Telegram, vous pouvez y retracer l'historique des travaux. Ici, je voudrais être substantif.

OK, crache le morceau.

 

Jusqu'à présent, il fonctionne très rapidement. Je vais le connecter à la base de données, je verrai plus tard.

 
Evgeny Dyuka:
Il y a deux tests, interne quand une partie de l'ensemble de données est vérifiée, généralement 0,2 et externe quand juste une partie est prise que le neuro n'a pas vu. Le résultat de la seconde est le marché réel, si ce n'est pas le cas, il y a une erreur.

Eugène Bon après-midi, merci beaucoup, au moins pour le fait que vous êtes un praticien et non un autre rubbishman dont il existe 95%..... Ce que vous faites(test sur le "troisième" échantillon) en termes de GMDH est appelé "critère de puissance prédictive"http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%93%D0%A3%D0%90#.D0.9A.D1.80.D0.B8.D1.82.D0.B5.D1.80.D0.B8.D0.B9_absolute_noise-immune.

Rappelons que les premières publications sur le GMDH datent de 1960 - l'idée de "votre savoir-faire" avec le testsur le "troisième" échantillon a déjà 60 ans)))).

Mais je tiens à noter que l'approche ne vieillit jamais, aussi je recommande vivement la lecture des travauxde A.G. Ivakhnenko...

Par exemple, la régression MSUA se moque de la régression de l'algorithme moderne de forêt aléatoire et de toutes sortes de boostings...


Maintenant, à propos des liens sur le télégramme... Je n'y ai trouvé que des signaux mais il est intéressant de lire votre approche et votre façon de penser, Dmitry dit à juste titre qu'il faut publier ici, bien que sous une forme ouvertement rustre...

Метод группового учёта аргументов
  • www.machinelearning.ru
Метод группового учета аргументов, МГУА (Group Method of Data Handling, GMDH) — метод порождения и выбора регрессионных моделей оптимальной сложности. Под сложностью модели в МГУА понимается число параметров. Для порождения используется [базовая модель], подмножество элементов которой должно входить в искомую модель. Для выбора моделей...
 
mytarmailS:

Eugène Bon après-midi, merci beaucoup, au moins pour le fait que vous êtes un praticien et non un autre rubbishman dont il existe 95%..... Ce que vous faites(test sur le "troisième" échantillon) en termes de GMDH est appelé "critère de puissance prédictive"http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%93%D0%A3%D0%90#.D0.9A.D1.80.D0.B8.D1.82.D0.B5.D1.80.D0.B8.D0.B9_absolute_noise-immune.

Rappelons que les premières publications sur le GMDH ont commencé quelque part dans les années 1960 ; l'idée de "votre savoir-faire" avec le testsur le "troisième" échantillon a déjà 60 ans)))).

Mais je tiens à noter que l'approche ne vieillit jamais, aussi je recommande vivement la lecture des travauxde A.G. Ivakhnenko...

Par exemple, la régression MSUA se moque de la régression de l'algorithme moderne de forêt aléatoire et de toutes sortes de boostings...


Maintenant, à propos des liens sur Telegram... Je n'y ai rien trouvé à part des signaux, mais il est intéressant de lire votre approche et votre façon de penser, Dmitry dit à juste titre qu'il faut publier ici, bien que sous une forme ouvertement rustre...

JPrediction utilise la méthode d'argumentation de groupe d'Ivakhnenko. Reshetov Yu. l'a mentionné plus d'une fois... La méthode en elle-même est peu coûteuse en termes d'heures de travail, car elle permet d'analyser les données de manière approfondie et ne nécessite pas de grands échantillons pour s'adapter aux réalités actuelles.

Ceux qui ne me croient pas, qu'ils vérifient :-)