L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 888

 
Aleksey Vyazmikin:

Je ne prendrai donc que ceux qui ont un support et une fiabilité élevés. Voici comment je vois le travail - je génère des prédicteurs dans l'indicateur en temps réel et sur l'historique, je les ajoute dans une chaîne, et ensuite cette chaîne est recherchée dans le tableau, si elle est trouvée, alors nous marquons la barre comme favorable pour entrer, et sinon, nous ne faisons rien. Par conséquent, les cordes doublées ne feront qu'augmenter le tableau. Bien sûr, on peut faire une gradation par couleur, avec des informations sur la fiabilité et le support (en multipliant l'un par l'autre on obtient le coefficient, qui changera de couleur en fonction de la valeur), mais pour cela il est plus simple de faire un tableau séparé de type int avec index. Ou peut-être que je ne comprends pas quelque chose.....

Théoriquement, si NS alimente toutes les chaînes sans les trier, il devrait les trouver et augmenter leur importance. Mais vous pouvez bien sûr le faire vous-même, comme vous l'avez décrit. En même temps, il est intéressant de comparer - ce qui est mieux.

Bien qu'il y ait des exemples de cordes de bruit dans les articles.
 
Aliosha:

Je suis d'accord, Python est le meilleur GPU pour les HFT, ce sont eux qui ont une erreur négative, je l'ai mentionné plus haut, ils y font aussi des recherches sur l'intrication quantique pour transmettre le signal plus vite que la lumière, il y a des bibliothèques en Python aussi, dans le darknet.

vous n'avez pas besoin de dire des bêtises à nouveau, cela montre votre niveau

 
Aliosha:

Je plaisante avec quelques 90% d'ahtungs, ne le prenez pas au sérieux, python est un langage d'étudiant, pour essayer rapidement un tas de bibelots et dessiner des graphiques, par exemple pour renforcer le cours de Vorontsov, et la "recherche" est seulement pour les étudiants diplômés ou quelque chose de loin de la réalité, Dans les entreprises sérieuses, tous les outils sont écrits en C++, plus de la moitié des algorithmes sont des exclusivités ou des modifications bien connues, les problèmes sont très spécifiques et hautement spécialisés, qui ne nécessitent pas de faire tourner les paramètres de 100500 bibliothèques, donc Python est présent à l'état de traces.

Aleshenka, va plus loin dans la maîtrise de MO, sur l'api C++ et Cython et la migration des modèles et des modules individuels et le déploiement sur les serveurs après la recherche/formation n'as-tu pas entendu ?

Et sans une erreur négative en essayant de prédire les retours ne reviennent pas. Vous devenez très frustré - il y a trop d'arrogance et trop peu d'informations utiles.

 
elibrarius:

Théoriquement, si NS récupère toutes les chaînes sans celles qui sont préalablement invalides, il devrait les trouver et augmenter leur importance. Mais vous pouvez bien sûr le faire vous-même, comme vous l'avez décrit. En même temps, il est intéressant de comparer ce qui est mieux.

Bien qu'il y ait des exemples dans les articles avec le filtrage des chaînes bruyantes.

En général, je ne comprends pas bien comment organiser la SN si elle prend des données de l'histoire, théoriquement de n'importe quel point... Mais avec un arbre/forêt, tout est plus facile, ils n'analysent pas l'historique, donc ils doivent entrer un nombre limité de variables, et les résultats de sortie sont déjà connus, et je les ai écrits dans un tableau ; après la formation, l'arbre ne peut pas créer quelque chose de nouveau, mais le réseau neuronal peut réagir aux nouvelles données de différentes manières, Puisqu'il entre des poids (coefficients) et qu'ils sont constants pour chaque neurone, mais si j'ai 10 neurones ou plus, et pour chaque caractéristique un coefficient différent, alors quelque chose s'avère être beaucoup de choix - le réseau ne peut évidemment pas s'entraîner par toutes les variantes, donc il peut avoir des surprises différentes, ou je ne comprends pas quelque chose.

Et j'ai créé un indicateur, mais l'énumération des tableaux n'est pas très rapide et le code lui-même est très lent - j'ai besoin d'une optimisation.

 
Aleksey Vyazmikin:

En général, je ne comprends pas bien comment organiser la SN si elle prend des données de l'histoire, théoriquement de n'importe quel point... Mais avec un arbre/forêt, tout est plus facile, ils n'analysent pas l'historique, donc ils doivent entrer un nombre limité de variables, et les résultats de sortie sont déjà connus, et je les ai écrits dans un tableau ; après la formation, l'arbre ne peut pas créer quelque chose de nouveau, mais le réseau neuronal peut réagir aux nouvelles données de différentes manières, Puisqu'il entre des poids (coefficients) et qu'ils sont constants pour chaque neurone, mais si j'ai 10 neurones ou plus, et pour chaque caractéristique un coefficient différent, alors quelque chose se révèle être beaucoup de choix - le réseau ne peut évidemment pas s'entraîner par toutes les variantes, donc il peut avoir des surprises différentes, ou je ne comprends pas quelque chose.

J'ai créé un indicateur mais la recherche dans le tableau n'est pas très rapide et le code lui-même est très lent - j'ai besoin d'une optimisation.

Le NS utilise le même tableau avec les données, aucune différence avec la forêt. Les algorithmes sont juste différents à l'intérieur.

 
elibrarius:

La même table de données est alimentée au NS - aucune différence avec la forêt. Les algorithmes sont juste différents à l'intérieur.

Alors pourquoi le SN regarderait-il l'historique pendant la formation s'il ne l'utilise pas pendant les opérations ?

 
Aliosha:

Je n'en ai pas entendu parler bien sûr, qu'est-ce que j'en ai à faire de vous, maintenant je saurai que le truc le plus cool n'est pas une api python aux bibles c mais l'inverse, api c++ à python, avec déploiement sur les serveurs. continuez à brûler))))

Le mercure dans le thermomètre de ton sarcasme s'est rétréci en une bulle et vient d'exploser, ou s'est tellement dilaté qu'il a explosé à cause de la stupidité excessive et de la bave, peu importe.

api aux frameworks dans différents langages, dont python et ++.

ou c'est juste triste ?

 
Aliosha:

Pas question ! Monvagabondage aléatoire est une prédiction aussi abrupte que le forex ! 90% acurasi si sans recyclage, et 100% avec recyclage.

Whoo ! Les autochtones semblent commencer à comprendre que le surentraînement n'est non seulement pas une fatalité, mais, dans de nombreux cas, même le meilleur).

 
Maxim Dmitrievsky:

voici un terrible overfit, mais toujours échangeable dans la première moitié des oos :) Je pourrais faire encore pire, mais ça ne sert à rien. L'argent se trouve quelque part au milieu entre les sur et les sous-fits.

L'argent est partout, sauf en dessous. C'est seulement une question d'application.

 
Aleksey Vyazmikin:

Alors pourquoi le SN examinerait-il l'historique de la formation s'il ne l'utilise pas dans son travail ?

Pendant l'apprentissage, il obtient des poids et des décalages pour les neurones, et en fonction de ceux-ci, il calcule la sortie sur de nouvelles données.