L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 181

 
Vizard_:

Micha, encore ?))) hilarant... Je ne sais pas pour vous, mais nous partageons, régime, et déchiquetage))))


Magnifique. S'agit-il de graphiques sérieux ou de sarcasmes ? Partitionnement manuel de l'hyperespace ? Comment faire si les prédicteurs ne sont pas 2, mais 20 ?
 
Dr. Trader:
Magnifique. S'agit-il de graphiques sérieux ou de sarcasmes ? Une panne manuelle de l'hyperespace ?
Sarcasme avec un soupçon. Le dessin est fait à la main. Il n'y a aucun problème à le décomposer sur une machine comme celle-ci, ou une glacière. Tant que cela fonctionne à l'avenir...
 
Dr. Trader:
Magnifique. S'agit-il de graphiques sérieux ou de sarcasmes ? Partitionnement manuel de l'hyperespace ? Comment faire si les prédicteurs ne sont pas 2, mais 20 ?
L'essence est la même, rien ne change fondamentalement si les fiches sont quasi-orthogonales, sinon il est souhaitable de compresser la dimensionnalité, mais en général cela n'a pas d'importance, que ce soit 1 ou 3 ou 30, ce n'est qu'un processus de "masquage" de l'hyperespace, en cas de classification
 
Le SVM avec noyau montre de telles images. Il peut montrer n'importe quelle répartition sur la formation. Mais plus il est détaillé, plus les risques d'altération sont élevés.
 
Dr. Trader:
Magnifique. S'agit-il de graphiques sérieux ou de sarcasmes ? Partitionnement manuel de l'hyperespace ? Comment faire si les prédicteurs ne sont pas 2, mais 20 ?
Le cloisonnement de Raven, dessinera des images similaires.
 
L'essence est la même :
L'essence est la même, rien ne change fondamentalement si les fiches sont quasi-orthogonales, si non il est souhaitable de comprimer la dimensionnalité, mais en général cela n'a pas d'importance, que ce soit 1 ou 3 ou 30, il s'agit seulement d'un processus de "masquage" de l'hyperespace, dans le cas de la classification
Si la dimensionnalité est réduite d'un ordre de grandeur, la formation est beaucoup plus facile, et le bruit pendant la compression devrait diminuer, à mon avis.
 
sibirqk:
Si la dimensionnalité est réduite d'un ordre de grandeur, la formation est nettement plus facile, et le bruit de la compression devrait être réduit, à mon avis.

cela dépend de la tâche à accomplir....

Par exemple, lorsque vous avez besoin d'une précision d'entrée, comme c'était mon cas, j'entraînais l'algo pour les rebonds, puis avec une diminution de la dimensionnalité (j'ai fait "PCA") la vision de l'algo devient un peu floue et au lieu d'attraper le rebond, il commence à acheter sur les hauts et à vendre sur les bas.

 
sibirqk:
Si la dimensionnalité est diminuée d'un ordre de grandeur, la formation est beaucoup plus facile, et le bruit de compression devrait diminuer, à mon avis.

Bien sûr, mais ce n'est pas si simple ici, par exemple, le SVM est linéaire, avec tout ce que cela implique, mais une autre chose est la version du noyau préférée de tout le monde, mais pourquoi ? Il s'agit du "truc du noyau" qui ne fait rien d'autre que de projeter dans un espace beaucoup plus multidimensionnel, car e^(-||w-x||^k) est infini, pourquoi pensez-vous que les classificateurs à noyau les plus simples fonctionnent si bien ? Le tout est que les dimensions deviennent proportionnellement plus grandes que le nombre de sections en lesquelles l'échantillon a été divisé pour multiplier chaque noyau et, en fonction de la fonction noyau, jouer sur la taille du noyau pour le SVM à noyau et sa vitesse d'apprentissage et de calcul. La multidimensionnalité n'est pas toujours une mauvaise chose.

Dans notre cas, comme certains messieurs l'ont dit à juste titre, il s'agit de données et non d'outils d'apprentissage automatique. Les astuces de compression dimensionnelle, les extracteurs automatiques de données comme les réseaux convolutifs n'aideront pas si l'entrée n'est que du bruit multidimensionnel ou unidimensionnel :)

https://en.wikipedia.org/wiki/Renaissance_Technologies

L'entreprise est l'un des premiers pionniers de lanégociation quantitative, où les chercheurs exploitent des décennies de données diverses dans son vasteentrepôt de données à l'échelle du pétaoctet pour évaluer les probabilités statistiques de l'orientationdes prix sur un marché donné. Les experts attribuent à l'ampleur des données sur les événements périphériques aux phénomènes financiers et économiques que Renaissance prend en compte, ainsi qu'à la capacité de l'entreprise à manipuler d'énormes quantités de données en déployant des architectures technologiques hautement efficaces et évolutives pour le calcul et l'exécution, la raison de son succès constant à battre les marchés. [À bien des égards, Renaissance Technologies, ainsi que quelques autres entreprises, synthétisent quotidiennement des téraoctets de données et extraient des signaux d'information de pétaoctets de données depuis près de deux décennies, bien avant que lebig data et l'analyse de données ne frappent l'imagination de la technologie grand public.[20]

Depuis plus de vingt ans, lefonds spéculatif Renaissance Technologies de la société, qui intervient sur les marchés du monde entier, utilise des modèles mathématiques complexes pour analyser et exécuter les transactions, souvent de manière automatisée. La société utilise des modèles informatiques pour prévoir les changements de prix d'instruments financiers facilement négociables. Ces modèles sont basés sur l'analyse d'un maximum de données, puis sur la recherche de mouvements non aléatoires pour faire des prédictions. Certains attribuent également les performances de l'entreprise à l'utilisation de techniques detraitement des signaux financiers telles que la reconnaissance des formes.The Quants décrit l'embauche d'experts en reconnaissance vocale, dont beaucoup viennent d'IBM, y compris les dirigeants actuels de l'entreprise.

La question est de savoir comment un simple algotrader qui ne peut donner que 1-2k$/mois pour les données, peut survivre dans des monstres tels que Goldman, Renaissance et Tesa. Comment trouver les données les plus pertinentes, la partie émergée de l'iceberg de ce qu'utilisent les super géants.
 

La question est de savoir comment un simple algotrader qui ne peut consacrer plus de 1-2k$ par mois aux données peut survivre parmi des monstres tels que Goldman, Renaissance et Tesa. Comment trouver les données les plus pertinentes, la partie émergée de l'iceberg de ce qu'utilisent les super géants.

Puisque vous osez comparer des produits fabriqués par vous-même avec le travail de grandes organisations, il me semble que vous devriez renoncer à chercher des modèles graphiques ou des indicateurs quelconques et vous concentrer sur ce qu'ils font exactement.

il y a une solution intéressante mentionnée ici, https://www.mql5.com/ru/forum/96886/page2#comment_2866637.

Cependant, si vous recherchez des modèles dans la manière dont les grands acteurs déplacent leurs ordres, comment ils sont exécutés, comment le prix se comporte après un grand marché ou un iceberg, etc, Cela peut encore fonctionner sur la bourse de Moscou s'ils envoient un flux brut plutôt qu'un flux agrégé. Sur la bourse adjacente, il y a un an, ils ont introduit un flux agrégé en retour du cœur de la bourse. Sur les actions, il peut y avoir des difficultés parce qu'il y a trop d'ECNs et de darkpools.

Что можно выжать из ленты?
Что можно выжать из ленты?
  • www.mql5.com
Из ленты можно получить следующие исторические данные Изменения баланса/эквити маркетмейкеров и другой стороны. Открытый интерес...
 
........ survit parmi des monstres comme Goldman, Renaissance et Tesa. Comment trouver les données les plus pertinentes, la partie émergée de l'iceberg de ce que les super géants utilisent.

Peut-être qu'il faut rester simple ?

Essayez d'analyser la foule et vous-même aussi, et prévoyez les actions de la foule et agissez ensuite à l'inverse, parce que tous ces monstres comme Goldman, Renaissance et Teza, ont toujours besoin d'un contre-agent (pigeon) dans une transaction, dont il ouvrira la position et conduira ensuite le pigeon à son propre stop-loss, provoquant ainsi un afflux de liquidité dans l'autre direction et environ la même liquidité et fermera sa position, tandis que le pigeon perdra... C'est le marché tel qu'il est.Si vous trouvez la foule, vous trouverez les gros bonnets...

Il me semble même que la concurrence de ces monstres que sont Goldman, Renaissance et Tesa sur le marché se résume à celui qui versera le plus rapidement de l'argent au gogo.... Et il ne faut pas croire ces histoires sur les trillions de dollars de rotation du marché, les banques ont des trillions, et la foule a toujours de l'argent fini et la somme est beaucoup plus modeste, et elles (les banques) attendent chaque jour avec impatience de nouveaux paysans sur leur pays des merveilles, simulant l'activité, dans la tasse et dans le marché en général