L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3150

 
Maxim Dmitrievsky #:
Si vous y réfléchissez,

si vous avez lancé les cinq dernières bougies, bien sûr.

Et si vous y réfléchissez et essayez de couvrir tout ce qui peut affecter le prix, vous vous rendrez compte qu'il y a des milliards de signes, et que vous devez prendre en compte l'invariance, qui est des milliards de fois des milliards.

C'est pourquoi j'ai écrit ceci.

mytarmailS #:

Si vous pensez que quelque chose comme ça peut être fait par Forest ou Boost alors je vais vous décevoir, ils n'ont pas encore appris à introduire 10 milliards de caractéristiques dans des modèles de table....

donc tous les modèles prêts à l'emploi sont hors de question.

 
mytarmailS #:

Si vous servez les cinq dernières bougies, bien sûr.

Et si vous y réfléchissez et que vous essayez de couvrir tout ce qui peut influencer le prix, vous vous rendrez compte qu'il y a des milliards de signes, et que vous devez tenir compte de l'invariance, qui représente des milliards de fois des milliards.

C'est pourquoi j'ai écrit ceci.

Tous les modèles tout faits sont donc hors de question.

Je suis d'accord avec Max en général. La création de règles ou de conditions dans une fourchette de prix est limitée aux comparaisons, à la logique et au calendrier. Le général est donc bien là))))

 
mytarmailS #:

Si vous servez les cinq dernières bougies, bien sûr.

Et si vous y réfléchissez et que vous essayez de couvrir tout ce qui peut influencer le prix, vous vous rendrez compte qu'il y a des milliards de signes, et que vous devez tenir compte de l'invariance, qui représente des milliards de fois des milliards.

C'est pourquoi j'ai écrit ceci.

Tous les modèles tout faits sont donc hors de question.

C'est absurde.

L'intérêt des mathématiques est de remplacer la diversité du monde qui nous entoure par un minimum de formules permettant de calculer cette diversité.

Vous avez décrit ou tenté de décrire la chute de tout et de tous sur Terre, et Newton a dérivé une formule pour la gravité terrestre de tout objet tombant sur Terre.

J'ai dans RF des arbres issus d'une dérivation de cotir non stationnaire qui, dans 80 % des cas ou plus, prédisent correctement l'avenir. Il n'y a pas plus de 150 arbres de ce type lorsque l'on déplace la fenêtre à 15 000 bars (je n'ai pas essayé plus), l'erreur de classification ne change pas. Vous pouvez prendre un risque et utiliser un minimum de 70 arbres : l'erreur est de quelques pour cent plus élevée. C'est tout ce que vos milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de milliards de dollars.

 
СанСаныч Фоменко #:

J'ai des arbres RF à partir d'une dérivation d'un quotient non stationnaire qui prédit correctement l'avenir dans 80 % des cas ou plus.



Et je gagne 1 million par heure et j'ai 50 cm, et en général je suis le président de la planète.

Mais je ne vais pas montrer et prouver quoi que ce soit à qui que ce soit, tout comme d'autres blabbermouths ici.....

 
mytarmailS #:

Si vous servez les cinq dernières bougies, bien sûr.

Et si vous y réfléchissez et que vous essayez de couvrir tout ce qui peut influencer le prix, vous vous rendrez compte qu'il y a des milliards de signes, et que vous devez tenir compte de l'invariance, qui représente des milliards de fois des milliards.

C'est pourquoi j'ai écrit ceci.

Tous les modèles tout faits sont donc hors de question.

Il est temps de demander un quota pour l'informatique quantique ) Ils semblent résoudre rapidement les opérations matricielles

 
Maxim Dmitrievsky #:

Il est temps de demander un quota pour l'informatique quantique ) Ils semblent résoudre rapidement les opérations matricielles.

Je cherche des règles à travers des algorithmes de règles associatives, les opérations matricielles ne m'aideront pas((.

J'ai besoin de téraoctets de mémoire vive, et peut-être d'un processeur.

 
mytarmailS réduire la dimensionnalité. (essentiellement en adaptant un algorithme de compression bien connu)

J'ai commencé l'algorithme de recherche de règles (le plus efficace qui soit), il n'a pas compris, il s'est bloqué)).

J'ai dû réduire la dimensionnalité de 100 fois.


C'est alors qu'il a commencé à trouver quelque chose...


Voici à quoi ressemble un modèle ou une règle dans ma langue...

Une seule règle, messieurs.

Si vous pensez que quelque chose comme ça peut être fait par Forest ou Boost, je vais vous décevoir, ils n'ont pas encore appris à introduire 10 milliards de caractéristiques dans des modèles de table....

Juste une putain de règle.

Il faut des supercalculateurs pour ce genre de choses.

Et si vous avez besoin d'un entraînement multiple ? Par exemple, pour optimiser certains métaparamètres. Un super-réseau de superordinateurs serait alors nécessaire.)

 
Aleksey Nikolayev #:

Que se passe-t-il si une formation multiple est nécessaire ? Par exemple, pour optimiser certains métaparamètres. Nous aurions alors besoin d'un super-réseau de superordinateurs).

Tout d'abord, il ne s'agit pas d'apprentissage, mais de recherche de règles.
Si les règles sont trouvées, quel est l'intérêt de rechercher à nouveau les mêmes règles dans les mêmes données ?

Deuxièmement, on peut toujours faire ce que l'on a fait auparavant en espérant un résultat différent
 
mytarmailS #:
Tout d'abord, il ne s'agit pas d'apprentissage, mais de recherche de règles.
Si les règles sont trouvées, quel est l'intérêt de rechercher à nouveau les mêmes règles dans les mêmes données ?

Deuxièmement, vous pouvez toujours faire ce que vous avez fait auparavant en espérant un résultat différent

Il existe toujours des métaparamètres qui affectent le résultat. La taille de la fenêtre d'historique, par exemple, et tout le reste. La pire chose que l'on puisse faire avec les métaparamètres est d'ignorer leur existence, en prenant simplement leur valeur au plafond.

Je me souviens de la déclaration de fxsaber selon laquelle il est parfois utile de traiter toute constante de l'algorithme TS comme un paramètre d'optimisation.

 
Aleksey Nikolayev #:

Il y a toujours des métaparamètres qui affectent le résultat. La taille de la fenêtre d'historique, par exemple, et tout le reste. La pire chose à faire avec les métaparamètres est d'ignorer leur existence, en prenant simplement leur valeur au plafond.

Je me souviens de la déclaration de fxsaber selon laquelle il est parfois utile de traiter toute constante de l'algorithme TS comme un paramètre d'optimisation.

la taille de la fenêtre d'historique est simplement une limitation importante pour les modes opératoires classiques avec des données tabulaires.

Les AC (règles asoc.) ne souffrent pas d'une telle maladie, ils digèrent parfaitement les données non structurées, de plus, chaque observation peut être de taille arbitraire.

Et la "fenêtre de vision" (fenêtre historique) ne peut être limitée que par le pouvoir de déduction ou le bon sens.


Donc votre exemple avec la taille de la fenêtre historique est juste un vote pour AC et contre MO.



Donnez-moi d'autres arguments, je suis intéressé, peut-être que je n'ai vraiment pas pris en compte quelque chose. Et une autre question, quel est votre degré d'intérêt pour le sujet de l'AC ?


==========================================================================

Créons une petite maquette (modèle) des données avec cinq observations.

[[1]]
 [1] "A"    "B"    "."    "."    "."    "."    "C"    "."    "."    "."    "."    "."    "SELL"

[[2]]
 [1] "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "A"    "."    "."    "B"    "."    "."    "."    "C"    "."    "."   
[21] "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "SELL"

[[3]]
 [1] "."    "."    "."    "."    "."    "."    "."    "."    "."    "A"    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."   
[21] "B"    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."   
[41] "."    "SELL"

[[4]]
 [1] "."    "."    "."    "."    "A"    "."    "."    "."    "B"    "."    "."    "."    "."    "."    "C"    "SELL"

[[5]]
 [1] "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."   
[21] "."    "."    "."    "."    "A"    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "."    "B"    "."    "."    "."   
[41] "C"    "."    "."    "."    "."    "SELL"

Observations - une observation est un jour de m5 citations.

Notons"." comme un bruit dans les observations (certains événements qui ne nous intéressent pas).

"A" " B " "C " ---> "SELL" Voici la séquence d'événements qui a abouti à l'objectif "SELL".


Tout ce que vous alimentez, ce sont les 5 dernières bougies du MO et l'objectif.

Comme ceci :

Tout cela pour que les données soient présentées sous forme de tableau.

Comment AMO va-t-il trouver un modèle à partir de l'exemple ?



L'orateur prend toutes les observations en entrée, et les observations peuvent être de tailles différentes (comme dans l'exemple).

Il élimine le bruit en sélectionnant les règles et donne un modèle sous la forme d'une règle = "A" "B" "C" mène à "CELL".

Il transforme les déchets non structurés en modèles.