Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2741

 
mytarmailS #:
¿Qué tenemos que hacer para dejar de pelearnos y unirnos por un objetivo? ????????

¡gran pregunta!

---

tenemos que reconocer si hay más compradores o vendedores.

pero el único problema es que si el precio baja, habrá más compradores, ¡garantizado!

 
JeeyCi #:


caret link - mismo Entrenamiento de Clasificación y Regresión - como MO trivial, mismo sklearn para Python.


Lea con más cuidado, y no es necesario inventar cosas

 
mytarmailS #:
El script calcula la importancia de los predictores en una ventana deslizante utilizando dos algoritmos diferentes, el primero y otro... Tal y como pediste.

Forrest da la frecuencia de uso de los predictores en un algoritmo concreto, por lo que fácilmente da mucha importancia a los predictores que NO están relacionados con el objetivo.

 
СанСаныч Фоменко #:

Lee con más atención y no te inventes cosas.

No puedes leer con más atención si caret se escribe así.

 
СанСаныч Фоменко #:

Forrest da la frecuencia de uso de predictores en un algoritmo concreto, por lo que es fácil dar mucha importancia a predictores que NO están relacionados con el objetivo.

Repito: hay decenas de selectores de fichas ya hechos, y todo el mundo busca una relación con el objetivo, todo se ha inventado ya antes que nosotros, hace mucho tiempo.

 
СанСаныч Фоменко #:

Creo haber visto algunas pistas sobre la aplicación del análisis de supervivencia. ¿Hay algo interesante en este sentido? Tengo algunas ideas relacionadas con la sustitución del tiempo de ruptura por el valor del movimiento máximo del precio en la dirección deseada durante una operación antes de que se active el stop. La idea básica es buscar desviaciones de lo que debería ser el comportamiento para una oscilación aleatoria. En este campo, por cierto, también está muy desarrollada la aplicación de matstat (regresión de Cox, por ejemplo) y MO.

 
JeeyCi #:

... el tamaño de la ventana es también un tamaño de ventana flotante

ML no es una herramienta adecuada precisamente porque

El ML se enfrenta a distintos retos en el contexto de la RL, en el que los datos se generan mediante la interacción del modelo con el entorno utilizando una política (posiblemente aleatoria).

es decir, primero hay que modelar el entorno actual, y luego los fs en él y el comportamiento correspondiente allí, es decir, el actor debe tener un estado -- esta es la base para cambiar a una nueva ventana (aka teniendo en cuenta el tamaño de ventana flotante) y por lo tanto a una nueva política de entorno y el correspondiente/nuevo comportamiento del actor en él ... en general, probablemente sea más adecuado el Aprendizaje Profundo por Refuerzo, en el que

Para entrenar a un agente de negociación, necesitamos crear un entorno de mercado que proporcione información sobre precios y de otro tipo, ofrezca acciones relacionadas con la negociación y realice un seguimiento de la cartera para recompensar al agente en consecuencia.

Por ejemplo, existe la teoría de juegos (interacción del agente con el entorno) y la teoría de la información (tangencia de la información con las respuestas del agente y las reacciones del entorno, es decir, nuevas condiciones del entorno que se forman, también conocidas como consecuencias)... - Yo, por cierto, no entendi lo que SanSanych Fomenko queria decir con el termino teoria de la informacion . .. ¿o es que se ha vuelto a malinterpretar su tesis?

p.d. No he probado el ejemplo yo mismo....

machine-learning-for-trading/22_deep_reinforcement_learning at main · stefan-jansen/machine-learning-for-trading
machine-learning-for-trading/22_deep_reinforcement_learning at main · stefan-jansen/machine-learning-for-trading
  • stefan-jansen
  • github.com
Reinforcement Learning (RL) is a computational approach to goal-directed learning performed by an agent that interacts with a typically stochastic environment which the agent has incomplete information about. RL aims to automate how the agent makes decisions to achieve a long-term objective by learning the value of states and actions from a...
 
JeeyCi #:

No puedo tener más cuidado si caret es realmente lo que significa.

Dice classDist {caret}, es decir, especifica una función concreta que forma parte del PAQUETE caret

Según tengo entendido, no sabes R. Entonces, ¿por qué pierdes el tiempo en este hilo, y en MO en general?

Sin dominio de R, la discusión sobre MO no tiene sentido.

 
Aleksey Nikolayev #:

Creo que vi algunos indicios de una aplicación de análisis de supervivencia.

Yo no lo he hecho, pero una vez hice una pregunta similar. Este enfoque me parece prometedor, pero es de una esfera completamente diferente.

 
СанСаныч Фоменко #:

Dice classDist {caret}, es decir, especifica una función concreta que forma parte del PAQUETE caret

Según tengo entendido, no conoces R. Entonces, ¿por qué pierdes el tiempo en este hilo y en MO en general?

Sin dominio de R, la discusión sobre MO no tiene sentido.

Me mantuve en silencio acerca de la entropía sólo porque la entropía cruzada es una función de pérdida estándar para los modelos de clasificación.... MO se implementa no sólo en R! (conocer una biblioteca y no conocer la naturaleza de las entidades sobre las que opera - vas sin entender la dirección de tu movimiento).

a usted aún más difícil pregunta - ¿por qué categóricamente disociar de la estadística, cuando se declara acerca de la"teoría de la información" ... mientras que fue creado exactamente como un

El campo se encuentra en la intersección de las matemáticas , la estadística , la informática , la física , la neurobiología , la ingeniería de la información y la ingeniería eléctrica .

de hecho, la discusión no tiene tema, si usted opera en fragmentos y su ego (e incluso sobre alguien, no sólo sobre sí mismo), y no el tema del diálogo ... el hilo no cambia, por desgracia (la especificidad y el tema en las respuestas no se añade)