Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1547

 
Maxim Dmitrievsky:

No sé, siempre es diferente.

Hmm, así que tal vez pensar en una manera de averiguar?

Por cierto, puedo construir un modelo en R utilizando sus datos - si usted está interesado en la comparación de la eficiencia de los métodos.
 
Aleksey Vyazmikin:

Hmm, ¿podemos pensar en una forma de averiguarlo?

Por cierto, puedo construir en el modelo R por sus datos - si usted está interesado en la comparación de la eficiencia de los métodos.

ya no se puede hacer nada mejor allí, el modelo es perfecto y confirma la naturaleza aleatoria de kotir

sólo se pueden hacer más mejoras con diferentes métodos de trabajo con procesos aleatorios, como escribí anteriormente

 
Maxim Dmitrievsky:

no se puede hacer nada mejor ahí, el modelo es perfecto y confirma la naturaleza aleatoria de kotir

Sólo se pueden hacer más mejoras con diferentes métodos de trabajo con procesos aleatorios, como escribí anteriormente

Las soluciones aleatorias para procesos aleatorios me parecen un método demasiado arriesgado en su ideología...

 
Maxim Dmitrievsky:

Vuelvo a hacer algo que quería hacer desde hace mucho tiempo - MO + stoh

http://www.turingfinance.com/random-walks-down-wall-street-stochastic-processes-in-python/

El tema es interesante - especialmente el modelo de salto de Merton o alguna variación del mismo. Parece que, a diferencia de la difusión convencional, no se reduce (por muestreo de tiempo) a la autoregresión, o se hace de alguna manera no trivial. Tal vez los cálculos en una ventana deslizante para una cartera sean bastante inasequibles.

 

El bosque aleatorio se ajusta a la historia sin posibilidad de ajuste. Exprimí todas las opciones de SL hace un año.

La regresión lineal tiene muchas más posibilidades de producir un beneficio. En la formación, hay que alimentar los precios relativos en lugar de los reales.

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

 
Roffild:

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

¿Qué configuración de rejilla le gusta?

 

¡El constructor es genial!

Por ejemplo, mucha gente utiliza sin pensar las "funciones de activación" incluso cuando no son necesarias. "Funciones de activación" = conversión de datos a un determinado rango de valores con pérdida parcial o total de información - es como una función hash para un archivo.

Si los datos de entrada ya están normalizados, las "funciones de activación" entre capas no son jodidamente necesarias. En Alglib no se puede eliminar la "función de activación".

Tengo todo un sistema de control de cambios en forma de Jenkins + MLFlow para enumerar variantes y almacenar resultados.

Ahora la configuración es así:

Sequential(
  (input): Linear(in_features=2836, out_features=1000, bias=True)
  (hidden1): Linear(in_features=1000, out_features=100, bias=True)
  (hidden2): Linear(in_features=100, out_features=2, bias=True)
  (output_activ): Softmax()
)

Por supuesto, no entendí inmediatamente cómo entrenar la red en la tarjeta de vídeo a expensas de la latencia de los datos. Ahora mi código está optimizado y aprende 100 veces más rápido que la versión original reduciendo la cantidad de datos que se cargan en la tarjeta de vídeo.

 
Roffild:

¡El constructor es genial!

Por ejemplo, mucha gente utiliza sin pensar las "funciones de activación" incluso cuando no son necesarias. "Funciones de activación" = conversión de datos a un determinado rango de valores con pérdida parcial o total de información - es como una función hash para un archivo.

Si los datos de entrada ya están normalizados, las "funciones de activación" entre capas no son jodidamente necesarias. En Alglib no se puede eliminar la "función de activación".

Tengo todo un sistema de control de cambios en forma de Jenkins + MLFlow para enumerar variantes y almacenar resultados.

Ahora la configuración es así:

Por supuesto, no entendí inmediatamente cómo entrenar la red en la tarjeta de vídeo a expensas de la latencia de los datos. Ahora mi código está optimizado y está aprendiendo 100 veces más rápido que la versión original, reduciendo la cantidad de datos que se cargan en la tarjeta de vídeo.

¿qué pasa con la capa recursiva? lstm o gru

 
Roffild:

¡El constructor es genial!

Por ejemplo, mucha gente utiliza sin pensar las "funciones de activación" incluso cuando no son necesarias. "Funciones de activación" = conversión de datos a un determinado rango de valores con pérdida parcial o total de información - es como una función hash para un archivo.

Si los datos de entrada ya están normalizados, las "funciones de activación" entre capas no son jodidamente necesarias. No se puede eliminar la "función de activación" en Alglib.

Tengo todo un sistema de control de cambios en forma de Jenkins + MLFlow para enumerar variantes y almacenar resultados.

Ahora la configuración es así:

Por supuesto, no entendí inmediatamente cómo entrenar la red en la tarjeta de vídeo a expensas de la latencia de los datos. Ahora mi código está optimizado y aprende 100 veces más rápido que la versión original reduciendo la cantidad de datos que se cargan en la tarjeta de vídeo.

La velocidad es genial, pero es secundaria.
¿Su SN predice con éxito hacia adelante? Si es así, sería interesante ver la señal o, al menos, los resultados de los probadores con avance.
 
Maxim Dmitrievsky:

¿qué pasa con la capa de recurrencia? lstm o gru

Podría añadir, pero ahora mismo quiero probar completamente mi variante. Sólo tengo que añadir una línea al código para cambiar la estructura de la red. No estamos traduciendo un texto, sino reconociendo un evento histórico.

https://pytorch.org/docs/stable/nn.html - elija cualquier capa que desee y añádala en una línea.

torch.nn¶
  • pytorch.org
class ¶ A kind of Tensor that is to be considered a module parameter. Parameters are subclasses, that have a very special property when used with s - when they’re assigned as Module attributes they are automatically added to the list of its parameters, and will appear e.g. in iterator. Assigning a Tensor doesn’t have such effect. This is...