Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2019

 
Aleksey Vyazmikin:

También puede recibir un mensaje en persona.

Bueno, ahí tienes, paradoja situacional, no puedo entrar en el buzón) el sitio tiene un fallo. Si funciona, te escribiré a ti y a Maxim.

 
Maxim Dmitrievsky:

no es complicado, sólo hay que descubrirlo.

No necesitas nada de energía. Puedo aprender LSTM en mi portátil en unos minutos sin necesidad de tarjetas de vídeo. Lo del poder es un mito.

)), bueno... afirmación discutible.

... Обучение закончено...
 ============ Обучение заняло(миллисекунд): 26832. Эпох: 2693 ===========
 eta: 0.0100, alpha: 0.0050
 max_long_result: 0.9986, max_short_result: 0.9996
 min_long_result: 0.9979, min_short_result: 0.9950
La misma operación en MQL requiere 10 minutos o más. La velocidad podría aumentar si el host tuviera más núcleos en el procesador o los propios procesadores ))).
 
Farkhat Guzairov:

)), bueno... afirmación controvertida.

La misma operación con MQL requiere 10 minutos o más. La velocidad podría aumentar si el host tuviera más núcleos en la CPU o los propios procesadores)).

2700 épocas en 30 segundos es demasiado rápido

 
dr.mr.mom:

Bueno, ahí tienes, paradoja situacional, no puedo entrar en los buzones) la página web tiene fallos. Os escribiré a ti y a Maksim cuando se aclare.

Te escribí, ¿te llegó el mensaje?

 
Maxim Dmitrievsky:

2700 épocas en 30 segundos es demasiado rápido.

Los datos no son suficientes, el array tiene como 400 epochs de profundidad, pero si lo cargamos en historia profunda, hasta C++ con hilos se pone de mala leche )))), pero lo más triste es que al final no podemos conseguir un sistema bien entrenado, tengo un hito de 30000 epochs, deja de entrenar, pero entiendes que no es la mierda entrenada, por qué es así.... Creo que es por colisiones, es decir, como me parece que hay un conjunto de datos que en un caso dice que el modelo es corto y en el otro caso este mismo modelo aparece como largo, si es así es culpa mía, pero no tengo suficiente energía para tratarla ((. Por ello, simplemente he reducido el conjunto de datos de entrada para el entrenamiento.

 
Maxim Dmitrievsky:

hombre... no es complicado en el sentido de que puedas entender

Por lo general, un par de capas son suficientes, no se necesita mucha profundidad en forex

Es que arquitectónicamente hay redes más avanzadas para vr, más frescas que lstm. Podría ser rentable a partir de ahí, aún no lo he probado. Todos los "clásicos" como los boostings y los perseptrons no son adecuados para la RV en absoluto.

Si se necesitan más capas o no, sólo se puede juzgar por los resultados obtenidos, creo...

Qué otras redes hay, puedes nombrarlas - no soy muy bueno en variedades de redes en absoluto.

¿Puedo dejarle una muestra para una red de moda?

 
Farkhat Guzairov:

Los datos son pequeños, el array es como de 400 de profundidad, pero si lo cargo en deep history, hasta C++ con hilos se va a poner de mala leche )))), pero lo más triste es que al final no consigo un sistema bien entrenado, tengo 30000 hitos de epoch, deja de entrenar, pero entiendes que no es la mierda entrenada, por qué es así.... Creo que es por colisiones, es decir, como me parece que hay un conjunto de datos que en un caso dice que el modelo es corto y en el otro caso este mismo modelo aparece como largo, si es así es culpa mía, pero no tengo suficiente energía para tratarla ((. Por ello, simplemente reduje el conjunto de datos de entrada para el entrenamiento.

Por qué un número tan grande de épocas... normalmente 1000 o incluso 100 son suficientes para un ritmo de bucle dinámico.

 
Aleksey Vyazmikin:

Si se necesitan más capas o no, sólo se puede juzgar por los resultados obtenidos, creo...

Qué otras redes hay, puedes nombrarlas - no soy muy bueno en la variación de la red en absoluto.

¿Puedo enviarle una muestra para que la ejecute en una red de lujo de algún tipo?

Estoy aprendiendo sobre las redes neuronales. Ya he escrito aquí. Son nuevos convolucionales y transformadores, etc., que se utilizan sobre todo para el procesamiento del lenguaje y el sonido.

Los conjuntos de datos para ellos se preparan de una manera especial, los conjuntos de datos normales no funcionarán
 
Maxim Dmitrievsky:

Estoy aprendiendo sobre las redes neuronales. Ya he escrito aquí. Se trata de las nuevas convoluciones y transformadores, etc., que se utilizan sobre todo para el tratamiento del lenguaje y el sonido.

Tienen conjuntos de datos especiales, los normales no funcionan

Si sabes cómo prepararte, puedes hacerlo...

 
Maxim Dmitrievsky:

por qué un número tan grande de épocas... normalmente hasta 1000 o incluso 100, con una tasa de aprendizaje dinámica

El objetivo es obtener la máxima precisión para el entrenamiento, es decir, la precisión a 1. Dado que los pesos primarios se establecen aleatoriamente, a veces las épocas pueden ser inferiores a 1000.