¿Qué alimentar a la entrada de la red neuronal? Tus ideas... - página 33

 
Petros Shatakhtsyan #:

Si estás haciendo todo esto en el modo Every Tick, no te recomiendo continuar.

Sabes muy bien que en este modo los valores de los ticks se modelan (generan) según ciertas leyes.

Y cualquier Asesor Experto de clase media, a través de la optimización, será capaz de encontrar tales combinaciones de parámetros de entrada que usted puede obtener resultados poco realistas.

Y no tiene sentido gastar tiempo en esto.

¿Dijiste cuál es la reducción máxima de los fondos?

Hago pruebas con precios de apertura.





Esto es suficiente para un sistema que funciona sólo con velas cerradas. Como he mencionado anteriormente - No tengo ni idea de cómo trabajar con garrapatas reales, qué hacer con ellos. Reducción máxima de los fondos - Yo no miro a los números, miro a la línea verde del gráfico de informe. No es crítico allí.

 
Ivan Butko #:

Estoy probando a precios de apertura.





Esto es suficiente para un sistema que funciona sólo con velas cerradas. Como he mencionado anteriormente - No tengo ni idea de cómo trabajar con garrapatas reales, qué hacer con ellos. Reducción máxima en los fondos - No miro los números, miro la línea verde del gráfico de informes. No es crítico allí.

¿Cómo que no es crítico?

Es obvio que para 10 000 se utiliza un lote fijo, probablemente 0,01 y se obtiene una ganancia de menos del 10% durante 3 años.

Con tal lote ni siquiera tienes que usar un stop loss.

 
Petros Shatakhtsyan #:

¿Cómo que no es crítico?

Puedo ver que para 10.000 se utiliza un lote fijo, probablemente 0,01 y obtener una ganancia de menos del 10% durante 3 años.







¿Y por qué? Ahora se trata de poner en marcha la máquina para que dé una subida estable. Por subida estable me refiero o bien a un único entrenamiento (optimización), después del cual la red siempre funciona, o bien a un entrenamiento periódico adicional (optimización) después de un cierto periodo con una mayor capacidad de trabajo. Por el momento no se aplica ninguna de las dos direcciones.

Las cuestiones de las detracciones son secundarias.

Las detracciones, los riesgos, los lotes, la mani-gestión, todo esto es secundario. El coche aún no circula, no tiene sentido pulirlo.

 
Escher, por favor.
 
Un poco más y te darás cuenta de que las neuronas no son necesarias en absoluto).
 

¿esta red neuronal estampa noticias en las noticias?? apareció literalmente hace 3 días..... ¡¡¡Es que en zen, las noticias están en orden en la página principal, las fuentes son diferentes!!!



 
secret #:
Un poco más y te darás cuenta de que las neuronas no son necesarias en absoluto).





Hmmm. Audaz, seguro. Yo diría que la verdad está en algún lugar en el medio. Las neuronas pueden realizar una función, básicamente son - una gran función de este tipo.



Una función y dentro de ella pequeños functors, que también se multiplican y se suman. Al final, hay algún conjunto de pesos y hay alguna función de activación, que junto con las entradas correctas dará algo que funciona en todas las monedas y por un tiempo bastante largo. Todo esto es un razonamiento, por supuesto, pero dados los resultados anteriores en la rama - sí, a veces parece que también.




UPD Activación característica. Me ha estado molestando también. ¿Por qué la tangente?

¿Por qué una sigmoidea? ¿Por qué no una línea curva? Seno, coseno, un conjunto de exp(x) multiplicados entre sí, que al final dan todo tipo de garabatos en el gráfico de activación. Éstas son las reglas del juego.

Cuando la entrada es 0,7 y la salida es 0,8, y 0,7000001 - a continuación, la salida puede ser un salto brusco. Y tales extrañas funciones de activación complejas juntas crean infinitas reglas para la salida de la función.



Probé con sigmoide y tangente - resultados típicos, casi lo mismo. Pero tan pronto como creé un arco curvo multiplicandoexp(x) entre sí 150 veces, al optimizar la misma(!) arquitectura, las mismas(!) entradas - el optimizador empezó a sobreentrenarse. Es decir, a ajustar la operación al gráfico de precios muy, muy bien. Así pues, la modificación de la función de activación mejoró esencialmente las redes neuronales en la tarea de memorización de trayectorias.





Con los mismos datos iniciales. Es decir, jugar con la función de activación es otro campo infinito de posibilidades para el entrenamiento (optimización). Y ayer también se me ocurrió que de repente una red neuronal (una) no debería ser responsable de dos o más señales (compra, venta, espera, salida, etc.).

Tal vez para la salida necesitamos un NS separado, que no está conectado de ninguna manera con el NS que "entra". Lo mismo es la división en compra y venta.


U na NS para la compra, la segunda para el cierre de la compra, la tercera para la venta, la cuarta para el cierre de la venta. En general, voy a jugar un poco también.
 
Ivan Butko #:
Lo mismo ocurre con la división en compra y venta. Una NC para la compra, la segunda para la compra cercana, la tercera para la venta, la cuarta para la venta cercana.

No sé en forex, pero los mercados de valores suelen ser asimétricos para las subidas y bajadas, y sesgados, por lo que es bastante natural considerar la compra y la venta por separado.

Lo mismo es cierto para salir de una posición, pero aquí también es una buena idea considerar un trailing stop, es decir, estos son también algoritmos separados.

 
Ivan Butko #:



Negrita, por supuesto.

Me refiero a las redes neuronales en general)
 
secret #:
Me refiero a las redes neuronales en general).

Sin la influencia de las noticias (o FA, como prefiera cada cual), las redes neuronales funcionarían muy bien. Muy bien, de hecho).