Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 335

 
Азбука ИИ: «Рекуррентные нейросети»
Азбука ИИ: «Рекуррентные нейросети»
  • 2016.11.04
  • Тарас Молотилин
  • nplus1.ru
N+1 совместно с МФТИ продолжает знакомить читателя с наиболее яркими аспектами современных исследований в области искусственного интеллекта. В прошлый раз мы писали об общих принципах машинного обучения и конкретно о методе обратного распространения ошибки для обучения нейросетей. Сегодня наш собеседник — Валентин Малых, младший научный...
 

¿Las cosas mejoraron después de aplicar la red de arrastre?

¿Tal vez habría que ajustar la condición de cierre del trato, porque el arrastre es una salida demasiado fácil, sin intentar solucionar las cosas?

Para un autómata, el cierre del trato está relacionado con alguna condición.

En lo real, las paradas estropearán los nervios...

 
Renat Akhtyamov:

¿Las cosas mejoraron después de aplicar la red de arrastre?

¿Tal vez habría que ajustar la condición de cierre del trato, porque el arrastre es una salida demasiado fácil, sin intentar solucionar las cosas?

Para un autómata, el cierre de una operación está asociado a una condición.

En lo real, las paradas estropearán los nervios...

¿Por qué? La pesca de arrastre es una gran cosa. Siempre utilizo el arrastre adaptativo, incluso si trabajo con las manos, por lo que no me molesto con todas las ofertas inmediatamente después de la apertura.
 
Renat Akhtyamov:

¿Las cosas mejoraron después de aplicar la red de arrastre?

¿Tal vez habría que ajustar la condición de cierre del trato, porque el arrastre es una salida demasiado fácil, sin intentar solucionar las cosas?

Para un autómata, el cierre de una operación está asociado a una condición.

En lo real, las paradas estropearán los nervios...


No sé, tal vez los parámetros estén mal. .. Más adelante, pondré la versión actualizada en el seguimiento con un riesgo normal

Me gustaría añadir más entradas, voy a añadir 3 ahora y 5 pronto.

 

Comenzó a entrenar una red neuronal. La tarea planificada aún no está en marcha. Dice que los datos no están en el formato. Todavía no entiendo lo que quiere(.

Pero aquí hay un ejemplo para la red [3,4,1].

//Ожидаемый отклик НС
t  = 0.3    1.    0.    0.    0.5 
//Реальный отклик обученной НС
ans  = 0.3223616    0.9315578    0.1047166    0.0809235    0.4536240  

Parece que está bien.

 
Yuriy Asaulenko:

Comenzó a entrenar una red neuronal. La tarea planificada aún no está en marcha. Dice que los datos no están en el formato. Todavía no entiendo lo que quiere(.

Pero aquí hay un ejemplo para la red [3,4,1].

Parece que está bien.


El tensorflow de Google también tiene buena pinta, pero no es muy práctico con la instalación y python
 
Maxim Dmitrievsky:

El tensorflow de Google también tiene buena pinta, pero no es muy cómodo con la instalación y python

Esto es SciLab neuronics. Ahora la tarea principal de repente (inesperadamente)) comenzó a aprender. Al parecer, me he equivocado en alguna parte).

En general, dicen que hay muchas neuronas en Internet y en C++. Pero no los he buscado.

 
Yuriy Asaulenko:

Esto es SciLab neuronics. Ahora la tarea principal de repente (inesperadamente)) comenzó a aprender. Al parecer, me he equivocado en alguna parte).

En general, dicen que hay muchas neuronas en Internet y en C++. Pero no los busqué.


Los tengo por todas partes, ahora hay un verdadero boom neuronal).
 

Un experimento para entrenar una red neuronal (NS) para cruzar dos MAs fracasó. Fue entrenado para reconocer sólo el cruce ascendente.

Para el experimento se seleccionó y probó el NS - 3,3,3,1 para el entrenamiento y el reconocimiento de patrones creados artificialmente. Sin embargo, después de aprender a reconocer los MA, no se reconoció ni un solo cruce. La razón - el NS necesita más imágenes de contraste, y no se preocupa por todas las diferencias de 0,01-0,1 entre las entradas.

Para una estructura determinada del NS es bastante posible obtener un reconocimiento fiable cuando la diferencia de señales no es inferior a 0,2-0,3.

 

Estoy empezando a explorar las redes neuronales.

Estoy buscando opciones que se puedan implementar directamente en MT5.

Estoy interesado en la variante que utiliza ALGLIB (https://www.mql5.com/ru/articles/2279), pero de la descripción de la red se deduce que es una red secuencial sin retroalimentación. Y la desventaja es que sólo puede ser entrenado por un hilo de procesador (que procesa el Asesor Experto con una red neuronal).

Creo que no sería muy difícil añadir 2 capas secuenciales ocultas a la red neuronal del artículo https://www.mql5.com/ru/articles/497 y luego entrenarla por fuerza bruta o genéticamente en el probador. Pero en este caso puedes utilizar muchos más hilos de cálculo (núcleos de tu procesador, en la red y en la nube). ¿Lo he entendido bien?

¿Cómo añadir instrucciones manuales para las respuestas correctas (lugares de compra y venta) en el entrenamiento de una red de este tipo?

¿Quizá ya existe una biblioteca para redes secuenciales multicapa en algún lugar?

Además, no entiendo muy bien la utilidad de utilizar capas internas, para fines de negociación en el mercado de divisas/bolsa. ¿Tiene sentido añadirlos? ¿Por qué?

Нейросеть: Самооптимизирующийся советник
Нейросеть: Самооптимизирующийся советник
  • 2016.10.03
  • Jose Miguel Soriano
  • www.mql5.com
Возможно ли создать советник, который согласно командам кода автоматически оптимизировал бы критерии открытия и закрытия позиций с определенной периодичностью? Что произойдет, если реализовать в советнике нейросеть (многослойный персептрон), которая, будучи модулем, анализировала бы историю и оценивала стратегию? Можно дать коду команду на ежемесячную (еженедельную, ежедневную или ежечасную) оптимизацию нейросети с последующим продолжением работы. Таким образом возможно создать самооптимизирующийся советник.