Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 598

Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
1) ¿Cómo van las cosas en la formación? No veo cómo se aplican los pesos.
2) ¿Están disponibles los pesos de la propia neurona?
3) Como medio, puede tomar la derivada del cierre o MA rápida del orden 1-4. O incrementos.
4) Yo pondría el tamaño de la capa oculta igual a la entrada.
los pesos suben a los sumadores, todo es clásico, entonces el peso se alimenta a la función de activación. era simplemente inconveniente para firmar todo en el panel táctil
como "entorno" - aquí suponemos una acción ya realizada por la SN externamente, por ejemplo, una transacción... es decir, la memoria del sistema para n acciones hacia atrás; lo mismo ocurre con la retroalimentación - qué acción llevó a qué resultado
así que haré una capa interna igual a la de entrada... y quizás añada otra más tarde
Sólo perderá su tiempo. No funcionará con datos reales.
Por ejemplo: una respuesta errónea de NS, y afectará a todas las siguientes.
Bueno, en realidad no, sólo ns tendrá en cuenta la serialidad y la eficacia de las transacciones como un factor adicional... esto es sólo una opción, no estoy diciendo que sea definitivo
Por eso pido otras ideas.
+ es un elemento adaptativo incrustado... como un transistor
y la NS principal tiene otras fi
los pesos suben a los sumadores, todo es clásico, entonces el peso se alimenta a la función de activación. era simplemente inconveniente para firmar todo en el panel táctil
como "entorno" - aquí suponemos una acción ya realizada por la SN externamente, por ejemplo, una transacción... es decir, la memoria del sistema para n acciones hacia atrás; lo mismo ocurre con la retroalimentación - qué acción llevó a qué resultado
así que pondré una capa interna igual a la de entrada... y puede que añada otra más tarde
Pero aquí la sutileza es que en este caso debemos pensar en añadir la función Q, porque debe considerarse como una recompensa. O derivar una fórmula de aprendizaje teniendo en cuenta la recompensa.
Entonces qué tal la suma de ganancias en pips. Un comercio exitoso -> aumento, y viceversa.
Pero aquí el problema es que en este caso debemos pensar en añadir la función Q, porque debe considerarse como una recompensa. O derivar una fórmula de aprendizaje pensando en la recompensa.
Sí, vale :) buena opción.
Hasta ahora la fórmula es simple - neuronas separadas, a las que se alimentan los resultados de las operaciones pasadas, ni siquiera neuronas, sino que simplemente se añaden valores al combinador. Todavía no he leído sobre los enfriamientos
Sí, vale :) buena opción.
Hasta ahora la fórmula es simple - neuronas separadas, a las que se alimentan los resultados pasados del comercio, ni siquiera neuronas, sino que simplemente se añaden valores al sumador. Todavía no he leído sobre los enfriamientos
Se crean dos NS idénticas, se enseña a una por medio de imágenes tradicionales y a la otra por transferencia directa de escalas, dosificadas según el resultado de la predicción de la primera, es decir, la segunda debe aprender sólo de la experiencia positiva.
Existe una variante de este tipo, primero se entrenan varias NS en diferentes periodos, luego se combinan en una sola... ajuste sofisticado :)
Me gustaría que entendiera cuando empieza a funcionar de forma demasiado inestable y que se reorganizara
Existe una variante de este tipo, primero se entrenan varias NS en diferentes periodos, luego se combinan en una sola... ajuste sofisticado :)
Quiero que entienda cuando empieza a trabajar con demasiada astucia y se pone a punto
Evidentemente, su estructura no es la adecuada para estos fines.
¿cómo se hace?
¿cómo se hace?
Existe una variante de este tipo, primero se entrenan varias NS en diferentes periodos, luego se combinan en una sola... ajuste sofisticado :)
Me gustaría que entendiera cuando empieza a funcionar bruscamente y se reconstruya
En primer lugar - no es exactamente un ajuste, ya que se demuestra que los comités funcionan mejor, se puede explicar, por ejemplo, en las desviaciones de signo opuesto de los modelos separados, lo que conduce a una mayor precisión. En segundo lugar, el tándem NS propuesto es un modelo único y autoadaptativo que también ha demostrado ser beneficioso en los métodos de aprendizaje por refuerzo.