Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 598

 
Aleksey Terentev:
1) ¿Cómo van las cosas en la formación? No veo cómo se aplican los pesos.
2) ¿Están disponibles los pesos de la propia neurona?
3) Como medio, puede tomar la derivada del cierre o MA rápida del orden 1-4. O incrementos.
4) Yo pondría el tamaño de la capa oculta igual a la entrada.

los pesos suben a los sumadores, todo es clásico, entonces el peso se alimenta a la función de activación. era simplemente inconveniente para firmar todo en el panel táctil

como "entorno" - aquí suponemos una acción ya realizada por la SN externamente, por ejemplo, una transacción... es decir, la memoria del sistema para n acciones hacia atrás; lo mismo ocurre con la retroalimentación - qué acción llevó a qué resultado

así que haré una capa interna igual a la de entrada... y quizás añada otra más tarde

 
Yuriy Asaulenko:

Sólo perderá su tiempo. No funcionará con datos reales.

Por ejemplo: una respuesta errónea de NS, y afectará a todas las siguientes.


Bueno, en realidad no, sólo ns tendrá en cuenta la serialidad y la eficacia de las transacciones como un factor adicional... esto es sólo una opción, no estoy diciendo que sea definitivo

Por eso pido otras ideas.

+ es un elemento adaptativo incrustado... como un transistor

y la NS principal tiene otras fi

 
Maxim Dmitrievsky:

los pesos suben a los sumadores, todo es clásico, entonces el peso se alimenta a la función de activación. era simplemente inconveniente para firmar todo en el panel táctil

como "entorno" - aquí suponemos una acción ya realizada por la SN externamente, por ejemplo, una transacción... es decir, la memoria del sistema para n acciones hacia atrás; lo mismo ocurre con la retroalimentación - qué acción llevó a qué resultado

así que pondré una capa interna igual a la de entrada... y puede que añada otra más tarde

Entonces como opción la suma de ganancias en pips. Un comercio exitoso -> aumento, y viceversa.
Pero aquí la sutileza es que en este caso debemos pensar en añadir la función Q, porque debe considerarse como una recompensa. O derivar una fórmula de aprendizaje teniendo en cuenta la recompensa.
 
Aleksey Terentev:
Entonces qué tal la suma de ganancias en pips. Un comercio exitoso -> aumento, y viceversa.
Pero aquí el problema es que en este caso debemos pensar en añadir la función Q, porque debe considerarse como una recompensa. O derivar una fórmula de aprendizaje pensando en la recompensa.

Sí, vale :) buena opción.

Hasta ahora la fórmula es simple - neuronas separadas, a las que se alimentan los resultados de las operaciones pasadas, ni siquiera neuronas, sino que simplemente se añaden valores al combinador. Todavía no he leído sobre los enfriamientos

 
Maxim Dmitrievsky:

Sí, vale :) buena opción.

Hasta ahora la fórmula es simple - neuronas separadas, a las que se alimentan los resultados pasados del comercio, ni siquiera neuronas, sino que simplemente se añaden valores al sumador. Todavía no he leído sobre los enfriamientos

Se crean dos NS idénticas, se entrena una con imágenes tradicionales y la otra con transferencia directa de pesos, dosificada según los resultados de la predicción de la primera, es decir, la segunda debe aprender sólo de la experiencia positiva.
 
Ivan Negreshniy:
Se crean dos NS idénticas, se enseña a una por medio de imágenes tradicionales y a la otra por transferencia directa de escalas, dosificadas según el resultado de la predicción de la primera, es decir, la segunda debe aprender sólo de la experiencia positiva.

Existe una variante de este tipo, primero se entrenan varias NS en diferentes periodos, luego se combinan en una sola... ajuste sofisticado :)

Me gustaría que entendiera cuando empieza a funcionar de forma demasiado inestable y que se reorganizara

 
Maxim Dmitrievsky:

Existe una variante de este tipo, primero se entrenan varias NS en diferentes periodos, luego se combinan en una sola... ajuste sofisticado :)

Quiero que entienda cuando empieza a trabajar con demasiada astucia y se pone a punto

Evidentemente, la estructura que has creado no es la adecuada para estos fines.
 
Yuriy Asaulenko:
Evidentemente, su estructura no es la adecuada para estos fines.

¿cómo se hace?

 
Maxim Dmitrievsky:

¿cómo se hace?

No tengo ni idea). Pero, definitivamente no así.
 
Maxim Dmitrievsky:

Existe una variante de este tipo, primero se entrenan varias NS en diferentes periodos, luego se combinan en una sola... ajuste sofisticado :)

Me gustaría que entendiera cuando empieza a funcionar bruscamente y se reconstruya

En primer lugar - no es exactamente un ajuste, ya que se demuestra que los comités funcionan mejor, se puede explicar, por ejemplo, en las desviaciones de signo opuesto de los modelos separados, lo que conduce a una mayor precisión. En segundo lugar, el tándem NS propuesto es un modelo único y autoadaptativo que también ha demostrado ser beneficioso en los métodos de aprendizaje por refuerzo.