La etiqueta del mercado o los buenos modales en un campo de minas - página 14

 
Neutron >> :

Este es el mayor error de todos. ¡El mercado te castigará por tu insolencia!

Sólo se puede jugar con el Mercado, y según sus reglas. Y si le gusta el juego, te recompensará.

¿Atribuye al mercado cualidades personales, y con mayúsculas? :)

El mercado es un desierto, la analogía con el océano me parece bastante acertada.

 

Estaba bromeando:-)

Sé que el mercado no es más que un proceso aleatorio y en algún lugar cuasi estacionario. Y la tarea de la ST se reduce a encontrar y explotar alguna apariencia de estacionariedad.

sealdo писал(а) >>

Me pregunto si hay una manera de calcular los objetivos (TP, SL), por ejemplo, a partir de la volatilidad de "días", "semanas", o de otra manera, para que puedan cambiar sin problemas con el mercado.

Estos valores caracterizan el mercado y sólo pueden evaluarse ejecutando la ST en el historial.
 
Neutron >> :

Estaba bromeando:-)


¡Hay un montón de tipos serios aquí! Es una broma... >>:)

Neutron, tengo algunas preguntas sobre ORO. ¿Entiendo correctamente que cuando se introduce un valor de error en una neurona, ésta divide este error entre todos los pesos de sus entradas, según su participación en la suma total de estos pesos?

Es decir, tomamos el valor del error +/- Er, luego sumamos todos los pesos de las sinapsis entrantes Sw1 = SUM(w1+w2+w3+... wn) y calculamos la proporción (en peso total) de cada una de ellas

Dw1 = w1/(Sw1/100) y luego distribuir +/-Er entre todos los pesos según su proporción en el peso total: wi = wi +/- Dwi *Er ¿es esto correcto? En caso afirmativo, ¿es posible hacer que esta distribución no sea lineal, sino digamos exponencial? Al fin y al cabo, en los sistemas vivos las "bonificaciones" y las "bofetadas", es decir, los errores y las bonificaciones, no se distribuyen entre los "primeros" y los "últimos" de forma nada lineal.

Segunda pregunta:

¿De dónde viene el valor del error? ¿Cuál es el signo de este valor? ¿Puede ser el valor de la pérdida de la transacción anterior un "valor de error"?

 
paralocus >> :

¿Entiendo correctamente que cuando se introduce un valor de error en una neurona, ésta divide este error entre todos los pesos de sus entradas, según su participación en la suma total de estos pesos?

No, no lo divide, lo distribuye. Y lo hace no porque alguien lo quiera así, sino como resultado de la minimización de la función objetivo.

A la luz de esto...

Si es así, ¿es posible que esta distribución no sea lineal, sino, por ejemplo, exponencial? Al fin y al cabo, en los sistemas vivos las "bonificaciones" y las "bofetadas", es decir, los errores y las bonificaciones, se distribuyen entre los "primeros" y los "últimos" de forma nada lineal.

Es probable que esta suposición conduzca a un aprendizaje más lento o a una discrepancia en el error total.

 
TheXpert >> :

No, no lo hace: se propaga. Y lo hace no porque alguien lo quiera, sino como resultado de la minimización de la función objetivo.

A la luz de esto...

Es probable que esta suposición conduzca a un aprendizaje más lento o a una discrepancia en el error total.

¿Aumentará la previsibilidad?

 
paralocus писал(а) >>

Neutron, tengo preguntas sobre ORO. ¿Entiendo correctamente que cuando se introduce un valor de error en una neurona, ésta divide este error entre todos los pesos de sus entradas, según su proporción en la suma total de estos pesos?

Es decir, tomamos el valor del error +/- Er y luego sumamos todos los pesos de las sinapsis de entrada Sw1 = SUM(w1+w2+w3+... wn) y calculamos la parte (en peso total) de cada una de ellas

Dw1 = w1/(Sw1/100) entonces distribuye +/-Er entre todos los pesos de acuerdo a su participación en el peso total: wi= wi +/- Dwi *Er ¿es cierto? En caso afirmativo, ¿es posible hacer que esta distribución no sea lineal, sino digamos exponencial? Al fin y al cabo, en los sistemas vivos las "bonificaciones" y las "bofetadas", es decir, los errores y las bonificaciones, no se distribuyen entre los "primeros" y los "últimos" de forma nada lineal.

Segunda pregunta:

¿De dónde viene el valor del error en primer lugar? ¿Cuál es el signo de este valor? ¿Puede servir como "valor de error" el valor de una pérdida en una transacción anterior?

No, no es así.

Consideremos no un comité de rejilla como el suyo, sino una rejilla normal de dos capas. Entonces se puede generalizar.

Se tiene un vector de señales de entrada (dejemos que sea unidimensional) de longitud n muestras, y dejemos que n+1 muestras sean una comprobación de la calidad del entrenamiento de la red. Le das este vector(n muestras), equiparando todos los pesos a valores aleatorios en el rango +/-1 con una distribución de densidad de probabilidad uniforme, y ves la salida de la rejilla. Supongamos que se pone +5,1, y se comprueba que n+1 cuenta (el valor al que debe aspirar la rejilla entrenada en el vector de entrenamiento) +1,1. Entonces se toma la diferencia entre el valor obtenido y el deseado +4 y se añade este valor, manteniendo su signo a cada peso de la neurona de salida (si no tiene FA), o se encuentra la derivada de FA de este valor y se añade a los pesos de la neurona de entrada (si tiene FA). Y así sucesivamente.

Si digieres este trozo, te diré cómo empujar más el error a los pesos de entrada de la primera capa (de entrada).

 
Neutron >> :

No, no lo es.

¿No prefieres hacerlo en fórmulas? Las matemáticas no son complicadas.

paralocus >> :

¿Aumentará la previsibilidad?

Poco probable.

 
TheXpert >> :

No, no lo hace: se propaga. Y lo hace no porque alguien lo quiera, sino como resultado de la minimización de la función objetivo.

A la luz de esto...

Es probable que esta suposición conduzca a un aprendizaje más lento o a una discrepancia en el error total.

Y por qué debería haber una discrepancia en el error total si Er = e(w1*x) + e(w2*x) + ... ¿e(wn*x)? No, el error acumulado sería igual al error de entrada.

 
TheXpert писал(а) >>

¿No prefieres hacerlo en fórmulas? Las matemáticas no son complicadas.

Puedes buscar las fórmulas tú mismo en la literatura, de la que hay mucha en Internet.

No nos precipitemos. Y no intentes complicarte la vida con todo tipo de artificios, como el "aprendizaje no lineal" y similares, es del maligno. Belleza y fiabilidad en la sencillez y la armonía.

 
Neutron >> :

Si digieres este trozo, te diré cómo empujar el error a los pesos de entrada de la primera capa (de entrada) a continuación.

Voy a hacer cerveza...