La etiqueta del mercado o los buenos modales en un campo de minas - página 18

 
paralocus >> :

Neutrón, también quería preguntar sobre la formación de Hebb (leída por Wasserman). Parece que la fórmula para la corrección de los pesos es muy sencilla allí:

Wij(t+1) = Wij(t) + [OUTi(t) - OUTi(t-1)]*[OUTj(t) - OUTj(t-1)] y no hay caídas de gradiente. ¿Funcionará?

Lea para qué redes y en qué casos se utiliza.

 
HideYourRichess писал(а) >>

Tengo una talla fija. Además, si los importes de las ganancias y las pérdidas se distribuyen según una ley normal, sospecho que esto corresponde a una cantidad fija.

Ahora mis tamaños de soborno perdedor y ganador también son iguales. Para ello he tenido que rebuscar en toda la CT, afinándola a tamaño fijo de los trucos, pero se puede utilizar toda la potencia de la MM óptima, que en este caso tiene una representación analítica precisa y, además, a largo plazo, al reinvertir los fondos, ¡ninguna otra TS diferente a ésta no dará más rentabilidad! Para ser justos, hay que señalar que en general esta afirmación no es cierta y que existe una estrategia de mayor rentabilidad, pero sólo para un mercado con tendencia y un alto grado de predictibilidad(p>0,2), que para el Mercado nunca se cumple. Esta estrategia consistiría en "bloquear las pérdidas para dejar que los beneficios crezcan".

La Fig. de la izquierda es la conocida imagen que muestra el logaritmo del beneficio óptimo de la TS para diferentes valores del apalancamiento comercial L. Combina los resultados de la simulación numérica por el método de Monte Carlo de la operación de TS a cotizaciones idénticas a las de mercado (EURUSD) teniendo en cuenta la comisión - Sp. El promedio se realiza para 200 sesiones de negociación independientes, cada sesión tiene 1000 operaciones. El capital inicial se toma como 1 (ln(1)=0), los bigotes muestran la dispersión típica de los resultados de la negociación en el nivel 1/e. El azul muestra el resultado de la solución analítica de la ecuación básica de negociación:

...1.

Por cierto, el trabajo de Edward Thorpe "Kelly's Criterion in Blackjack, Sports and Stock Market" proporciona una solución analítica para la varianza del saldo de la cuenta al final de la negociación y permite estimar la banda en la que es probable que acabe nuestra cuenta después de n transacciones. Pero, Thorpe cometió un error al derivarlo y el resultado no se corresponde con la realidad. Pude obtener una relación similar y el resultado se representa como líneas de círculos azules. Se puede ver la excelente concordancia con los resultados de los experimentos numéricos. He aquí una expresión para la varianza de los resultados de las operaciones con fondos reinvertidos:

............................................... 2.

Por supuesto, para nosotros, como operadores, el principal interés es el análisis del riesgo de ruina total. La figura de la derecha muestra los resultados de la simulación numérica de la reducción máxima del depósito como porcentaje de su valor actual (línea azul). Podemos ver que cuanto mayor es el apalancamiento que utilizamos, más arriesgada es la reducción de la cuenta. podemos encontrar el valor medio de estas reducciones máximas y la dispersión del proceso (datos en rojo). Desgraciadamente, esta característica del proceso de negociación apenas es informativa. La cuestión es que, a medida que aumenta el tiempo que un operador pasa en el mercado, aumenta el número de transacciones realizadas y, en consecuencia, aumenta el riesgo de ruina. ¡Es decir, el hecho de la quiebra es una cuestión de tiempo! Y por muy cuidadosas que sean las tácticas que se empleen en el comercio, tarde o temprano nos llevarán a cero. Esto es cierto. Es importante parar a tiempo y quitarse la crema. En cualquier caso, el MM óptimo garantiza la máxima tasa de crecimiento del depósito con los parámetros medidos de la ST (grado de previsibilidad - p y el horizonte comercial - H). Sí, perderemos el depósito, pero también volveremos a empezar y la tasa de crecimiento global de nuestro bienestar (teniendo en cuenta las posibles pérdidas) será la más alta posible en la Naturaleza.

Permítanme recordarles que un MM óptimo garantiza la máxima tasa de crecimiento del depósito sólo cuando la TS es positiva MO o, de forma similar, cuando p>0 y quiero señalar que la tasa de crecimiento del depósito (el valor inverso del tiempo característico de duplicación del depósito) en valores óptimos de apalancamiento y horizonte de negociación aumenta significativamente con el aumento de la fiabilidad de la predicción de p:

................................................................................... 3.

- como el cuarto grado del parámetro. En esta situación es muy importante poner el máximo esfuerzo en el desarrollo de un ST que permita obtener la mayor precisión de predicción posible, y si para ello es necesario aumentar la capacidad del NS (el número de neuronas en la capa oculta), no hay que escatimar energía y tiempo, porque el objetivo merece la pena. Pues bien, el objetivo de la optimización del CT es encontrar la máxima funcionalidad:

......................... 4.

Se busca buscando un solo parámetro: el horizonte de negociación H, y luego se calcula la fiabilidad de la previsión que le corresponde: p. El valor H encontrado se considera óptimo y se negocia mientras la tendencia general del mercado no cambie. El mercado se supervisa continuamente. Afortunadamente, esto no requiere muchos recursos si se dispone de una solución analítica.

Se demuestra que al reinvertir los fondos la TS óptima es la TS de Bernoulli, es decir, la TS en la que el SL y el TP de la orden son iguales e igualan al Hopt encontrado por la maximización del funcional sobre los resultados de la negociación. Además, existe un apalancamiento óptimo Lopt que proporciona la máxima tasa de crecimiento de los depósitos, de modo que cualquier otro MM dará un beneficio menor en un plazo largo:

......................................................................... 5.

Llegados a este punto, el tema de una gestión de la movilidad óptima cuando se trabaja con un instrumento puede considerarse resuelto teóricamente y terminado en la práctica. La cuestión de la maximización de la fiabilidad de la predicción de los incrementos de precios para el rango de negociación especificado Hopt sigue sin resolverse. Es obvio que esta tarea para la Red Neural con un bloque de reaprendizaje en cada operación.

 
Neutron >> :

Ahora está resolviendo el problema de la entrada óptima del NS. Por supuesto, puedes poner todo tipo de índices en la entrada, esperando que la red decida qué es lo mejor para ella... Pero es mejor pensar "¿cuál es la TS óptima en el mercado? ¿Tal vez debería predecir sus momentos?

Lea esta obra. Por supuesto, hay algunos fallos, pero no son los principales:

En el proceso de lectura de Ezhov, tengo la sospecha de que los induks, al menos en esa forma, ¡no son necesarios en absoluto! Todos estos RSI y estocásticos no sirven de nada::)

 

Llevo mucho tiempo hablando de esto.

El hecho es que una proporción significativa de todos los indicadores utilizados en AT se construyen de alguna manera utilizando el promedio de las series de precios. Por ejemplo, el RSI contiene la media de los incrementos positivos de la tasa y la media de los negativos. Estaría bien, pero la inevitable FP que aparece al intentar promediar la PA, reduce todos nuestros esfuerzos a la nada. Y no es casualidad, podemos demostrar estrictamente que la previsión de BP utilizando el suavizado es posible sólo para GR, cuyas lecturas de la primera diferencia están correlacionadas positivamente. En el caso de las BP de tipo precio, esta condición no se cumple nunca. De ahí los resultados inevitablemente decepcionantes. No se pueden promediar o suavizar las series de precios para la previsión. Se necesitan otros enfoques de análisis. En particular, los métodos de regresión (si hay un modelo) o los métodos de redes neuronales (si no hay un modelo).

La belleza de la solución analítica que presenté en el post anterior es que obtenemos explícitamente el funcional (4), cuya maximización se puede trasladar a NS. Nuestra tarea en este caso es extremadamente sencilla: tenemos que asegurarnos de que Internet no se caiga :-)

 
Neutron >> :

Llevo mucho tiempo hablando de esto.

El hecho es que una proporción significativa de todos los indicadores utilizados en AT se construyen de alguna manera utilizando el promedio de las series de precios. Por ejemplo, el RSI contiene la media de los incrementos positivos de la tasa y la media de los negativos. Estaría bien, pero la inevitable FP que aparece al intentar promediar la PA, reduce todos nuestros esfuerzos a la nada. Y no es casualidad, podemos demostrar estrictamente que la previsión de BP mediante alisado sólo es posible para GR, cuyas lecturas de la primera diferencia están correlacionadas positivamente. En el caso de las BP de tipo precio, esta condición no se cumple nunca. De ahí los resultados inevitablemente miserables. No se pueden promediar o suavizar las series de precios para la previsión. Se necesitan otros enfoques de análisis. En particular, los métodos de regresión (si hay un modelo) o los métodos de redes neuronales (si no hay un modelo).

La belleza de la solución analítica que presenté en el post anterior es que obtenemos explícitamente el funcional (4), cuya maximización se puede trasladar a NS. Nuestra tarea en este caso es extremadamente sencilla: tenemos que asegurarnos de que Internet no se bloquea :-)

Neutron, ¡creo que empiezo a entender algo! Tengo muchas preguntas e incluso un par de ideas.

¡Pavos al infierno! Ayer hice un experimento curioso: quería averiguar cuál es la capacidad de un perceptrón para predecir los incrementos.

La imagen muestra UN !!! perceptrón durante 2 meses después de la optimización. Estoy sorprendido.



Tengo muchas preguntas, no podré escribirlas todas a la vez.

1. Influyo en la señal de entrada mediante una hipertensión, y para igualar su densidad de distribución, primero multiplico la señal por el coeficiente K > 1 (antes de la hipertensión).

Lo más frecuente es obtener una distribución bastante uniforme, es decir, obtenemos la siguiente función: F(t) = tn(K * Y(t)). Selecciono K empíricamente, en un indicador especialmente afilado. Sin embargo, no siempre es posible. Normalmente, la densidad de la distribución hipertangente de la señal de entrada, antes de la multiplicación de esta señal por K, tiene el siguiente aspecto:



Y después de multiplicar por K queda así:


Es decir, la señal de entrada (su hipertangente) está como estirada en un rango de +/-1.

Pero en el caso de los incrementos de la PA obtenemos una señal que no puede reducirse a una distribución uniforme.

Aquí está la señal antes de la multiplicación:


Después de la multiplicación : (ver esto en mi indicador no siempre es posible ya que el medio "desaparece")



Dado que ya he visto que el blanqueo de la entrada afecta significativamente a la calidad del aprendizaje y, como resultado, a la predictibilidad, me gustaría saber si no hay otro método que la multiplicación de la señal.

Y si no, ¿qué hacer?

 
Neutron >> :

La belleza de la solución analítica que di en el post anterior es que hemos obtenido explícitamente el funcional (4), cuya maximización puede trasladarse a NS. Nuestra tarea en este caso es muy sencilla: hay que asegurarse de que Internet no se caiga :-)

¡El tema principal de este hilo ya lo he podido apreciar! -:) Eres un genio y no estoy bromeando.

Tengo una idea. Muy posiblemente uno nuevo. Anoche tuve un "cortocircuito"... en todos los niveles de mi red neuronal personal -:)

La cuestión es que he estudiado al hombre toda mi vida, no sólo en el contexto de su realización social y personal -pues todo esto es "superficial"-, sino como fenómeno holístico del ser y "vaso de conciencia". De la noche a la mañana, todo lo que había reunido a lo largo de los años estaba ahora sistematizado (autoorganizado) a partir de una colección estructurada de hechos y suposiciones en un todo integral.

No puedo ocultar mi alegría. Oh, bueno... eso fue una digresión.

La idea es sencilla:

Para aumentar la robustez de las SN de cualquier escala o propósito, hay que intentar infectarlas... infectarlas. Un virus es ciertamente fatal para la lógica determinista de una máquina de Turing - para la NS y la inteligencia artificial, con una aplicación adecuada y "dosificada" puede resultar ser sólo "agua viva". Ahora vamos a hablar de uno en uno:

1. Todos los organismos vivos son la esencia de las redes neuronales. La afirmación puede parecer demasiado atrevida, pero es un hecho fenomenológico.

2. Todos los organismos vivos se encuentran en un entorno agresivo con el fin de aprender, lo que llamamos evolución. Sólo hay que recordar que, junto con la evolución de las formas, hay una evolución continua de las conciencias individuales encarnadas en esas formas. La conciencia en sí es un efecto de la complejidad del sistema (red neuronal), y su "Planck" evolutivo - :), supongo - es la relación entre la complejidad del sistema y la entropía del mismo.

3. Los sistemas cuya entropía ha caído por debajo de un determinado límite se extinguen porque son incapaces de seguir evolucionando; sin embargo, los sistemas cuya entropía ha aumentado por encima de un determinado límite también se autodestruyen. De ahí la conclusión: para que un sistema evolucione con éxito, su entropía debe alcanzar periódicamente, durante un determinado periodo de tiempo, el límite de sus valores admisibles en el sistema dado. A este estado de cosas lo llamamos "enfermedad". Al decir la palabra "enfermedad" lo digo en un sentido bastante amplio: un delincuente de aspecto bastante saludable es un hombre enfermo. Sólo que no es su cuerpo el que está enfermo, sino su mente y el dolor que recibe, la mayoría de las veces no en forma de fiebre o gripe, sino en forma de la llamada "pesada cruz", "destino" y demás. Sin embargo, este dolor "social" que reciben es una especie de influencia docente del continuo evolutivo, que eleva la entropía de la criatura hasta límites difícilmente soportables. Esto plantea una cuestión filosófica sobre el profesor y sus objetivos... que, sin embargo, está mucho más allá del alcance de nuestra discusión en el foro -:)

4. los que sobreviven - han desarrollado la inmunidad - en el sentido más amplio - es decir, no sólo contra los gérmenes patógenos y social, pero más importante para la evolución - transaccional externa y transaccional interna.

5. En cualquier sistema vivo, existen esos "microorganismos" que seguramente lo matarán si la inmunidad está lo suficientemente debilitada. ¿Por qué lo hizo la naturaleza? Para aumentar la capacidad del mismo sistema de resistir los factores del entorno, es decir, para tener más oportunidades (tiempo) de continuar la evolución individual mediante un "entrenamiento" interno constante del sistema para la supervivencia.

6. Supongamos que la tarea de un sistema en evolución es desarrollar la inmunidad (en todos los sentidos). Entonces resulta algo interesante: el número de entradas de las NS vivas, así como el número de salidas (aún menos), es ridículamente pequeño en comparación con el número de sus neuronas y conexiones. Es decir, aumentamos bruscamente el número de neuronas en la capa intermedia (si hay tres capas: de entrada, oculta y de salida), y ahora podemos intentar "infectar" el NS. Esto puede hacerse introduciendo un error aleatorio medido durante la corrección de los pesos. Y yendo un poco más allá, es posible un entrenamiento alternativo del NS aumentando o disminuyendo la frecuencia o la amplitud de este error aleatorio.

Por ejemplo, antes de la corrección de los pesos podríamos intentar añadir un pequeño error al corrector con una función que (aleatoriamente) una vez cada 1000 llamadas a la misma devolviera un valor aleatorio de un determinado rango (por ejemplo, +0,01 / -0,01 ). No se sabe cuándo ni qué neurona recibirá un pequeño incremento erróneo. Cuanto más a menudo se produzcan estos incrementos, mayor será la entropía del sistema. En este caso, la SN tendrá que tener en cuenta... ¡su propio error!

Esos pensamientos...

 
Neutron >> :

Todo esto es genial excepto por una pequeña cosa. Tienes un error en la fórmula original. La cuestión es que la expresión 1+(L*(sigma*H-Sp)/S) no es equivalente a la plusvalía por operación, que es lo que se intenta utilizar con esta expresión. Francamente, no entiendo en qué te basas para considerarlo "obvio". Ese es el primer punto. En segundo lugar, la fórmula tiene que ser diferente para los distintos pares de divisas. Sólo hay tres versiones de la fórmula: para pares con "cotizaciones directas", "cotizaciones inversas" y "tipos cruzados". Para los pares de "cotización directa", por ejemplo, el importe de la ganancia, como fracción del capital total, puede calcularse de la siguiente manera: (TakeProfit-Spread)*tamaño_de_lote*número_de_lote/depósito. En consecuencia, para hallar la relación de ganancia, hay que añadir 1 a la fórmula. La expresión "tamaño_de_un_lote*número_de_lotes" es el volumen de dinero involucrado en la transacción, teniendo en cuenta el apalancamiento. En general, para las cotizaciones directas, había una fórmula en algún lugar de los artículos: resultado financiero = (Precio de venta - precio de compra) * número de lotes * tamaño de un lote - comisión * número de lotes ± interés bancario. En esta fórmula, el diferencial se incluye directamente en los precios.

 
HideYourRichess писал(а) >>

Todo es genial, excepto por una pequeña cosa. Tienes un error en la fórmula original. La cuestión es que 1+(L*(sigma*H-Sp)/S) no es equivalente a la plusvalía por operación, que es lo que se intenta utilizar.

Gracias, HideYourRichess, por tomarte la molestia de comprobar los cálculos. Sé lo doloroso que es comprobar los cálculos de otra persona. Por supuesto, no excluyo los errores en las fórmulas y las suposiciones de las que se derivan, por lo que intento comprobar los resultados de la solución analítica mediante un experimento numérico. En nuestro caso hemos modelado el proceso de incremento discreto de precios con el paso de incremento igual H puntos. Además, había una dependencia fija del incremento esperado con respecto al incremento anterior: p= suma de todos los incrementos consecutivos dividida por el número doble de todos los movimientos. Para un cociente de mercado real se puede mostrar un desglose similar y encontrar el coeficiente p correspondiente.

Así, los resultados de la modelización numérica coinciden perfectamente con los resultados de la solución analítica obtenidos por mí (véase la figura de la izquierda). Por lo tanto, ¡no hay ningún error en esta formulación del problema y su solución analítica! Es posible discutir sobre la correspondencia del modelo con la realidad, pero no hay problema aquí - siempre puedo implementar esta partición en un cociente y encontrar p.

paralocus escribió >>

¡Ya he conseguido apreciar el tema principal de este hilo!

Gracias por las amables palabras, pero ¿qué tiene de especial saber tomar las derivadas y encontrar el extremo de una función? Muchas personas simplemente no quieren dedicarse a un análisis detallado, es más fácil ir directamente a la cantera.

Luego pensaré detenidamente en lo que has escrito más arriba.

 
Neutron >> :

Gracias por sus amables palabras...


Gracias.

Aquí hay otra:

1. Otra opción para infectar el sistema es introducir una entrada aleatoria adicional en una neurona o grupo de neuronas: un órgano.

2. "Órgano" puede ser representado como un grupo especializado de neuronas que tienen una retroalimentación universal - es decir, cada neurona de órgano "sabe" lo que hay en la salida de cualquier otra neurona de su grupo( órgano o familia), y cada grupo es consciente de lo que hay en la salida del organismo. Una SN de este tipo será capaz de autoadaptarse de forma dinámica y la necesidad de aprendizaje será una de sus dominantes, es decir, el sistema puede buscar y generalizar los conocimientos que necesita de forma intencionada y automotivada. Nuestra tarea será construir obstáculos para ello y esparcir trozos de conocimiento aquí y allá -:)

 
Neutron >> :


Así pues, los resultados de la simulación numérica coinciden perfectamente con los resultados de la solución analítica obtenidos por mí (véase la figura de la izquierda). Por consiguiente, ¡no hay ningún error en esta formulación del problema ni en la solución analítica obtenida! Es posible discutir sobre la correspondencia del modelo con la realidad, pero aquí no hay ningún problema: siempre puedo implementar la partición dada en un cociente y no hay problemas para encontrar p.


Aquí hay un poco de información sobre el apalancamiento y algunos de los "trucos" asociados a él. Se trata de una simulación en un emulador de servidor de comercio.