Para el seguimiento - página 33

 

Resumamos el resultado intermedio.

La rama propone un paradigma de generación y verificación de estrategias comerciales que es fundamentalmente diferente del "estándar" (según Pardo). En el estándar, la selección de la estrategia óptima se realiza mediante el escaneo de los parámetros de FP de la propia estrategia a través de numerosas ejecuciones de prueba en el historial y la posterior selección de los puntos de FP que optimizan la estrategia a cambiar. En la propuesta, el análisis ("bloque de análisis e intenciones preliminares") no cambia en absoluto, ya que las operaciones se mantienen, y sólo cambia el filtro de contexto ("bloque decisivo").

En principio, es posible lograr algo similar a la optimización aquí, si establecemos la forma requerida de las restricciones del filtro de contexto por adelantado (por ejemplo, todos los puntos del contexto FP deben estar dentro de un "paralelepípedo multidimensional" con coordenadas cambiantes de los vértices). Pero esto sólo sería un caso particular de la agrupación que queremos conseguir.

Por lo tanto, en nuestro caso no es necesario un optimizador. Basta con realizar una prueba con el filtro de contexto desactivado y con la salida de las coordenadas de las operaciones en el contexto FP, tras lo cual podemos realizar la agrupación del filtro por medios independientes.

Tengo la siguiente pregunta: ¿qué nos hace confiar en que el nuevo paradigma nos proporcionará unamayor solidez de la estrategia?

Suponemos que en las operaciones posteriores, en las operaciones reales, la secuencia de operaciones (nos ceñiremos a la variante de Candid) que pase por el nuevo filtro de contexto mostrará un factor de beneficio bastante alto. ¿Qué puede pasar que no sea así?

Tal vez podamos intentar analizar la estructura interna de un "grupo de contextos rentables" por medio de operaciones individuales, numerándolas, marcando las rentables y, por ejemplo, observando cómo se realizó la operación dentro de este grupo en el historial. Si hay muchos segmentos de la trayectoria que contienen casi sólo operaciones no rentables dentro de este grupo, no es bueno.

En resumen, se necesitan al menos algunos argumentos adicionales para justificar la aceptabilidad del nuevo paradigma y para fijar los límites de su uso.

 
Mathemat >>:

У меня следующий вопрос: откуда у нас такая уверенность в том, что новая парадигма обеспечит нам бо льшую робастность стратегии?

En general, no hay certeza. Sin embargo, como en el caso del enfoque estándar.

Supongo que son necesarias dos cosas para la solidez de este procedimiento:

- La zona óptima debe ser real. Es decir, no se trata de una fluctuación, sino de una dependencia estadísticamente válida.

- Los parámetros FP utilizados deben ser a su vez robustos. Es decir, si cambian con el tiempo, lo hacen muy lentamente.


Es decir, hay que trabajar mucho para encontrar y verificar los parámetros adecuados. Lo que no invalida la utilidad y las consideraciones teóricas.


P.D. Al cambiar los parámetros a lo largo del tiempo, por supuesto, nos referimos a cambiar su función de distribución.

 
Candid >>:

- Оптимальная зона должна быть реальной. То есть мы должны иметь дело не с флуктуацией, а со статистически достоверной зависимостью.

Pues sí, si los límites exteriores de la zona óptima son los mismos que los de un copo de nieve, no se puede contar con nada robusto.

La zona óptima, si migra en el espacio FP, no debe hacerlo de forma demasiado brusca.

En resumen, debería ser sólido. Una especie de hiperesfera, hiperparalelepípedo o algo similar, que se mueve a baja velocidad.

 

Tal vez debería ser así:

1) Determinar los puntos de entrada ideales en el historial teniendo en cuenta el diferencial, la maximización de los beneficios, el número de operaciones, el drawdown, etc. (100% seguro, no parecerá una zzz ni mucho menos)

2) Utilizando los Mapas de Kohonen u otros métodos, determinar la relación de los tratos obtenidos con el contexto actual (lecturas de indicadores totales u otros)

3) Operar utilizando los patrones encontrados.

 

Andrei, ¿esperas que las coordenadas en el espacio de contexto identificadas en el paso 2 te permitan entrar con más precisión?

 
joo писал(а) >>

Tal vez debería ser así:

1) Determinar los puntos de entrada ideales en el historial teniendo en cuenta el diferencial, la maximización de los beneficios, el número de operaciones, la reducción, etc. (100% seguro, no parecerá una zzz ni mucho menos)

2) Utilizando los mapas de Kohonen u otros métodos, determinar la relación de los tratos recibidos con el contexto actual (lecturas totales de los indicadores u otros)

3) Operar utilizando los patrones encontrados.

No hay salida (lo he probado yo mismo)

Hay muchas regularidades de diferente duración temporal + aleatoriedad, y cada punto de entrada ideal puede tener una causa en una o más regularidades enmascaradas por la aleatoriedad. Como resultado de destacar el contexto, sólo obtenemos un ajuste a esta mezcla aleatoria, en lugar de destacar los patrones individuales y su contexto de uso. Cada patrón tiene su propio contexto. imho.

 

Hay otra cosa aquí: a medida que el número de parámetros crece, también lo hace la dimensionalidad de FP. A raíz de ello crecen los requisitos para las estadísticas de los tratos. Creo que ya en 3 parámetros podemos hablar de estadísticas sólo para el pipsing desenfrenado :).

Por otro lado, es deseable tener parámetros para el número de grados de libertad. Para esperar que sólo haya 2 ó 3, hay que ser un optimista totalmente congelado. Por supuesto. Aunque todavía no hay ningún indicador del número de grados de libertad.

Esta es la verdadera tragedia de cualquier enfoque "objetivo", incluido el estándar.

 

Los parámetros del límite de la zona óptima se transforman de una manera u otra en los parámetros latentes del propio ST - no importa cómo se obtengan, por el enfoque estándar o por la agrupación del contexto. Así, resulta que todavía no hemos escapado de la parametrización de TC.

Sobre 2-3 parámetros: existe la esperanza de que si el sistema entra principalmente en zonas de tendencia, estos parámetros serán "casi suficientes", porque en tiempos de catástrofes el número de grados de libertad del mercado probablemente disminuye significativamente (se vuelve más simple).

Y en general, no me centraría en el número de grados de libertad. No buscamos una función que explique completamente el mercado, sino sólo una TS más o menos sólida sobre él. Puede que a veces se equivoque (¡y seguramente lo hará!), pero podemos esperar que 2-3 parámetros sean suficientes para la mayoría de los casos.

 
joo писал(а) >>

Probablemente ambos. :)

Gracias por la otra, es fácil de hacer:

Un cuadrado de 500x500 puntos = un total de 250.000 puntos. Cada punto es dibujado por un objeto "línea de tendencia" (no un rayo, por supuesto). Se utilizan líneas horizontales de longitud 1, es decir, segmentos que unen puntos adyacentes. ¿Por qué no un objeto puntual? Porque un objeto puntual no se puede ver en un gráfico. En función de los valores de las coordenadas x e y se calcula el color del objeto. Así, hay 250.000 objetos en ese cuadrado, cada uno con su propio color. ¡Y MT4 puede manejarlo sin problemas!

La única limitación es que MT tiene una pila limitada de estilos gráficos. El valor máximo es 512. Significa que no puedes utilizar más colores que este número.

 
Mathemat писал(а) >>

Tengo la siguiente pregunta: ¿cómo podemos estar tan seguros de que el nuevo paradigma nos proporcionará una estrategiamás sólida?

Suponemos que en las operaciones posteriores, ya en la vida real, la secuencia de operaciones (ciñámonos a la variante de Candid) que han pasado el nuevo filtro de contexto mostrarán un factor de beneficio bastante alto. ¿Qué puede ser, que no lo haga?

En resumen, se necesitan al menos algunos argumentos adicionales para justificar la aceptabilidad del nuevo paradigma y para fijar los límites de su uso.

Como siempre, el criterio de la verdad es la práctica. Fuera de ella, nada dará ni certeza ni validez.

Sin embargo, quiero volver a prestar atención a ese momento. El nuevo paradigma, como lo llamó Alexey, no es más que otra metodología. Un enfoque metodológicamente correcto sólo puede proporcionar un resultado positivo si se basa en puntos de partida correctos. (Por cierto, el enfoque metodológicamente incorrecto, que es el pecado del AT clásico, no puede proporcionar un resultado positivo ni siquiera en el punto de partida correcto. Por lo tanto, es impotente e "inviable" en el mercado).

Utilizar la PF de acuerdo con su definición y función es, en mi opinión, el enfoque metodológicamente correcto. Sin embargo, ¡la metodología por sí sola no produce un resultado positivo!

Debe basarse en un par: sistema de entrada-salida - parametrización FP. Esta es la base correcta. Si un solo componente de este par es incorrecto, inadecuado o dependiente, todo el diseño no funcionará.

Por lo tanto, no tiene sentido discutir la robustez, la aceptabilidad, la estabilidad de este paradigma aislado de las mismas propiedades del sistema de entradas/salidas y de los parámetros FP.

Mathemat escribió >>

La zona óptima, si migra en el espacio FP, no debe hacerlo de forma demasiado brusca.

En resumen, debería ser sólido. Una especie de hiperesfera, hiperparalelepípedo o algo similar, que se mueve a baja velocidad.

Yo diría que un hiperelipsoide, conecta la radialidad y las diferentes escalas a lo largo de los ejes.

Sin embargo, si el clúster está migrando a lo largo del PM, lo más probable es que el sistema de parámetros del PM esté incompleto o que los propios parámetros no se hayan elegido correctamente. IMHO