El filtro perfecto - página 7

 
hrenfx:

La investigación y el comercio son actividades completamente diferentes.

Todavía pensaba que el hilo era sobre la investigación.

Eso es exactamente lo que piensas. Tal vez me equivoque si me parece que me estoy encariñando con una plataforma, un idioma, etc. Estoy experimentando con los medios que me parecen más convenientes, o como me parecen en este momento. Luego reescribir la lógica para otro lenguaje u otra plataforma es algo secundario, tal vez incluso de 10 segundos - es una actividad rutinaria y no escalable que vale un centavo. Lo principal es el algoritmo.

Por eso empecé a especular sobre los criterios de eficiencia cuantitativos y representados visualmente para un filtro particular para el csvr financiero. Para tener una forma rápida y visual de evaluar el filtrado a lo largo de la PA, para ver cómo y dónde se acumula y drena, no sólo la cantidad final como en el probador. Como tienes razón, los TS construidos con algún algoritmo pueden fallar en un mercado y subir en otro, para entender mejor dónde y cómo ocurre, estoy buscando una forma de evaluar sólo el filtro de precios, luego pensaré en la estimación del complejo, teniendo en cuenta el spread, los retrasos, la MM y demás.

Por el contrario, abogo por algoritmos invariantes de plataforma, concisos y bellos en sentido científico cuando sea posible).

Así que estoy demasiado convencido por defecto.

 
J.B: ......

Reescribir la lógica en otro lenguaje, o para otra plataforma, es un asunto menor, quizá hasta 10 mayores; es una actividad rutinaria, no escalable, que cuesta centavos. Lo principal es el algoritmo.

......

No me atrevería a decir que el conjunto de herramientas es secundario con respecto a la aplicación del algoritmo. Además, existe una estrecha relación entre las herramientas de aplicación y la forma en que se realiza la lógica de las mismas. Yo, por ejemplo, también tengo que utilizar diferentes entornos para la investigación, pero es más bien una desventaja que una ventaja, sería mucho más genial combinar las ventajas de muchos entornos y trabajar en uno solo, dividido en contextos, adaptado a las especificidades.

Sólo se puede hacer una investigación muy primitiva en papel, pero el entorno de modelización (plataforma) es muy importante. Con el tiempo, al trabajar con ciertas herramientas, un conjunto de funciones, plantillas de código, etc., te acostumbras a ellas y empiezas a pensar a nivel de automatismos, para luego pasar a otros bloques de construcción lógica y reconstruir la lógica a partir de ellos de nuevo, lo cual no es lo más agradable. IMHO

 

Con todo el respeto, pero me gustaría insinuar una desviación de la corriente principal de la discusión, es decir, estoy muy interesado en debatir sobre el software también, pero en un hilo diferente preferiblemente. Entiendo que esta es una discusión animada y no particularmente cuidadosa para seguir el contexto, pero el debate sobre la utilidad / daño de las estadísticas (como en el comienzo del tema) y qué software es mejor, está de acuerdo tiene poca relación con el sub-tema sobre el análisis de la eficacia de los algoritmos de filtrado. Perdón por la moralina)

 
J.B:

Con todo el respeto, pero me gustaría insinuar una desviación de la corriente principal de la discusión, es decir, estoy muy interesado en debatir sobre el software también, pero en un hilo diferente preferiblemente. Entiendo que esta es una discusión animada y no particularmente cuidadosa para seguir el contexto, pero el debate sobre la utilidad / daño de las estadísticas (como en el comienzo del tema) y qué software es mejor, está de acuerdo tiene poca relación con el sub-tema sobre el análisis de la eficacia de los algoritmos de filtrado. Perdón por la moralina)

Entonces, ¿qué sigue sin resolverse? Tome BP, filtre, calcule los "puntos de ruptura" negativos en los mínimos, positivos en los máximos, calcule la suma para cada barra de todos los puntos de ruptura anteriores teniendo en cuenta la deducción del spread. Si quiere una relación relativa al ideal, calcule lo mismo, para ZZ con la profundidad correspondiente y divida. Esa es toda la alquimia. El tema se puede cerrar. ¡Lo que todo el mundo ha estado buscando se declara encontrado! Amén.

 
gunia:

Entonces, ¿qué sigue sin resolverse? Tomamos el BP, lo filtramos, calculamos los "puntos de ruptura" negativos en los mínimos, positivos en los máximos, calculamos la suma para cada barra de todos los puntos de ruptura anteriores teniendo en cuenta la deducción del spread. Si desea una relación relativa al ideal, calcule lo mismo, para ZZ con la profundidad correspondiente y divida. Esa es toda la alquimia. El tema se puede cerrar. ¡Lo que todo el mundo ha estado buscando se declara encontrado! Amén.

Conceptualmente parece ser cierto, pero o bien soy tonto, o hay algo que falla en la forma de formular el problema. Cuando vuelva de las vacaciones a la oficina, intentaré explicar con detalle, de forma depurada, con imágenes, cuál es el problema. Tal vez alguien sugiera algo.

 
J.B:

Conceptualmente parece ser cierto, pero o bien soy tonto, o hay algo que falla en la forma de formular el problema. Cuando vuelva de las vacaciones a la oficina, intentaré explicar con detalle, de forma depurada, con imágenes, cuál es el problema. Tal vez alguien sugiera algo.

Bueno, mi trabajo es señalar el camino, tienes que seguirlo tú.
 
gunia:
Bueno, mi trabajo es señalar el camino, depende de ti seguirlo.

Agradezco la orientación. En general, resulta más o menos lo mismo si no tenemos un diferencial:

Si a cada operación le restamos un diferencial de 2 puntos antiguos (eurobucks), el panorama se estropea:

En la imagen se ve claramente que el algoritmo de este filtro pincha de forma bastante previsible en determinadas horas del día en un mercado activo, y pierde por la noche en los pisos. Pero el 95% de las pérdidas son diferenciales. Así que estoy satisfecho. Así que estoy contento con él. Así que sólo tengo que usar este algoritmo en un mercado de tendencia activa y apagarlo por la noche.

P.S Hizo pruebas con EMA simple y MACD allí incluso sin tener en cuenta la propagación MO beneficio es cero, con la propagación de un drenaje duro.


 
J.B:

Si a cada transacción le quitamos el diferencial de 2 puntos antiguos (eurobucks) entonces la imagen se estropea:

¿De dónde viene esta crueldad con sus propios productos? Olvídate de la difusión y haz lo que dices:

hrenfx:

Construye ZigZags de la misma manera, pero pon las partes superiores en Bid BP y las inferiores en Ask BP. Entonces, la suma de las rodillas tendrá en cuentael "diferencial flotante".

Lleve los datos de oferta y demanda a FXOPEN ECN ...

Pero incluso si no quieres molestarte con ello, ten en cuenta que para el mismo EURUSD el spread medio es de ~ 0,3 + comisión estándar (o puedes reducirla) de ~ 0,65. Por lo tanto, incluso si simplemente se quita el diferencial, no será más de un pip.

Pero también hay otros símbolos...

 
hrenfx:

¿Por qué eres tan cruel con tu propia artesanía? Olvídate de la difusión y haz lo que dices:

Pero incluso si no quiere molestarse, considere que para el mismo EURUSD el spread medio es de ~ 0,3 + comisión estándar (y puede reducirla) de ~ 0,65. Por lo tanto, incluso si simplemente se quita el diferencial, no será más de un pip.

Pero también hay otros símbolos...

Gracias. Si 1 punto, entonces no es otro que un grial, si lo incluyo de 9 a 20 horas. Y esta frecuencia diaria es muy estable. Ahora tenemos que entender cuál es la trampa. Al fin y al cabo, la tendencia ni siquiera se tiene en cuenta en este sumador: las órdenes simplemente se capturan en las pausas y se invierten. Si lo filtramos por la tendencia, creo que la eficiencia aumentará un 10-20%. Seguro que tiene que haber un montaje en algún sitio, no puede ser tan sencillo.

 
Mejor aún, hazlo sin la estúpida extensión, así evitarás muchos matices idiotas de una vez. En cuanto a la captura, es poco realista sin el código fuente.