una estrategia de negociación basada en la teoría de las ondas de Elliott - página 218
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
...
Меня интересует, увы, даже не число, а функция. Именно, зависимость вероятности успешной сделки от тейкпрофита и значение стоплосса, который при этом должен использоваться.
Но можно, в первом приближении, зафиксировать допустимый минимум вероятности успеха, при котором советник открывает позицию, и тогда просто искать уровень тейкпрофита, то есть минимальное изменение цены в нужном направлении при заданной вероятности.
El método consiste en enumerar los parámetros y observar el resultado, de lo contrario existe una alta probabilidad de empantanarse en la analítica (la solución no suele estar garantizada). Pero prepárate para que te acusen de "sobreoptimizar" el sistema.
Sí, la analítica pura es el sueño de mi periodo científico. En este caso - simplemente imposible debido a la falta de formación adecuada. Por eso sólo queda el tratamiento de los resultados de los experimentos numéricos sobre la historia. En realidad sobre una declaración correcta de un problema en estos experimentos que pregunté.
Bueno, si no hay observaciones para programar, lo que dije aquí: Yurixx 12.01.07 18:41, entonces voy a tratar de poner en práctica.
Y las acusaciones de "sobreoptimización" me preocupan poco. Sólo hay un juez objetivo, forex, y dará la sentencia final. Además, en la formulación propuesta los parámetros están prácticamente ausentes. Si el par (BL,BR) permite dividir todo el rango de valores en tres subcampos tal y como lo formula Neutron , entonces para un valor dado de TP sólo tenemos que construir una función de probabilidad de que entre con éxito por encima de este rango de valores. Si no permite hacer esto, entonces bórralo y empieza de nuevo.
El uso del probador incorporado, especialmente en esta etapa, no me parece muy útil e inconveniente.
Escribí mi propio manejador que construye una matriz de resultados apropiada en una historia dada.
Luego, ordenándolo por un indicador, haciendo la selección correspondiente y ordenándolo por valores del segundo indicador, obtengo un array de datos para el cuadrado elemental del rango de valores. Y luego puedo hacer lo que quiera. Puedo darles pesos de +1 y -1, dibujar una distribución de resultados (es decir, los cambios de precio obtenidos de cada entrada), ordenar estos resultados en orden descendente y obtener la probabilidad para un valor determinado de cambio de precio, etc.
En este punto tengo un problema con el descrecimiento del área de valores. Como se reduce a un cuadrado de lado [-1,1], se puede dividir en celdas con longitud de lado S=0,1 o S=0,01. En el primer caso tenemos 400 celdas, y en el segundo tenemos 40000 celdas. La precisión de la representación de la superficie parece aumentar, pero la fiabilidad estadística de los valores de probabilidad, como es evidente, cae radicalmente. Procesos competitivos.
¿Cómo determinar el tamaño óptimo de las celdas?
El archivo resultó estar roto (dice que el archivo está corrompido), así que la búsqueda continúa, si encuentras el enlace antes que yo también puedes decirme qué es...
¿Cómo determinar el tamaño óptimo de las celdas?
¿Tal vez las páginas 81-84 de Bulashev puedan ayudar a resolver este problema?
En este punto tengo un problema con el descrecimiento del área de valores. Como se reduce a un cuadrado de lado [-1,1], se puede dividir en celdas con longitud de lado S=0,1 o S=0,01. El primer caso da 400 celdas, el segundo da 40000. La precisión de la representación superficial parece crecer, pero la fiabilidad estadística de los valores de probabilidad, como es evidente, cae radicalmente. Procesos competitivos.
¿Cómo determinar el tamaño óptimo de las celdas?
La amplitud relativa de las fluctuaciones de un valor aleatorio (pseudoaleatorio) estimado dA/A se define como
dA/A=1/SQRT(n), donde n es el número de eventos.
La magnitud relativa aceptable de las fluctuaciones se estima a partir de las condiciones límite específicas, pero un valor inferior al 10% puede considerarse satisfactorio, cuando n>100. Así, el tamaño de una celda unitaria se elige a partir de la condición de un número suficiente (n>100) de eventos en ella. Por supuesto, no se producirá el mismo número de eventos en todas las partes de la zona que nos interesa. En este caso, tenemos que hacer un compromiso conocido, que será más precisión en la zona central y no suficiente en su periferia.
http://www.filefactory.com/file/733226/
P.D.: No sé cuánto tiempo estará por ahí.
Pero no puedo descargar desde las fábricas de archivos, envía...
grasn si puede subir aquí
http://zalil.ru/
Sólo que tendrá que dividirse en varios volúmenes...
grasn si puedes subirlo aquí
http://zalil.ru/
Sólo que tendrá que dividirse en varios volúmenes...
Debe haber algún problema con la descarga.
Lo intentaré...
PD: Menos mal que tengo tráfico ilimitado... :o)
Si el archivo de factorización le envía, probablemente diga algo como "no hay ranuras disponibles". En ese caso, sólo tienes que esperar un poco y volver a intentarlo. O simplemente descárgalo por la mañana, cuando Moscú aún no se ha despertado, y así todo se descargará a la primera. ¿Por qué torturar a una persona dividiéndola en varios volúmenes?
Pero si tienes una IP dinámica y te dice que has agotado el límite gratuito de 1Gb, entonces sólo tienes una opción: "El primero que llega", es decir, descargar por la mañana. En mi caso con una IP estática puedo descargar 1Gb diario garantizado sin tener que madrugar especialmente.