Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Alexei, hago la primera pregunta: ¿por qué
1) Impacto constante, que es independiente del precio de la acción (impacto alfa),
2) un impacto proporcional al precio de la acción (impacto Beta),
3) Proporcional a la derivada del precio de la acción (impacto Gamma)
4) proporcional al cuadrado del precio de la acción (introduciendo la no linealidad) (impacto Delta).
Si
sólo el "Exterior" influye en la "Acción" y no a la inversa
? Entiendo que se puede reducir a equivalente, pero ¿no es más lógico representar inicialmente la respuesta por grados de impacto y no al revés?
El criterio, en mi opinión, debería ser compuesto y considerar simultáneamente los siguientes factores (por ejemplo, mediante una función de penalización)
- tiempo de correlación de los residuos del modelo -> min
- la diferencia de la distribución de los residuos con respecto a la normal -> min
- norma del vector de residuos -> min
- número de parámetros del modelo que no convergen a cero -> min
Esto es para la inoculación, sin considerar el modelo de entrada, que pronto romperé)
... sin tener en cuenta el modelo de señal de entrada, que pronto presentaré)
Involuntariamente, me viene a la mente una historia tan famosa. Cuando Laplace regaló a Napoleón un ejemplar de su "Mecánica Celeste", el Emperador comentó: "Monsieur Laplace, dicen que ha escrito este gran libro sobre el sistema del mundo, sin mencionar ni una sola vez al Creador". A lo que Laplace habría respondido: "No necesitaba esta hipótesis. La naturaleza sustituyó a Dios.
;)
"No necesitaba esa hipótesis. La naturaleza ha sustituido a Dios.
El criterio, creo, debería ser compuesto y tener en cuenta los siguientes factores simultáneamente (por ejemplo, mediante una función de penalización):
- tiempo de correlación de los residuos del modelo -> min
- la diferencia de la distribución de los residuos con respecto a la normal -> min
- norma del vector de residuos -> min
- número de parámetros del modelo que no convergen a cero -> min
Esto es para la inoculación, sin considerar el modelo de entrada, que estoy a punto de romper)
Se pueden dar muchos criterios diferentes, y muy variados. Pero esta multiplicidad de criterios, por regla general, no conduce al resultado deseado debido a su incoherencia.
Критерий, я так считаю, должен быть составной и учитывать одновременно следующие факторы (например, с помощью штрафной функции):
- время корреляции остатков модели -> min
- отличие распределения остатков от нормального -> min
- норма вектора остатков -> min
- количество параметров модели, не обращающихся в нуль -> min
Это для затравки, без учета модели входного сигнала, которой я скоро присутствующим плешь проем)
quizás más simple: un error es una pérdida, una predicción correcta es una ganancia. Estimamos los ingresos/pérdidas. Es decir, por ejemplo, PF. Es decir, el criterio de optimización PF->max
Hay muchos criterios diferentes que se pueden idear. Pero esta multiplicidad de criterios no suele conducir al resultado deseado debido a su incoherencia.
Todo es importante aquí: los dos primeros puntos requieren que los residuos se acerquen a la RSG -significa que el modelo es adecuado-; el tercer punto se explica por sí mismo, el error debe ser lo más pequeño posible; el cuarto punto -la excesiva complejidad del modelo huele a inestabilidad y ajuste y muy probablemente afectará a la calidad de la previsión-. No veo ninguna contradicción, sólo hay que elegir correctamente los pesos de importancia de cada componente.
En mi opinión, ninguno de los criterios que ha enumerado
- tiempo de correlación de los residuos del modelo -> min
- diferencia de distribución de los residuos con respecto a la distribución normal -> min
- norma del vector de residuos -> min
- el número de parámetros del modelo que no convergen a cero -> min
no es necesario ni útil desde el punto de vista del ajuste del modelo.
Y, desde luego, no el punto 2, que requiere el ajuste a una distribución normal. Esto ya es, perdón, una tontería.
quizá más simple: un error es una pérdida, una predicción correcta es una ganancia. Estimamos los ingresos/pérdidas. Es decir, por ejemplo, PF. Es decir, el criterio de optimización PF->max
Podemos hacerlo así, pero también deberíamos pensar en cómo afinar los parámetros mediante algún algoritmo.
Hay 9000 algoritmos diferentes, pero todos tienen una cosa en común en términos puramente matemáticos: para alcanzar el óptimo es necesario conocer el gradiente de la función que se está optimizando mediante parámetros ajustados. Por supuesto, se puede utilizar el FP como criterio e incluso calcular todas las derivadas en tiempo real (utilizando la diferenciación automática no es tan difícil). Pero hay un problema: el valor del factor de perfil depende enormemente de la propia serie de precios, que se sabe que tiene el carácter de un proceso ruidoso. La fluctuación de sólo 1 vela por unos pocos puntos puede resultar en 1 trato extra o 1 falta con resultado imprevisible, lo que tendría un efecto dramático en el factor de beneficio (no olvidemos que debemos optimizar la estructura del modelo en el intervalo de tiempo más corto posible, porque inicialmente suponemos que el modelo tiene parámetros variables). Por tanto, el criterio es muy poco suave y el algoritmo de optimización puede simplemente quedarse atascado en algún óptimo local condicionado, repito, por la mera fluctuación del precio.
La norma del vector de error (punto 3), en cambio, no tiene esa desventaja: un cambio de 1 punto en el precio de 1 vela dará lugar a un cambio igualmente insignificante en la función de penalización. Los puntos 1 y 2 son iguales, mientras que el punto 4 no depende en absoluto del precio.
En definitiva, el criterio debe ser lo más estable posible a las condiciones iniciales (que en nuestro caso es la muestra de optimización), o el algoritmo debe tener alguna comprobación de globalidad del óptimo encontrado. De lo contrario, en lugar de optimización, obtendremos caos.
Y, desde luego, no el punto 2, que requiere el ajuste a una distribución normal. Esto es, perdón, una tontería.
Aquí ya te contradices: si el proceso se representa como señal+ruido, entonces el residuo debería ser, en el mejor de los casos, exactamente ruido térmico, portador de exactamente 0 información. En general, esta premisa ha sido generalmente aceptada durante unos cincuenta años: la salida del SBS (pp. 1 y 2) <=> el modelo describe adecuadamente el componente determinista.
Y dígame más sobre el punto 3, ¿desde cuándo el mínimo de error es inútil desde el punto de vista de la adaptación?