Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
A petición del iniciador del tema, continuaré con el principio de máxima probabilidad. En aras de la brevedad, utilizaré el término inglés MLE (maximum likelihood estimation).
Por definición, la probabilidad es la densidad de la distribución conjunta. Para una muestra de tamaño N, es una función numérica del espacio numérico N-dimensional. Además, también depende de los parámetros a determinar (estimar).
Por lo tanto, surge la pregunta: ¿de dónde viene esta función? La respuesta es "como sea"), porque es imposible abarcar toda la variedad de formas.
La verosimilitud es la probabilidad de entrar en un intervalo de confianza. ¿Y qué es la plausibilidad? En términos simples, sin la densidad de la distribución conjunta.
La verosimilitud es la probabilidad de entrar en un intervalo de confianza. ¿Qué es la plausibilidad? En términos simples, sin la densidad de la distribución conjunta.
¿Qué es exactamente lo que le resulta difícil del concepto de densidad?
Como siempre - primero para la normalidad, luego para la estacionariedad y luego... como siempre...
Por cierto, no todo el mundo llama blanco al ruido gaussiano. El blanco es el blanco y el gaussiano es el gaussiano.
Leído tu opus, prácticamente has demostrado que ninguna manipulación de tics cambia la persistencia de la fila. (Enhorabuena.
¿Qué tiene que ver la persistencia con esto? No mencioné esa palabra en absoluto... Doc, lo siento, pero eres aún más tonto de lo que pensaba.... Se trataba de preservar al máximo la estructura de la serie, y la estructura es responsable, como sabemos, de la estructura, la no entropía (o entropía).
Se ha demostrado que tratar con M1 y superiores no es diferente de tratar con un proceso Wiener sin demolición. Y hay que aplicar en ella métodos bastante diferentes a los que se aplican cuando se trabaja con garrapatas y garrapatas ralentizadas.
La gente informa del éxito del método Warlock con ciertos ajustes....
Ellos tienen su propia tertulia y tú eres bastante superfluo en ella porque no entiendes nada.
No debes tocar el mercado para nada, no te gusta, y tú no le gustas a él.
Dejaré de hablar contigo.
3) La versión estándar de la MLE.
A menudo se utiliza como definición de MLE, pero esto reduce demasiado la aplicabilidad del método.
El supuesto utilizado es que todas las variables aleatorias de la muestra
a) son independientes y
b) tienen la misma distribución univariante con densidad p(x,a),
donde a es el parámetro a estimar.
Entonces la función de probabilidad L=p(x1,a)*p(x2,a)*...*p(xn,a), donde n es el tamaño de la muestra.
Sustituye la muestra (en el primer sentido) por x's, obtén L=L(a) y busca el amax en el que L alcanza el máximo.
Nótese que podemos maximizar LL(a)=log(L(a)) en lugar de L(a), porque el logaritmo es una función monótona y, convenientemente, sustituye al producto por la suma.
Para un ejemplo, considere la distribución exponencial p(x,a)=a*exp(-a*x), log(p(x,a))=log(a)-a*x,
derivada por el parámetro d(log(p(x,a)))/da=1/a-x.
Por lo tanto, tenemos que resolver la ecuación 1/a-x1+1/a-x2+...+1/a-xn=0 -> amax=n/(x1+x2+...+xn).
4) La próxima vez describiré cómo se obtiene el método de minimización de la suma de módulos en lugar de MNC)
Entonces, ¿maximizamos el centro de la distribución? ¿esencialmente cero sigma?
¿O el máximo no estará siempre en torno a cero sigma?
Foro sobre comercio, sistemas de comercio automatizados y pruebas de estrategias
Matstat-Econometría-Matan
Alexei Tarabanov, 2021.05.14 22:25
La verosimilitud es la probabilidad de entrar en un intervalo de confianza. ¿Y qué es la plausibilidad? En términos simples, sin una densidad de distribución conjunta.
Probabilidad de que la variable provenga de una distribución normal == máxima verosimilitud ?
Y, sobre la econometría, matstat y matan (¡Dios, qué nombres!) apoyo a Automat - esta tontería es aplicable sólo si el individuo ha captado la física del proceso. De lo contrario, todo son tonterías y no merece la pena prestarles atención.
Amén.
No te ofendas.
No lo entienden. Es más, no entienden nada de física. No les sirve de nada.
Dejémoslos en paz. Que se diviertan. Vamos a ver.
De hecho, no he visto ninguna mención a la utilización de SB y otros ruidos en las publicaciones quant para crear algo negociable, excepto las simulaciones para las pruebas. Y ese método es reconocido como ineficaz. Bueno, también para simular algo irreal para comparar con lo real y mostrar que es similar al ojo, pero absolutamente inútil. Los cuentapropistas están acostumbrados a pensar de forma más realista y a buscar algo donde realmente está. La econometría es muy útil porque puede predecir una onda sinusoidal y es fácilmente reemplazable por el aprendizaje automático. Y nadie ha descubierto todavía con qué sustituir el aprendizaje automático. Llegados a este punto podríamos dar por finalizado todo el filosofar sobre este tema por ser improductivo y no llevar a ninguna parte 😁
Ningún quant publicará nunca un modelo o enfoque de trabajo. Por lo general, firman un acuerdo de confidencialidad cuando son contratados.
Lo que publican ya no funciona o nunca ha funcionado, pero es interesante en términos de teoría.
Entonces, ¿estamos maximizando el centro de la distribución? en esencia, cero sigma?
¿O el máximo no estará siempre en torno a cero sigma?
Olvídate de la distribución normal) No te olvides de ella para siempre, sólo por un tiempo) Sigue apareciendo, pero en realidad hay un montón de distribuciones, tanto tabulares como sin nombre)
El punto de MLE es que tenemos un número infinito de modelos "numerados" por el parámetro. Según los resultados del experimento (muestreo en el sentido numérico) de ellos elegimos el que maximiza la probabilidad. La probabilidad (densidad de la distribución) es un concepto básico del teórico (se desprende directamente de los axiomas de la ciencia) y sólo se puede acostumbrar a su aplicación sin tratar de explicar a través de otros conceptos menos básicos.
El método MLE es tan básico que incluso ha migrado al aprendizaje automático (junto con la noción implícita de una distribución conjunta de rasgos y respuestas) )
Esto deja la cuestión de con qué familia paramétrica de modelos trabajar. Esta cuestión suele ser práctica y depende del objeto en cuestión.
¿Y es lo mismo?
Probabilidad de que una variable de una distribución normal == máxima verosimilitud ?El intervalo de confianza procede del ámbito de la estimación por intervalos de un parámetro, donde no se encuentra un valor concreto del parámetro, sino el intervalo en el que cae con una probabilidad determinada. Por ejemplo, todo el mundo considera sólo el valor numérico de Hearst y se alegra mucho de que no sea igual a 0,5. Pero en realidad hay que demostrar que con alta probabilidad Hirst cae en un intervalo que no contiene 0,5. Esto suele ser un gran problema).
El MLE pertenece al ámbito de la estimación puntual de un parámetro. El problema es ligeramente diferente, pero al igual que el anterior, su solución se basa en la noción de distribución muestral conjunta (en el segundo sentido). Por lo tanto, la afirmación "conozco los intervalos de confianza, pero no conozco la densidad de la distribución conjunta" consiste en dos afirmaciones mutuamente excluyentes)
Le sugiero que repase los métodos de uno en uno, en lugar de hacer un batiburrillo incomprensible de ellos.
Ningún quant publicará nunca un modelo o enfoque de trabajo. Por lo general, firman un acuerdo de confidencialidad cuando son contratados.
Lo que publican ya no funciona o nunca ha funcionado, pero es interesante en términos de teoría.