Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Sí, un paso en la dirección opuesta. Es decir, si se sube, la probabilidad de que se baje es del 40%, y si se baja, la probabilidad de que se baje es del 60%. Es la probabilidad de continuar la tendencia del paso anterior.
Ah, ahora me he dado cuenta de que p cambia en cada paso, es decir, es una función de (número de paso, y/o paso anterior, o todos los pasos anteriores). entonces obviamente estoy de acuerdo con todo lo que ha dicho Alexey.
Lo único es que si tomamos p con una gradación del 10%, es decir, de 0 a 10 habrá 10 pasos. Entonces, mediante la búsqueda estúpida de 10 a potencias de 10 podemos determinar la distribución más apropiada para un paso dado, y entonces si aplicamos el descenso de gradiente - más preciso. ¿Estoy en lo cierto?
Vale, gracias, lo intentaré cuando acabe el fin de semana.
Por definición, la distribución estacionaria no debe cambiar en cada paso. En este caso, cualquier distribución se "extenderá" en cada paso, aumentando la varianza.
Se trata de un enfoque un poco retrospectivo. El conjunto de variantes admisibles se establece de antemano (-10,-8,...0...8,10), y las probabilidades de detenerse durante 10 pasos exactamente en una de ellas sirven como probabilidades, cuyas frecuencias relativas se recogen para 10000 realizaciones de una variable aleatoria. Así, la distribución tiene sentido y no hay dispersión. El límite de las frecuencias relativas se toma no para el crecimiento ilimitado del número de pasos, sino para el crecimiento ilimitado del número de realizaciones de estos 10 pasos.
Este es un enfoque un poco al revés. El conjunto de variantes admisibles se establece de antemano (-10,-8,...0...8,10), y las probabilidades de detenerse exactamente en una de ellas en 10 pasos sirven como probabilidades, cuyas frecuencias relativas se recogen para 10.000 realizaciones de una variable aleatoria. Así, la distribución tiene sentido y no hay dispersión. El límite de las frecuencias relativas se toma no para el crecimiento ilimitado del número de pasos, sino para el crecimiento ilimitado del número de realizaciones de estos 10 pasos.
En absoluto. Este es el enfoque habitual para una cadena de Markov. Se te escapa que, además de la matriz de transición, el parámetro determinante es la distribución inicial, que no tiene por qué ser la que TC establezca: puntos (0,1) y (0,-1) con probabilidades de 0,5 cada uno. Si existiera una distribución estacionaria, tomada como distribución inicial, sería la misma después del décimo paso que antes del primero. Pero no existe tal distribución estacionaria para la cadena dada.
En absoluto. Este es el enfoque habitual para una cadena de Markov. Se te escapa que, además de la matriz de transición, el parámetro determinante es la distribución inicial, que no tiene por qué ser la que TC establezca: puntos (0,1) y (0,-1) con probabilidades de 0,5 cada uno. Si existiera una distribución estacionaria, tomada como distribución inicial, sería la misma después del décimo paso que antes del primero. Pero no existe tal distribución estacionaria para el circuito dado.
Lo siento, pero el problema es diferente. La TC no está calculando la probabilidad de que P(x) se detenga después de una ida y vuelta indefinidamente en un punto al menos tan grande como x. Esa sería la formulación habitual del problema. Analiza un histograma de la distribución, no del punto de parada (estacionario), sino de uno de los posibles estadísticos del proceso, situado a 10 pasos del punto de partida 0. Estadística inusual, sí. Ni la media, ni la varianza, ni la mediana, ni el cuartil. La condición de independencia de la historia (markoviana) ciertamente no se cumple, ya que claramente hay un desplazamiento de exactamente 1 desde el valor anterior. No en vano Alexander_K2 ha citado aquí un artículo sobre procesos no markovianos"Shelepin L.A. Processes with memory as the basis for a new paradigm in science" (cita la página 10).
Si hablamos de la mencionada distribución P(x), la distribución inicial gaussiana (normal) sería estacionaria (condicionalmente, sólo en la forma, con valores constantes decrecientes en 0 y dispersión creciente) en k=0,5. En el segmento que se expande con cada paso. No me gustaría justificarlo aquí, el campo está muy lejos - esquemas de diferencia para la ecuación de conducción de calor.
Lo siento, pero el problema es diferente. TC no está calculando la probabilidad de que P(x) se detenga después de un viaje de ida y vuelta indefinidamente en un punto al menos tan grande como x. Esa sería la formulación habitual del problema. Analiza un histograma de la distribución, no del punto de parada (estacionario), sino de uno de los posibles estadísticos del proceso, situado a 10 pasos del punto de partida 0. Estadística inusual, sí. Ni la media, ni la varianza, ni la mediana, ni el cuartil. La condición de independencia de la historia (markoviana) ciertamente no se cumple, ya que claramente hay un desplazamiento de exactamente 1 desde el valor anterior. No en vano Alexander_K2 ha citado aquí "Shelepin L.A. Procesos con memoria como base para un nuevo paradigma en la ciencia".
Si hablamos de la mencionada distribución P(x), la distribución inicial gaussiana (normal) sería estacionaria (condicionalmente, sólo en la forma, con valor constante decreciente en 0 y dispersión creciente) en k=0,5. En el segmento que se expande con cada paso. No me gustaría justificarlo aquí, el campo está muy lejos - esquemas de diferencia para la ecuación de conductividad térmica.
El problema habitual sobre la base de las cadenas de Markov: se da la distribución inicial en el espacio de estados y se necesita encontrar cómo cambiará para un determinado número de pasos. La analogía con la solución numérica de las ecuaciones en derivadas parciales es ciertamente visible, ya que la solución se construye sobre una red bidimensional.
No entiendo muy bien cuál es el problema de la parada: el momento de la parada está fijado y se conoce de antemano.
La distribución gaussiana no puede surgir aquí de ninguna manera: el espacio de estado y el tiempo son discretos.
Shelepin escribe tonterías. El markovismo está aquí -o se habla de una cadena de segundo orden, o el espacio de estados se construye a partir de vectores-, así lo hizo el propio Markov hace más de cien años al estudiar los textos de Pushkin.
El problema habitual en las cadenas de Markov es que la distribución inicial en el espacio de estados está dada y hay que encontrar cómo cambiará en un determinado número de pasos. La analogía con la solución numérica de las ecuaciones en derivadas parciales es ciertamente visible, ya que la solución se construye sobre una red bidimensional.
No entiendo muy bien cuál es el problema de la parada: el momento de la parada está fijado y se conoce de antemano.
La distribución gaussiana no puede surgir aquí de ninguna manera: el espacio de estado y el tiempo son discretos.
Shelepin escribe tonterías. Hay aquí un carácter markoviano - o bien se habla de una cadena de segundo orden, o bien el espacio de estados se construye a partir de vectores - esto lo hizo el propio Markov hace más de cien años al estudiar los textos de Pushkin.
No voy a discutir sobre los nombres, tal vez tanto TC como Shelepin, y Alexander (y yo también) llaman incorrectamente a ese proceso aleatorio unidimensional con dependencia explícita de cada valor sucesivo del anterior, no es markoviano. Que así sea. Y en cuanto a la imposibilidad de la distribución gaussiana, pues resulta que tengo una hoja de cálculo excel desde hace mucho tiempo, donde es bien visible. Después de 212 pasos desde el punto 0, la probabilidad se extiende a éste:
Adjunto el archivo con la tabla. Allí sólo con k=0,5 se suman las probabilidades desde el punto de tiempo anterior hasta el punto de tiempo actual. Probar en detalle, repito, aquí no es necesario. La ilustración con la tabla de valores es suficiente.
No voy a discutir sobre los nombres, Tal vez tanto TC como Shelepin y Alexander (y yo también) llaman incorrectamente que un proceso aleatorio unidimensional con dependencia explícita de cada valor sucesivo en el anterior, no es markoviano. Que así sea. Y en cuanto a la imposibilidad de la distribución gaussiana, resulta que tengo una hoja de cálculo excel desde hace mucho tiempo, donde se ve claramente. Después de 216 pasos desde el punto 0, la probabilidad se extiende hasta éste:
Adjunto el archivo con la tabla. Allí sólo con k=0,5 se suman las probabilidades desde el punto de tiempo anterior hasta el punto de tiempo actual. Probar en detalle, repito, aquí no es necesario. La ilustración con la tabla de valores es suficiente.
¿Es toda función en forma de campana la densidad de una distribución normal? ¿Qué le impide, por ejemplo, ver la densidad de la distribución beta en su ilustración?
Sospecho que este hilo no fue creado por accidente :)))
Recuerdo que de alguna manera se consigue reducir la distribución doble gamma de los incrementos en el mercado a la normalidad pura... Y ahora está buscando una respuesta a la pregunta: ¿qué es lo siguiente?
Apoyo a Bas con su consejo: tienes que pasar a las opciones. Obviamente, el modelo Black-Scholes debería funcionar con tus datos.
¿Es toda función en forma de campana una densidad de una distribución normal? ¿Qué le impide, por ejemplo, ver la densidad de una distribución beta en su figura?
Nada impide ver la densidad de la distribución beta. En la imagen, por cierto, el efecto del borde ya se nota - a la izquierda la probabilidad no disminuye tan rápido, es el borde de la mesa allí. En la derecha no se nota tanto, pero la tabla sigue estando acotada. Y la distribución normal no tiene límites. Al igual que una varilla infinita, cuyas piezas se transfieren calor entre sí en lugar de probabilidades (una gota al rojo vivo que cae del electrodo de un soldador sobre una larga varilla de refuerzo genera una distribución de temperatura gaussiana en cada momento, con una dispersión cada vez mayor). No voy a demostrarlo aquí.