Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1042
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Mientras te cansas de golpear el hielo, piensa en el hecho de que ambas escalas de precio/tiempo no son intrínsecamente lineales. Eso si lo enfocas desde una perspectiva de puro algo-trading (sin entender el mercado).
El tiempo es con lo que medimos los procesos periódicos. El tiempo tiene poco significado cuando se miden procesos que tienen una naturaleza aleatoria de ocurrencia.
La escala de tiempo en intervalos pequeños (de tic, "cuánticos") es no lineal y aleatoria, parece que para los eventos de dimensión de tic, el tiempo como factor significativo no existe en absoluto.
En los intervalos grandes, debido a la superposición de la heterogeneidad diaria, semanal, relacionada con los comunicados de prensa y otros periódicos, la escala temporal puede considerarse más cercana a la lineal y la importancia del tiempo aumenta.
No puedes. Compruebe las divisas para el índice Hearst. Muestra claramente la aleatoriedad del mercado. ¿Y qué se puede hacer en un mercado aleatorio? Sólo Martin. Pero, por otro lado, hay ineficiencias en el mercado de diferentes tiempos de existencia. Y ganan dinero con ellos. Y esto no es casualidad. Por lo tanto, debemos avanzar en la búsqueda de ineficiencias. Me gustaría automatizar este proceso. Pero no sé por dónde empezar. Las redes neuronales no son adecuadas para esto. Necesitan patrones preparados para el aprendizaje.
¿Y por qué no aprovechar lo que evidentemente existe y funciona, lo que ha salvado nuestro plan del colapso durante miles de millones de años, y lo que ayuda a los algotraders a optimizar y ajustar sus EA: la inercia y la memoria del mercado?
En el siguiente hilo, justo en el primer post, se afirma que no hay trucos que puedan destruir la fijación de precios sin marca, aunque el resto de su discusión, en torno a las distribuciones de garrapatas y las difusiones intergrupales, IMHO es adecuado tal vez sólo para la investigación de filtros para dataphids, pero estamos en el tema MO :)
Y las redes neuronales, en mi opinión, para esta tarea son las mejores...
Yooooooooo.... ¿Dónde se ha visto que un hilo haya bajado de la primera página????? Sí.... ustedes lo están dirigiendo... lo has puesto en marcha. Mientras tanto me va bien y los resultados son bastante alentadores y todo gracias a un error accidental :-)
Era así...... Por ejemplo...
Y ahora es así.... ¿Alguien puede decir si los datos han mejorado o no????
Realmente hay muchas preguntas. Cómo interpretar el gráfico de componentes principales????? Sigue siendo una pregunta Estos dos conjuntos de datos se toman durante el mismo período de tiempo. El objetivo es el mismo, pero guardar los predictores se hizo de dos maneras diferentes. Así que. ¡¡¡¡¡Sus estadistas de salida, esta tarea es sólo para usted!!!!!
¿Cuál de los conjuntos de datos dados es mejor? La primera o la segunda. ¡¡¡¡¡Su opinión señores!!!!!
Y luego te daré mi opinión...... ¿DE ACUERDO?
No pude pasar de las 2 páginas de este hilo.
Sólo daré mi opinión. Así que el aprendizaje automático es un conjunto de estadísticas sobre una herramienta, el análisis y el propio algoritmo según el resultado del trabajo realizado, pero... Hay una nota importante, ningún algoritmo puede garantizar que se obtenga el resultado deseado si se cumplen todas las condiciones, y esto significa que no importa cuántos datos se analicen y compliquen los algoritmos de toma de decisiones, siempre habrá una probabilidad del resultado esperado.
Se trata de la probabilidad con la que se negocia y, en consecuencia, hay que buscar el resultado de mayor probabilidad. El mercado en sí es monótono, según mi análisis (que no fue preciso tanto para los largos como para los cortos), el mercado para un mismo intervalo de tiempo da aproximadamente la misma cantidad (49%/51% o 51%/49%) de operaciones rentables en ambas direcciones.
Por lo tanto, el algoritmo de toma de decisiones debe basarse en la mayor probabilidad estimada (cualitativa) del resultado con filtros adicionales a su discreción.
Yooooooooo.... ¿Dónde se ha visto que un hilo haya caído por debajo de la primera página????? Sí.... ustedes lo están dirigiendo... lo has puesto en marcha. Mientras tanto me va bien y los resultados son bastante alentadores y todo gracias a un error accidental :-)
Era así...... Por ejemplo...
Y ahora es así.... ¿Alguien puede decir si los datos han mejorado o no????
Realmente hay muchas preguntas. Cómo interpretar el gráfico de componentes principales????? Sigue siendo una pregunta Estos dos conjuntos de datos se toman durante el mismo período de tiempo. El objetivo es el mismo, pero guardar los predictores se hizo de dos maneras diferentes. Así que. ¡¡¡¡¡Sus estadistas de salida, esta tarea es sólo para usted!!!!!
¿Cuál de los conjuntos de datos dados es mejor? La primera o la segunda. ¡¡¡¡¡Su opinión señores!!!!!
Y luego te daré mi opinión...... ¿DE ACUERDO?
Michaelo llegó al PCA... ¿por qué, te pican las manos? )
el gráfico de componentes principales debe interpretarse en una base ortogonal :D
¿los rojos son ortos predictores y qué significan los números?
Michaelo llegó al PCA... ¿por qué, te pican las manos? )
El gráfico de componentes principales debe interpretarse en una base ortogonal :D
Entonces, ¿cuál es mejor?
Entonces, ¿cuál es mejor?
Bueno, el segundo, el 55%.
el segundo, el 55%.
No hay un 55% en el gráfico de componentes principales(primer gráfico). El 55% es el gráfico de agrupación donde en ambos casos los datos representan dos áreas bien diferenciadas. Uno es mejor que el otro y volvamos al primer gráfico. ¿Por qué el de abajo es mejor que el de arriba? ????
¡¡¡¡Para ello hay que saber interpretarlos!!!!
No hay un 55% en el gráfico de componentes principales(primer gráfico). El 55% es un gráfico de agrupación en el que en ambos casos los datos representan dos áreas bien diferenciadas. Uno es mejor que el otro y volvamos al primer gráfico. ¿Por qué el de abajo es mejor que el de arriba? ????
¡¡¡¡Para ello hay que saber interpretarlos!!!!
pues si los números son puntos entonces la varianza de los 2 componentes es menor en el segundo que en el primero, ¿no?
http://setosa.io/ev/principal-component-analysis/
Gira los gráficos con el ratón y lee, te harás una idea.
Bueno, si los números son puntos, entonces la varianza en el segundo componente es menor que en el primero, ¿no?
http://setosa.io/ev/principal-component-analysis/¡¡¡¡Acordado!!!! Pero eso no es todo... Resulta que la segunda gráfica es mejor porque hay vectores que están lo más cerca posible de los ejes cero. No es tan obvio en este ejemplo, pero ahora nos encontramos con conjuntos de datos de este tipo en los que los vectores de componentes coinciden con los ejes cero y dividen el campo en 4 casillas pares. En el primer caso, los ejes componentes están dispersos entre los ceros, mientras que en el segundo, hay vectores componentes que están lo más cerca posible de los ceros. Conociendo el nombre del predictor, entrenamos el optimizador siempre que las entradas sean los predictores que forman el vector de componentes más cercano al eje cero y no importa en qué dirección. ¡¡¡Una vez más, esto es mi IMHO!!! ¡¡¡¡Por eso quería aclarar cuánta razón tengo!!!!