Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1227
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Las fichas son una moneda de diez centavos en general, es difícil decir algo útil, y las específicas, bueno, ya sabes...
Hay una serie de "reglas" que permiten evitar errores graves en la construcción de las características con las series de tiempo, en particular, uno de los más violados es la banal "mezcla" de las características con los objetivos, las características deben ser estrictamente del pasado, y los objetivos de los puntos estrictamente del futuro, esta separación debe ser a nivel de algoritmo de conversión de la serie en el conjunto de datos, y no como todo el mundo hace todo tipo de indicadores a continuación, cortar para trazar y probar, cambiar algo en alguna parte y así sucesivamente. Deberíamos cortar la serie inicial y luego utilizar ventanas deslizantes (pasadas y futuras) para recorrer la serie y obtener características y objetivos por separado para Lerne y la prueba, o incluso para la validación. Por supuesto, puede hacerlo con indicadores, si sabe con seguridad que el indicador para las características no está mirando hacia adelante y para los objetivos no está mirando hacia atrás. Hay algunos errores más sutiles, pero no hablaré de ellos ahora.
Las transformaciones en sí mismas pueden ser diferentes, desde las triviales (retorno, variación, cambio de volumen, delta de pila, distribución de tratos, etc.) hasta todo tipo de exóticas.) docenas de estadísticas personalizadas específicas obtenidas por "inspiración" o agrupación que resultaron ser útiles, como "tendencia/verano" mencionada por Inokentiy anteriormente, así como "orden/haos", etc.) Algunas estadísticas son válidas para diferentes plazos, otras no, algunas características funcionan para algunos instrumentos, otras no, hay que saber filtrar y seleccionar los atributos para la orientación. Hay muchas cosas, modelos ARMA estándar , GARCH ... Predicción macro a medio y largo plazo como características, etc. No he llegado a hacer NLP\NLU para el análisis de flujos de texto, de redes sociales, etc. Ahí es donde se necesitará sin duda alguna el chapuzón.
Cuando estaba repitiendo los artículos de Vladimir Pererwenko, hice un experimento adicional - sin indicadores adicionales(filtros digitales para los últimos artículos), es decir, puramente en los precios. El resultado fue sólo un par de veces peor. E incluso entonces creo que es sólo un entrenamiento menos exitoso de NS (diferente mezcla e inicialización de pesos, y OHLC no eran del artículo, sino de mi servidor). NS hará fácilmente cualquier indicador dentro de sí mismo si lo necesita para las predicciones. Creo que no es necesario adivinar qué DF con qué parámetros (LPF/FTF/pasabanda o algún MA) es útil para la predicción. La NS lo hará todo con OHLC por sí misma.
Pero sobre los errores más sutiles sigue siendo interesante saber...
Es una pena que la información útil sobre la MO para BP esté dispersa en más de 1200 páginas. Me gustaría que todo estuviera en un solo lugar. Si no se trata de ideas de trabajo, por lo menos los callejones sin salida como ZZ, PCA y los avances y retrocesos.
Así que el "grial" sólo puede estar en el contexto de la ultra-explotación, o más bien estaba allí cuando no existía esa turbia regulación, o una información privilegiada que está a disposición de los tipos que sin ella sólo pueden imprimir pasta en una crisis y comprar sus bonos con ella))
Ya estamos otra vez...
Me importan una mierda tus trillones y tus insiders, ya sabes el dicho "un perro ladra pero la caravana rastrea", no necesitamos tus insultos a la casa de bolsa donde te dejaste tus últimas cien libras, el mundo no es justo, tú tienes mala suerte, y yo tendré suerte, hago un millón de cien, y si no lo vuelvo a intentar, hasta que lo haga.
No nos impida soñar con yates e islas y hacer realidad nuestros sueños paso a paso. Ni siquiera saben dónde descargar a Voronov y cómo distinguir una tendencia de un piso.
Ya estamos otra vez...
Ya sabes lo que dicen: "El chucho ladra y la caravana rastrea". No necesitamos tus insultos a la casa de bolsa en la que dejaste tus últimas cien libras, el mundo no es justo, tú tuviste mala suerte y yo la tendré, ganaré un millón de cien y si no, lo volveré a intentar hasta conseguirlo.
No nos impida soñar con yates e islas y hacer realidad nuestros sueños paso a paso. Son todos "gurús" que no saben ni siquiera dónde descargar a Voronov y cómo distinguir una tendencia de un piso.
Sé que nadie lo ha probado, pero tal vez:
clasificar las operaciones por beneficios/pérdidas, respectivamente, al dividir las operaciones en clases dar más probabilidad a las más rentables, a las menos rentables alrededor de 0,5. Es decir, basta con ordenar las ofertas por eficiencia y asignarles probabilidades, está claro que las ofertas más eficaces aparecerán menos, y las más ruidosas, más.
¿merece la pena experimentar? ¿debería disminuir el error?
Sé que nadie lo ha probado, pero tal vez:
clasificar las operaciones por ganancias/pérdidas, respectivamente, al dividir las operaciones en clases, dar más probabilidad a las más rentables, a las menos rentables alrededor de 0,5. Es decir, basta con ordenar las ofertas por eficiencia y asignarles probabilidades, está claro que las ofertas más eficaces aparecerán menos, y las más ruidosas, más.
¿Vale la pena experimentar? ¿El error debería disminuir?
1 2 En parte sí, un fenómeno de moda, pero es mi opinión, en sí mismo el "deep learning" no es en realidad la regresión/clasificación en sí, sino una forma de extraer características organizadas jerárquicamente de forma bastante simplea partir de datos de cierto tipo, por ejemplo las imágenes de píxeles dibujadas por la luz reflejada que llega a una cámara desde el "mundo real", por sí mismas como brillos de los píxeles, son características muy malas si las metes tal cual en un clasificador y la CNN hace una especie de "decorrelación de píxeles adyacentes" y compresión de la dimensionalidad, en múltiples pasadas, algo similar se puede hacer si agrupamos las imágenes en pequeños fragmentos, en general el "aprendizaje profundo" es una especie de agrupación en múltiples pasadas y luego alimentar "características de alto nivel" en un clasificador regular. El tema es ciertamente muy interesante, pero ya es hora de desarrollarlo teóricamente, no sólo de "ananalizar" con redes neuronales de diferente arquitectura entrenadas por backprop terriblemente lentas. Pero, una vez más, todavía no he conseguido que el diplerning sea amigable con el mercado, aunque la cuestión está abierta, porque es demasiado caro experimentar en esta dirección, como bien has señalado.
3 No tienes que poner constantes en las hojas del árbol, puedes poner modelos lineales, o más complejos, entonces habrá "extrapolación" más allá de la nube de puntos))
4 Tienes algo mal y el bosque y la potenciación pueden hacer regresión, no hay problema.
3. es decir, puede combinar y poner otros modelos en las hojas de los modelos del árbol de solver, me pregunto cómo funciona, por favor, dar un ejemplo real.
4. No se confunde y veo el problema, porque hasta ahora no he conocido la implementación en andamios del problema de regresión con muchas salidas (variables dependientes) como en las redes neuronales.
Tomemos, por ejemplo, la función de construcción de bosques aleatorios de la biblioteca MQL alglib.mqh
es decir, cuando el número de variables dependientes es superior a uno, esta función sólo puede resolver el problema de clasificación. Trae tu implementación con solución a este problema, y por favor en código, después de todo estamos en un foro de programadores :)
Sé que nadie lo ha probado, pero tal vez:
clasificar las operaciones por beneficios/pérdidas, respectivamente, al dividir las operaciones en clases dar más probabilidad a las más rentables, a las menos rentables alrededor de 0,5. Es decir, basta con ordenar las operaciones por eficiencia y asignarles probabilidades, está claro que las operaciones más eficientes aparecerán menos, y las más ruidosas aparecerán más.
¿Vale la pena experimentar? ¿El error debería disminuir?
Si es en tester y para llegar a los puntos de entrada correctos indirectamente, a través de la rentabilidad de las ofertas, por qué no encontrarlos de una vez e ideal, por series de precios, aunque ya lo pedí en la rama de Montecarlo:)
entonces habrá pocos ejemplos y los nuevos datos nos harán un ciego perdedor, necesitamos que "vea" todo lo posible en su vida
no se puede ir a por un zigzag ideal porque no se van a encontrar características, debe ser un proceso de doble filo de probar todo simultáneamente :)
Ya estoy pensando si tomar más clases en lugar de 2
entonces habrá pocos ejemplos y sobre los nuevos datos ns volverán ciegos perdidos, ella debe "ver" en su vida tanto como sea posible
es lógico, pero por otro lado puede ser mejor ver menos y negociar sólo una cosa segura en lugar de señalar continuamente y aumentar el riesgo.
Siempre busco errores en una muestra de prueba. Esta "cosa segura" sólo aparece para un ser humano, nosotros "pensamos" de manera diferente.
Creo que la forma de pensar de una red neuronal... no le importa si es algo seguro o no, mientras pueda generalizar
si pones una porquería en el rango de 0,5, y los picos son oficios de calidad, mejoraría la capacidad de generalización... habría que comprobarlo, claro, porque no se puede hacer a ojo