Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 111

 
Mihail Marchukajtes:
Y tú sigues intentando frenar el mercado de los minutos en 5 años?????? Estas 71 observaciones, dos semanas de negociación en 5 minutos si todo...... Y sólo comprando. Así que vete a por ello..... ¿O te has desinflado?
de qué está hablando... es una locura.
 
Dr.Trader:

Como he dicho antes, esta métrica es inútil.

Los datos se dividen aleatoriamente en 2 partes aproximadamente iguales, luego se entrena el modelo sólo en la primera parte y se prueba en ambas a la vez. Una generalizabilidad de ~75% significa que el modelo al final predice correctamente el 75% de, en general, todos los ejemplos del archivo.
Hay varias maneras de que el modelo alcance el 75%:
1) El modelo se entrena con una precisión del 100% en los datos de entrenamiento, y falla completamente en los nuevos datos en la segunda parte del archivo, donde obtiene el 50% (lo mismo que lanzar una moneda). La media sería exactamente el 75%. Esto es un desarrollo muy malo y será malo en el comercio.
2) El modelo fue entrenado con una precisión del 75% en los datos de entrenamiento y mostró el mismo 75% en los datos de prueba, lo que supone de nuevo un 75% de media. En esta situación, que es el mejor de los casos, existe la posibilidad de ganar algo.
3) Cualquier opción intermedia entre estas dos.

Su opción es probablemente más cercana a la primera. Hay que tener mucha suerte para operar con esos resultados, supongo que no habrás perdido tu depósito sólo gracias al indicador que te sirve de señal principal (sequent, o lo que sea). Creo que un Asesor Experto basado en este indicador dará tan buen resultado como el indicador + jPrediction.

¿Cómo sabe calcular el poder de generalización? Reshetov lo sabe, creo que el cálculo se basa únicamente en los datos de las pruebas, como dijo antes...... Si las secuencias clásicas fueran factibles no utilizaría el predictor, pero por desgracia... es tan agotador como cualquier otra cosa. En cambio, la adición del clasificador la mejora bastante. Una vez más escribiré que 71 observaciones es el trabajo de TS durante una quincena en 5 minutos. Se trata de un intervalo bastante aceptable para este plazo. No estoy acostumbrado a retocar las parrillas durante medio año o más. Yo entrené durante 2 semanas, gané un día y terminé, mientras que tú sigues buscando el grial. Y sí, entreno modelos todos los días. Por la mañana. Lo bueno es que el tiempo de optimización es ahora MUY razonable.....
 
mytarmailS:
De qué está hablando... Eso es una mierda.
Bueno, lo que no entiendes???? ¿O está más allá de su comprensión????
 
Mihail Marchukajtes:
Bueno, lo que no entiendes???? ¿O está más allá de su comprensión????

Te pregunto cómo mides la capacidad total y me hablas de años de historia y alguna otra tontería...

Yo no puedo medir la capacidad general de una manera y tú no puedes medirla de otra, pero no tienes ni idea de cómo medirla, todo lo que puedes hacer es buscar los números en lajPrediction sin tener la menor idea de dónde y cómo vienen, así que cuando te hacen preguntas específicas empiezas a decir tonterías sobre años de historia, etc. Déjalo... Por favor...

 
mytarmailS:

Te pregunto cómo mides la capacidad total y me hablas de años de historia y alguna otra tontería...

Yo no puedo medir la capacidad general de una manera y tú no puedes medirla de otra, pero no tienes ni idea de cómo medirla, todo lo que puedes hacer es buscar los números en lajPrediction sin la menor idea de dónde y cómo vienen, así que cuando te hacen preguntas específicas empiezas a decir tonterías sobre los años de historia, etc. Déjalo... por favor...

Puede que ya haya explicado que uso el predictor de Reshetov, cómo mide la generalizabilidad, estas son preguntas para Yury. Pregúntale. Aunque dio las fórmulas y las recuerdo en términos generales, pero no entiendo por qué me lo pregunta. Sólo soy un usuario de su programa y no más.....
 
Mihail Marchukajtes:
Creo que el cálculo se basa sólo en datos de prueba

Si es así, me alegro, es mucho mejor.

En cualquier caso, la prueba frontal muestra resultados mucho mejores. He dividido su archivo en 2 partes (sin barajar, sólo en orden), la primera parte tiene 50 líneas, la segunda 19. Así que jPrediction no tiene acceso a los ejemplos del segundo archivo, y serán datos realmente nuevos para el modelo.

Al final, en el segundo expediente, JPrediction sólo dio una respuesta en 9 casos. Acertó en 5 casos, se equivocó en 4. La precisión es de alrededor del 50%, nada bueno en este resultado.

Archivos adjuntos:
 
Dr.Trader:

Si es así, me alegro, es mucho mejor.

En cualquier caso, la prueba frontal muestra un resultado mucho mejor. He dividido su archivo en 2 partes (sin barajar, sólo en orden), la primera parte tiene 50 líneas, la segunda 19. Así que jPrediction no tiene acceso a los ejemplos del segundo archivo, y serán datos realmente nuevos para el modelo.

Al final, en el segundo expediente, JPrediction sólo dio una respuesta en 9 casos. Correcto en 5 casos, erróneo en 4. La precisión es de alrededor del 50%, nada bueno en este resultado.

De acuerdo. Hay que trabajar en los datos de entrada.....
 
Dr.Trader:

Si es así, me alegro, es mucho mejor.

En cualquier caso, fronttest muestra resultados mucho mejores. Dividió su archivo en 2 partes (sin barajar, sólo en orden), la primera parte tiene 50 líneas, la segunda 19. Así que jPrediction no tiene acceso a los ejemplos del segundo archivo, y serán datos realmente nuevos para el modelo.

En consecuencia, en el segundo expediente JPrediction sólo dio respuesta en 9 casos. Correcto en 5 casos, equivocado en 4. La precisión es de alrededor del 50%, no hay nada bueno en este resultado.

19, 50, que es más. Tome cualquier ejemplo de la base de datos de conjuntos de datos con al menos cientos de líneas.

Para mí este software no es adecuado, aunque sólo sea porque yo mismo preferiría recoger los parámetros y desglosar los datos. Pero como nivel de entrada creo que sería interesante.

 

¡Reshetov!

Mi oferta sigue en pie.

 
mytarmailS:

Hola, Yuri.

Hay preguntas )) sobre la búsqueda secuencial ...

digamos que tenemos 10 predictores

1, 2, 3, 4, 5, 6, 7, 8, 9, 10

el grupoverde es el grupo de predictores que ha mostrado la mejor capacidad de generalización exactamente a este grupo se añadirán otros predictores N+1

el gruporojo, es el grupo que es ligeramente peor que el verdey no participará en las pruebas, todas las pruebas se centran ya en el grupo verde

Pregunta: ¿y si después de todos los ensayos con otros N+1 predictores uno por uno, resulta que en el resultado final el grupo rojo tiene una mayor capacidad de generalización, es esto también bastante realista, o estoy entendiendo algo mal ???? Por favor, aclárese.

Si quieres obtener una respuesta inequívoca sin mirar los datos y los algoritmos, mejor acude a SanSanych Fomenko, porque él con cara de listo te amonestará con instrucciones "precisas y valiosas" sobre cualquier tema, independientemente de su ambigüedad.

Y si quieres una respuesta más precisa, haz una prueba A/B, es decir, en un caso prueba a unir el rojo con el negro al verde, y en el otro, sólo el negro. Cualquier opción que obtenga la mejor generalización de los resultados del experimento es la más correcta para su tarea.

La cuestión es que los resultados de la experiencia son siempre el criterio de la verdad.

Por ejemplo, hoy he estado probando el centrado de datos para jPrediction. Los resultados fueron pésimos o ligeramente mejores en diferentes muestras. Aunque para la cuadrícula de retropropagación, el centrado ofrece una mejora notable. Tuvo que dejar la normalización lineal.

Y si no hiciera pruebas A/B, sino que en lugar de la experiencia, tomara "conocimientos preparados" de algún librito o conferencia sobre aprendizaje automático, o preguntara a algún sabelotodo, obtendría la respuesta de que el centrado es supuestamente "mejor" que la normalización lineal. Aunque la experiencia demuestra que esto no es inequívocamente cierto para todos los algoritmos.

Ese es el tipo de pastel.