Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 738

 

La base de Michael está bien. Un buen ejemplo para los que buscan un punto de partida.

Tiene algunos buenos indicadores, creo que incluso de la bolsa, que ya es mejor que el estándar mashka y rsishka. Luego no se limita a meter todo esto en el neuroncu, sino que también evalúa los indicadores por diversos medios y selecciona los más adecuados para la predicción. Entonces se entrena la neuronaka, pero no una simple, sino una con control de sobreajuste incorporado. Y toda esta estrategia se comprueba en el probador utilizando el walk-forward.

SanSanych ya describió un esquema de este tipo al principio de este hilo, finalmente alguien se decidió a utilizarlo. De lo contrario, muchos operadores pueden querer poner más indicadores en las neuronas sin pensar.

También preprocesaría los indicadores a través de vtreat o caret. Y una neuronka más adecuada con kfold. Y yo tomaría más ejemplos para la formación, estoy de acuerdo con otras críticas.

 

¡¡Lo sé, hermanos!! Te lo diré todo de una vez... Cada uno baila en la medida de su educación, pero es el resultado final el que resuelve nuestra disputa. El resultado, por así decirlo. Hasta ahora estoy ganando, porque el depósito está creciendo. Sé que mi enfoque es uno de los correctos.

Por cierto, uso vtreat para seleccionar predictores importantes + trucos con la baraja.

Esto se discutirá en detalle en el artículo sobre BOO.

 
Mihail Marchukajtes:

¡¡Lo sé, hermanos!! Te lo diré todo de una vez... Cada uno baila en la medida de su educación, pero es el resultado final el que resuelve nuestra disputa. El resultado, por así decirlo. Hasta ahora estoy ganando, porque el depósito está creciendo. Sé que mi enfoque es uno de los correctos.

Por cierto, uso vtreat para seleccionar predictores importantes + trucos con la baraja.

El artículo sobre el BO hablará de esto en detalle.

Más arriba has escrito sobre la información mutua. ¿Qué tiene que ver?

 
SanSanych Fomenko:

Usted escribió más arriba sobre la información mutua. ¿Qué tiene eso que ver?

El criterio decisivo a la hora de elegir el modelo a utilizar. Prepara el ditset. Se entrena 10 veces. Obtenemos 10 modelos con los mismos resultados de entrenamiento (como ejemplo) donde el número de errores de entrenamiento es el mismo para todos los modelos. A continuación, guardamos los resultados del modelo en la sección de formación no en forma binaria, sino en una tabla. El resultado del cálculo del polinomio se calcula inicialmente en dable......

A continuación, calculamos el VI de los polinomios en relación con la salida. Se considera que los modelos que funcionan tienen un VI superior a la entropía de salida o simplemente más de 0,7 aproximadamente....

Elija un modelo con una OI alta, pero no superior a 0,95. Aunque todavía no lo he comprobado.... IMHO

 

En cuanto al aumento de la muestra de entrenamiento. Sí, se puede aumentar, pero disminuirá la calidad de la red, lo que conlleva una disminución de las transacciones. La red empieza a funcionar durante más tiempo, pero el número de estados "No sé" aumenta y resulta que la red funciona con menos frecuencia. Con este enfoque es necesario entrenar varios modelos y ejecutarlos en paralelo.


Más aún, el periodo de formación me lo dicta ahora vtreat.R. Que con mis datos de entrada me ofrece conjuntos de entradas para diferentes longitudes de muestra. Elijo el período máximo de aprendizaje con el número máximo de variables de entrada que elige....Y curiosamente, gira de 20 a 50 muestras. Al parecer, mis entradas son así. Qué puedo hacer...

 

Mihail Marchukajtes:

...

Un criterio decisivo para elegir el modelo a utilizar

...

Intentaré traducirlo a MO:

Aunque el modelo es de clasificación, puede devolver el resultado no sólo en binario 0 y 1, sino también la probabilidad de pertenencia a una clase (un número fraccionario de 0 a 1). Por lo tanto, el modelo puede estimarse no sólo con métricas de clasificación, sino también con métricas de regresión. No sé por qué se eligió la información mutua, pero se correlaciona bien con el MOC, así que está bien.

En R se puede calcular así
biblioteca(entropía)
mi.plugin(rbind(target,prediction))
Aquí, cuanto más pequeño sea el resultado, mejor.

 
No estoy seguro de lo que es:

Por supuesto, pero en estadística el error (variación) es proporcional a 1/sqrt(N) donde N es el número de observaciones, aquí todo depende de la variación inicial, cuanto más sea, más observaciones se necesitan para ajustar el error al cuantil del 5%

"Busca a alguien que se beneficie de ello" ((c) Lenin)

Solo se muestran y venden públicamente herramientas inútiles o incluso perjudiciales, por razones obvias, esta verdad trivial debe tenerse siempre presente, el altotrading no es una franquicia de webdesign o alguna otra, es un robo funcional directo de dinero del mercado, todo lo que es abierto y de fácil acceso, y mucho menos publicitado, a priori no puede ser útil en este contexto, basura o estafa, por lo agresivo y competitivo del entorno que tenemos.

Sí, bueno, la tasa de ganancia del 5 por ciento y una abundancia infinita de herramientas disponibles públicamente es un Klondike.

Y recientemente tuve que hacer un componente de red neuronal personalizado, que lo probó tres órdenes de magnitud mejor que el astuto DNN de TensorFlow.

Y lo más importante, no había matemáticas complicadas ni tecnologías complicadas, sino una solución sencilla, aunque original.

En este contexto, la adhesión de Mikhail al diseño de Reshetov no me sorprende en absoluto.

 
Nolo sé:

Eso es lo que quiero decir, sólo eso. Si tomo 40 muestras a través de mi infraestructura, tampoco puedo dar fe del resultado, y 4000 puntos es muy poco. A menos, claro, que hablemos de estrategias de combate y no de estrategias de artículos.

Me adhiero a la siguiente regla general - un EA en datos nuevos no funcionará durante más del 10% de las barras entrenadas. Si he entrenado en 4000 barras, significa que este EA no funcionará para más de 400 barras. Por ejemplo, si quiero operar una semana en m15, necesito al menos 4800 (4*24*5*10, 10 semanas) barras de historia para el entrenamiento.

Algún día MT5 introducirá hilos paralelos en los expertos para poder optimizar el Asesor Experto en segundo plano y entonces será posible realizar experimentos interesantes con un número extremadamente bajo de barras y quizás pueda hacerlo con 40 barras. Aunque probablemente no podré hacerlo. Aunque tenga menos de 1000 muestras el resultado de las neuronas se inclina hacia la tendencia y en cuanto cambia es malo.

 
Mihail Marchukajtes:

En cuanto al aumento de la muestra de entrenamiento. Sí, se puede aumentar, pero disminuirá la calidad de la red, lo que conlleva una disminución de las transacciones. La red empieza a funcionar durante más tiempo, pero el número de estados "No sé" aumenta y resulta que la red funciona con menos frecuencia. Con este enfoque es necesario entrenar varios modelos y ejecutarlos en paralelo.


Más aún, el periodo de formación me lo dicta ahora vtreat.R. Que con mis datos de entrada me ofrece conjuntos de entradas para diferentes longitudes de muestra. Elijo el período máximo de aprendizaje con el número máximo de variables de entrada que elige....Y curiosamente, gira de 20 a 50 muestras. Al parecer, mis entradas son así. Qué puedes hacer...

No es que la calidad de la red disminuya, sino que habrá menos sobreajustes y tu modelo aparecerá en todo su esplendor y pobreza

Mi neurona de Reshetov opta por 3 meses para más de 1000 operaciones en 3 fics inteligentes, y funciona para cero en real. Y otras neuronas optimizan aún mejor. No sé por qué sigues diciendo semejantes tonterías con tus 100 oficios, eres tan estúpido, tu autocuidado o quieres demostrarle algo a alguien?
 

hmm... ¡buenas tardes!)

¿es la palabra 'curwafitter' algo neural?