Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1045

 
Maxim Dmitrievsky:

Mientras nadie me empuje, es muy difícil moverse en esta dirección, no estoy operando en este momento, termino el sistema cuando estoy en el estado de ánimo ... porque tengo que pensar allí, y no me gusta pensar

Estoy de acuerdo, tengo el mismo problema. He estado pensando, hay algo que se puede ver (me refiero al monitor de la cuenta) o escuchar con lo que me he enfrentado.
 
mytarmailS:

Sí, mejor pasarse un año en teoría e implementación de diferentes transformaciones que pasarse 5 min en python o R para entender que esta mierda no funciona, la lógica es lo más fuerte, oye, ¿por qué no creas tu propio lenguaje de programación? por qué necesitas mql, c++ o lo que sea que tengas sentado...

El problema no es la teoría, sino la forma de entenderla, además del enfoque adecuado para presentar todo lo aprendido durante el análisis.

Hay veces que una persona hace un trabajo hercúleo de recopilación y sistematización de datos, pero no los aplica correctamente.

 
Farkhat Guzairov:

Hay veces que una persona hace un trabajo hercúleo de recopilación y sistematización de datos, pero no los aplica correctamente.

Estoy de acuerdo, sucede.

 
Vizard_:

Joder, has prometido enseñarme el equis en el cielo en otoño y grabar un vídeo de entrenamiento))

¡¡¡¡Bueno, quién iba a decir que me iba a meter en una red por la GIANTAS intercontinentales transatlánticas!!!! Tuve que pasar todo el periodo de prueba aprendiendo las reglas y viajando a los entrenamientos. Incluso fui a Kazán durante los campeonatos. Pero no dejé de operar, aunque lo hacía sobre todo los sábados. Y hace poco me equivoqué por accidente y conseguí otra mejora de datos. La mejora implica aún más separabilidad. Figura 2, arriba. Esto ha llevado a que el optimizador Reshetov haya sido reentrenado, lo que en principio no le conviene, porque está fundamentalmente exprimido por incompleto, y aquí sólo está reentrenado. El análisis de los datos mostró puntos dobles en las regiones de agrupación, lo que indica que los vectores son idénticos, es decir, que son copias unos de otros con una ligera diferencia en las colas numéricas. Estos conjuntos de datos conducen a un sobreentrenamiento cuando uno de esos vectores entra en el entrenamiento y el otro en la muestra de prueba. En este caso, hay que eliminar uno de los vectores duales. Pero si se mira el significado de la entrada, se empieza a dudar del alto grado de alogicidad del MO. ¡Porque no veo el sentido de tal entrada, pero SCUKO funciona!


De alguna manera he decidido por mí mismo: Si por casualidad te encuentras con una entrada que funciona, no necesitas entenderla, simplemente úsala y ya está..... Pregúntame "¿Por qué funciona?" y te responderé "No lo sé" y seguiré cogiendo dinero pase lo que pase :-)

 
Alexander_K:

Al trabajo le gustan los tontos :)))

En primer lugar, te hará entrar en una rutina y un orden. Entonces el comercio se asentará.

 
Maxim Dmitrievsky:

Probar diferentes modelos (predictores), por ejemplo, construir muchos modelos y elegir el mejor, sobre diferentes datos de entrada transformados. Como las contraseñas de las cuentas. Cuando no hay un conocimiento a priori del tema y los patrones.

Hecho a mano.

Ese video de Wapnick en inglés era sobre esto

NOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO Pero mantengamos la sencillez, supongamos que construimos 10 modelos para el mismo conjunto de datos, PERO con una partición aleatoria en tendencia y prueba. Pregunta: ¿cómo elegimos el modelo que PODRÍA representar mejor el conjunto de datos original? Esta es una cuestión fundamental y actualmente estoy construyendo una teoría en torno a ella. Hasta ahora, todo parece lógico en mi teoría, pero no está completa.

Para resolver esta cuestión, necesito determinar la métrica de generalizabilidad de los modelos resultantes. He leído algunos recursos aquí y resulta que tales métricas ya existen, pero todas ellas sobreestiman los valores. Según tengo entendido, no existe una metodología efectiva unificada para determinar el nivel de generalización. Este es un problema fundamental en el campo de la MO. La forma en que Reshetov lo resuelve también es una métrica y por el momento es la mejor solución, cuando se calcula la especificidad y la sensibilidad del modelo, pero está todo mal. ¡¡¡¡¡Pero lo que es eso..... es ENORME!!!!! :-)

 

No pensé que iba a sugerir esto, pero aún así...

He creado un sistema (indicador) basado en una red neuronal que construye algunos niveles, funciona bastante bien.

La filosofía del indicador es buscar alguna sobrecompra/sobreventa real o centimétrica.

Da unas 1-2 señales por semana, si la señal se identifica correctamente funciona con una probabilidad cercana al 100%.


El problema es que no soy experto en mql y el indicador está escrito en R (con uso de diferentes librerías), no soy capaz de aprender mql.

Si hay algún desarrollador aquí que esté dispuesto a integrar el código en mql y visualizarlo en mt4 estoy dispuesto a discutir y ayudar en el futuro.

 
Mihail Marchukajtes:

Pero mantengamos la sencillez, supongamos que construimos 10 modelos para el mismo conjunto de datos, PERO con una partición aleatoria en tendencia y prueba. Pregunta: ¿cómo elegimos el modelo que PODRÍA representar mejor el conjunto de datos original? Esta es una cuestión fundamental y actualmente estoy construyendo una teoría en torno a ella. Hasta ahora, todo parece lógico en mi teoría, pero no está completa.

Para resolver esta cuestión, necesito determinar la métrica de generalizabilidad de los modelos resultantes. He leído algunos recursos aquí y resulta que tales métricas ya existen, pero todas ellas sobreestiman los valores. Según tengo entendido, no existe una metodología efectiva unificada para determinar el nivel de generalización. Este es un problema fundamental en el campo de la MO. La forma en que Reshetov lo resuelve también es una métrica y por el momento es la mejor solución, cuando se calcula la especificidad y la sensibilidad del modelo, pero está todo mal. ¡¡¡¡¡Pero lo que es eso..... es ENORME!!!!! :-)

10 es casi nada, a partir de 2000 modelos. La partición aleatoria está presente tal cual, pero los conjuntos de datos también cambian. Un ultrabook con 1 núcleo cuenta en 15-20 minutos.

Por cierto lo de jpedictor - estuve curioseando la versión que me diste y en UPOR no vi una máquina nuclear allí... quería sacarla, a ver cómo funciona

cómo es que, compañeros

No sé qué utilizar, excepto el error de clasificación o logloss

 
mytarmailS:

No pensé que iba a sugerir esto, pero aún así...

He creado un sistema (indicador) basado en una red neuronal que construye algunos niveles, funciona bastante bien.

La filosofía del indicador es buscar alguna sobrecompra/sobreventa real o centimétrica.

Da unas 1-2 señales por semana, si la señal se identifica correctamente funciona con una probabilidad cercana al 100%.


El problema es que no soy experto en mql y el indicador está escrito en R (con uso de diferentes librerías), no soy capaz de aprender mql.

Si hay un desarrollador dispuesto a integrar el código en mql y visualizarlo en mt4 estoy dispuesto a discutir y ayudar en el futuro.

No... no tengo ninguno aquí :-(

 
Maxim Dmitrievsky:

10 es casi nada desde 2000 modelos. La partición aleatoria está presente tal cual, pero los conjuntos de datos también cambian. Un ultrabook con 1 núcleo cuenta en 15-20 minutos.

Por cierto lo de jpedictor - estuve curioseando la versión que me diste y en UPOR no vi una máquina nuclear allí... quería sacarla, a ver cómo funciona

cómo es que, compañeros

no sé qué usar, excepto el error de clasificación o el logloss

está ahí al 100%. Ya he empezado poco a poco a rehacerlo para mí. Ahora instalar un modelo en MKUL es un asunto de 5 segundos...