Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1810

 
Evgeny Dyuka:

¡Si! Así es y nada más.

No estoy de acuerdo, pero no voy a imponer nada...

 
mytarmailS:

No estoy de acuerdo, pero no voy a imponer nada...

Puedes dedicar 3 días a instrumentos visualmente diferentes. En cualquier caso, primero examinamos las series y sacamos conclusiones. Y siempre es mejor encontrar un entendimiento en la prueba que arreglar una pérdida en la real).

 
Valeriy Yastremskiy:

Es mejor probar sin emociones))) Razón de más para intercambiar)))))))

Francamente, el tema de los predictores no está cubierto. Así como la lógica de los modelos, cuáles deben aplicarse y cuándo, y cuál es el criterio para su selección.

Las recomendaciones sobre cómo preparar los datos no tienen nada que ver con el resultado. Aunque sin ella, no podemos empezar)))))

Los modelos lógicos, los criterios de selección y la preparación de los datos son cuestiones clave, nadie puede darte una solución que funcione. Si se puede poner, no funciona.

No importa si es bueno o no en términos humanos, sólo hay que admitir que estas son las reglas del tema en el que nos encontramos.

 
Valeriy Yastremskiy:

Es mejor probar sin emociones))) Razón de más para intercambiar)))))))

Francamente, el tema de los predictores no está cubierto. Así como la lógica de los modelos, cuáles deben aplicarse y cuándo, y cuál es el criterio para su selección.

Las recomendaciones sobre cómo preparar los datos no tienen nada que ver con el resultado. Aunque, sin ella, no está empezando a )))))

No se divulga aquí, es al estado actual de las cosas por desgracia. Ningún trabajo o conclusión, cómo determinar qué modelo es mejor para una serie concreta, aparte de comparar los resultados).

 
Evgeny Dyuka:

La lógica de los modelos, los criterios de selección y la preparación de los datos son cuestiones clave, nadie dará una solución que funcione. Si está dispuesto, no funciona.


Bueno, probablemente no sea del todo así. Es que hay métodos matemáticos y antes su aplicación no estaba al alcance de todos, ahora sí. Pero no hay más solución que buscar, elegir y probar. La máxima verosimilitud es un método, por supuesto, pero es subjetivo y el problema está en la subjetividad de la elección de los parámetros significativos para el análisis.

Es mejor hablar de lógicas, modelos y predictores con características y lógica de su aplicación.

No importa si funciona o no. Está demostrado que no es el 100%. E incluso uno será suficiente para fallar)))) ¡¡¡¡¡Lo principal son las manos!!!!! O la cola)))))

 
mytarmailS:

por favor...

200 o 300 en valores absolutos.

¿Qué gamas le interesan?


¿O tal vez estudiar un poco la R? ;)


5 líneas de código y tienes lo que querías

Creo que hay que mirar el balance de errores (+1 entrada correcta y -1 entrada incorrecta), o al menos normalizar el balance para reducir los valores atípicos.

R es una tarea muy difícil para mí, no se parece a MQL, y estoy lejos de ser un programador. Y ni siquiera soy programador, ni tengo una ayuda adecuada.


He visto que está interesado en la eficacia del muestreo. Yo también estoy interesado en este tema, sobre todo quiero entender si es posible hacer la división mejor que yo. Puedo hacer un muestreo donde los valores del predictor sin y con deselección, para que pueda comprobar la eficiencia del paquete, es decir, si puede aprender mejor después del muestreo artificial que después de mi lógica, entonces el paquete es más eficiente que el humano.

 
Aleksey Vyazmikin:

Creo que hay que mirar el balance de errores (+1 entrada correcta y -1 entrada incorrecta), o al menos normalizar el balance para reducir los valores atípicos.

R es una tarea muy difícil para mí, no se parece a MQL, y estoy lejos de ser un programador. Y ni siquiera soy programador, y no tengo un buen HELP como MQL.


He visto que está interesado en la eficacia del muestreo. Yo también estoy interesado en este tema, sobre todo quiero entender si es posible hacer la división mejor que yo. Puedo hacer un muestreo de los valores de los predictores sin y con deselección, así se puede comprobar la eficiencia del paquete, es decir, si puede aprender mejor después de un muestreo artificial que después de mi lógico, entonces el paquete es más eficiente que un humano.

Yo tampoco soy programador, es más, he empezado por estudiar C#, no entendí nada y lo dejé, luego probé con R y todo fue bien :)


La discretización no le hará ganar en calidad; es más, es más probable que baje, lo principal es no ganar demasiado.

Lo necesito para convertir variables numéricas con un rango de miles de divisiones en variables categóricas, que tendrán, digamos, sólo 20 niveles.

Necesito que genere reglas que se repitan .....

Los bosques funcionan según el principio de la votación, la probabilidad de salida es la suma de los votos del árbol, a veces el algoritmo muestra una alta probabilidad pero la predicción es mala y a veces tiene una alta probabilidad y una buena predicción, por lo que veo que si sé exactamente qué reglas participan en la votación en un momento determinado puedo distinguir las reglas honestas y las ruidosas...

 
mytarmailS:

Yo tampoco soy programador, de hecho incluso empecé por estudiar C#, no entendía nada y lo dejé, luego probé con R y todo fue bien :)


La discretización no le hará ganar en calidad; es más, es más probable que baje, lo principal es no ganar demasiado.

Lo necesito para convertir variables numéricas con un rango de miles de divisiones en variables categóricas, que tendrán, digamos, sólo 20 niveles.

Necesito que genere reglas que se repitan .....

Los bosques funcionan según el principio de la votación, la probabilidad de salida es la suma de los votos del árbol, a veces el algoritmo muestra una alta probabilidad pero la predicción es mala y a veces tiene una alta probabilidad y una buena predicción, si sé exactamente qué reglas están involucradas en la votación entonces puedo distinguir las reglas honestas y las ruidosas...

En mi caso la discretización mejora el resultado, y sí, mis predictores se acercan más a los categóricos, casi todos, con valores entre 2 y 20.

De hecho, para estimar un modelo como éste, es necesario comprobar la similitud en los puntos de activación de las hojas de votación, y eliminar/despondera las hojas que se activan constantemente en puntos similares de la muestra. Estos árboles ruidosos encajarán bien en la historia, por el exceso de memoria.

Lo ideal sería que cada hoja contuviera el significado y la vecina se sumara a él, pero describiendo algo diferente, por ejemplo, una determinó que tenemos una pelota delante, otra determinó su color - así clasificó la pelota perteneciente a un tipo de juego concreto. Simplificado.

Descomponga el bosque en hojas con índices de árboles y vea la activación de cada hoja en la muestra, luego deseche los restos.
 
mytarmailS:

Vladimir, ¿podrías decirme cómo en R es posible enseñar a AMO no por ejemplo la clasificación o la regresión, sino algo más vago ...

No sé cómo debería ser y qué valores debería tomar; no es importante para mí, todo lo que puedo hacer es describir una función líder y dejar que AMO maximice un criterio de liderazgo en la función líder creada por sí misma

¿O es un problema puramente de optimización y no tiene nada que ver con el AMO?


1. Cualquier modelo requiere la optimización de los hiperparámetros. Con los valores predeterminados el resultado no será el mejor. Al optimizar, establezca el criterio que es importante para usted. En todos los ejemplos de la literatura estos criterios son métricas estadísticas (Acc, F1, etc.). En nuestro caso, estos criterios no siempre conducen al resultado esperado en el comercio (por extraño que parezca). Por ejemplo, utilizo la recompensa media por barra durante un determinado periodo de tiempo (normalmente una semana) como criterio de optimización e indicador del rendimiento del modelo. Si no es inferior al valor mínimo (por ejemplo, 5 puntos de 4 signos), seguimos trabajando. Si ha caído, entonces terminaremos el modelo con datos frescos. La optimización es sólo bayesiana, da variantes.

El modelo debe mejorarse constantemente en el proceso, teniendo en cuenta las condiciones cambiantes del mercado. Es una gran ilusión que se pueda entrenar un modelo con una gran variedad de datos pasados y luego utilizarlo durante mucho tiempo sin volver a entrenarlo.

2. Sintetizando alguna función, no sé de qué tipo - esto es una cosa de "hazlo o no lo sepas". Existen varios paquetes que implementan la programación genética. Los nombres exactos no están disponibles por el momento. Pero esta es una sección muy complicada. Inténtalo.

3. Discretización. El objetivo principal del muestreo es que la relación predictor-objetivo sea lo más lineal posible. Por supuesto, esto supone una pérdida de información. Pero en algunos casos da muy buenos resultados.

Buena suerte

Генетическое программирование - Genetic programming - qwe.wiki
Генетическое программирование - Genetic programming - qwe.wiki
  • ru.qwe.wiki
В области искусственного интеллекта , генетическое программирование ( ГП ) представляет собой метод , посредством которого компьютерные программы кодируются в виде набора генов, которые затем модифицированных (эволюционировали) с использованием эволюционного алгоритма (часто генетический алгоритм , «GA») - это применение ( например...
 
La discretización no tiene sentido, se puede utilizar la regularización. Volver a entrenar el modelo a medida que se comercia también es una tontería, no funcionará