Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2213

 
mytarmailS:

Así que se entrena la neurona para obtener el "máximo beneficio". Esto es entrenar según un criterio ( "máximo beneficio").


Alexander Alexandrovich dice que la neurona encuentra la mejor solución "no comerciar". No puedo entender cómo lo hizo, pero bueno...

Así que si la neurona decidió "no comerciar" Así que si la neurona decidió "no negociar", significa que tenemos que añadir un criterio más (un número mínimo de operaciones): "min. deals".


Resulta que ya tenemos que optimizar utilizando dos criterios (o 10)

No podemos normalizar nada aquí ya que no conocemos el resultado final

Mucho objetivo. Normalmente tenemos un objetivo 2x. Máximo beneficio y no agotar el saldo. El beneficio tiene un riesgo de agotamiento.

En una central nuclear entre 19 y 30 parámetros. El objetivo es un rendimiento máximo y estable y que no se detenga ni explote. Con el máximo retroceso puede explotar, y si se sacan las varillas también, seguro que no explota, pero puede detenerse.

Diferentes estados límite, o clases.

 
mytarmailS:

probablemente....

========================

hizo una gran muestra de prueba

en el recuadro está el trozo de la prueba (datos nuevos) que te mostré.

De todos modos, durante 5 minutos, la comisión se lo comerá todo.

Pero es posible sintetizar un modelo interesante


Es necesario incluir inmediatamente en la función de aptitud el entrenamiento del modelo y la comprobación en las muestras de eje y de prueba

He hecho un trabajo muy desordenado hasta ahora.

Entrena el sistema un par de días antes del actual, y luego pruébalo una o dos semanas antes. A ver qué pasa. Verás muchas cosas interesantes.

 
Maxim Dmitrievsky:

Gracias, no están claros.

olvídalo....

tampoco entiendo tu remuestreo((.

a menudo es difícil entender algo complicado).

Valeriy Yastremskiy:

Mucho objetivo. Por lo general, 2x objetivo. Máxima ganancia y no agotar el saldo. El beneficio tiene un riesgo de agotamiento.

Sí, puedes hacer cualquier cosa con las funciones de fitness....

Es la forma más "libre" de comunicar a la neurona lo que quieres que haga...

Uladzimir Izerski:

Entrenar el sistema hace un par de días a la actual, y luego probarlo hace una o dos semanas. A ver qué pasa. Verás muchas cosas interesantes.

No entiendo por qué harías eso.

 
mytarmailS:

olvídalo....

tampoco entiendo tu remuestreo((.

a menudo es difícil entender algo complicado).

no lo entiendes porque no lo has leído

te digo que dibujes un diagrama de lo que estás haciendo, si no, no sé de qué estás hablando

 
Maxim Dmitrievsky:

No lo entiendes porque no lo has leído.

Te digo que dibujes un diagrama de lo que estás haciendo, si no, no sé de qué estás hablando.

Lo leí, el último...

Un poco más tarde, ahora escribiendo el código, quiero tratar de seleccionar sólo los modelos que pasaron la prueba, pero automáticamente

Intente una búsqueda multicriterio
 
Maxim Dmitrievsky:

Digo que dibujes un diagrama de lo que estás haciendo, si no, no sé de qué estás hablando.

Estoy haciendo lo mismo que Vladimir en el último tercio de este artículo.

sólo que no ajusto los parámetros del MASD para maximizar los beneficios, sólo ajusto los pesos de las neuronas.

Pero es lo mismo.

 
mytarmailS:

Estoy haciendo lo mismo que Vladimir en el último tercio de este artículo

Sólo que yo no ajusto los parámetros del MASD para maximizar el beneficio, sólo ajusto los pesos de las neuronas.

Así que lo mismo...

Bueno, esto es la optimización por la red de hiperparámetros

 
Maxim Dmitrievsky:

bueno, es una optimización de la red de hiperparámetros

se podría decir que...

La cuestión está en las posibilidades.

Cualquier idea puede ser introducida en la red neuronal a través de la función de fitness, incluso la que no puedes describir en código por ti mismo.

 
mytarmailS:

Bueno, se podría decir que...

La cuestión son las posibilidades.


Cualquier idea puede escribirse en la red neuronal a través de la función de aptitud, incluso las que no puedes describir en código tú mismo.

la red sigue aprendiendo a través de la minimización de la enropía. Y el criterio de parada puede hacerse a partir de cualquier pérdida personalizada

 
Maxim Dmitrievsky:

la red se sigue aprendiendo mediante la minimización de la enropía. Y el criterio de parada puede hacerse a partir de cualquier pérdida personalizada

No sé si en python, pero en r-ka no es tan bueno, o no sé cómo hacerlo, por eso he creado esto...