Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2454

 
mytarmailS #:

Es sólo para 5, es un nuevo paquete, el nombre es mt5R

Sí, lo entiendo, sólo buscaba una optimización multiobjetivo.

Mi función de aptitud simple sólo busca el índice del vector de un punto que es un mínimo desde el punto de vista del algoritmo.

Así que idealmente el algoritmo generará dos índices, estos dos índices serán los índices de los valores mínimos en el vector.

Pensé que no hay diferencia en buscar dos mínimos en un vector o un mínimo en dos vectores

Mi aptitud simple no es un modelo de mi problema, sólo quería hacer la comparación más simple y más obvio de trabajo del algoritmo para mí

¿Qué hace tu función de fitness? Conozco todo el código, pero aún no entiendo lo esencial)

Este es su ejemplo y su función de aptitud. Hay muchos otros métodos para encontrar los extremos en los vectores. Formule su tarea con claridad. Entonces te llegará una solución.

Acabo de demostrar que su tarea no puede resolverse con estos paquetes.

Buena suerte

 
Vladimir Perervenko #:

Este es su ejemplo y su función de aptitud. Hay muchos otros métodos para encontrar los extremos en los vectores. Formule su problema con claridad. Entonces llegará la solución.

Acabo de demostrar que su tarea no puede resolverse con estos paquetes.

Buena suerte en .

Latarea consiste en comparar dos tipos de optimización multicriterio, de forma rápida, sencilla y clara...

Por supuesto, puede encontrar el extremo por otros medios, por ejemplo, llamar a la función min() para un vector.

Pensé que encontrar el extremo de una función (para encontrar un mínimo en un vector) es justo lo que hay que hacer, para ser honesto, todavía creo que nos perdimos en alguna parte...

============

Aquí se puede encontrar el mínimo sin problemas con la genética ordinaria.

set.seed(123)
x <- cumsum(rnorm(100))

fit <- function(i)  x[ floor(i) ] /-1  # (/-1) потому что GA максимизирует
library(GA)
GA <- ga(type = "real-valued", 
         fitness =  fit,
         lower = 1, upper = length(x) , 
         popSize = 50, maxiter = 100)
id <- c(floor(tail(GA@solution,1)))

plot(x,t="l")
points(id,x[id],col=2,lwd=5)


==============================

Lo que nos impide hacer lo mismo para la optimización multicriterio, sólo buscamos varios puntos en lugar de uno.

Además "mco" (genética) era bueno en eso, pero "GPareto" (óptimo gaussiano) no parecía ser el más inteligente...

 

Es increíble cómo la genética encuentra una solución incluso con los escenarios más atrofiados

La población es de 10 individuos,

10 iteraciones,

1 millón de puntos de datos.

El algoritmo sólo tiene 100 intentos (10*10) para interactuar con los datos y encuentra una buena solución.

simplemente increíble.

 
mytarmailS #:

Latarea de comparar dos tipos de optimización multicriterio, rápida, sencilla y clara...

Adam o SGD toman de cualquier paquete de MO
 
Maxim Dmitrievsky #:
Adam o SGD tomar de cualquier paquete de MoD

Quería comparar estos, son para la optimización multicriterio

adam , incluso desde "cualquier paquete de MO" definitivamente no son multicriterios.

no tengo ningún problema con la elección de los algoritmos))) al contrario, no es python para ti)))

 
mytarmailS #:

Latarea consiste en comparar dos tipos de optimización multicriterio, rápida, sencilla y clara...

Está claro que podemos encontrar el extremo por otros medios, por ejemplo, llamar a la función min() para un vector, pero no se trata de eso

Pensé que encontrar el extremo de una función (para encontrar un mínimo en un vector) es justo lo que hay que hacer, para ser honesto, todavía creo que nos perdimos en alguna parte...

============

Aquí se puede encontrar el mínimo sin problemas con la genética ordinaria.


==============================

Lo que nos impide hacer lo mismo para la optimización multicriterio, sólo buscamos varios puntos en lugar de uno.

Además "mco" (genética) lo hacía bien, pero "GPareto" (óptimo gaussiano) no parecía "saludar" del todo, aunque se supone que es el más intelectual...

Debe tener una comprensión errónea del término OPTIMIZACIÓN MULTICRITERIAL. Se trata de una optimización según varios criterios al mismo tiempo. Por ejemplo: tenemos una curva de equilibrio como resultado del funcionamiento de la red neuronal. Podemos optimizarlo mediante el saldo máximo o la detracción mínima. Y si tenemos que optimizarlo simultáneamente por equilibrio y reducción, será una optimización multicriterio. Tienes un criterio - el mínimo de una función, encuentra todos los mínimos de esta función y selecciona los que necesitas.

Buena suerte

 
Vladimir Perervenko #:

Debe tener un malentendido del término OPTIMIZACIÓN MULTICRITERIAL. Se trata de una optimización según varios criterios al mismo tiempo. Por ejemplo: tenemos una curva de equilibrio como resultado del funcionamiento de la red neuronal. Podemos optimizarlo mediante el saldo máximo o la detracción mínima. Y si tenemos que optimizarlo simultáneamente por equilibrio y reducción, será una optimización multicriterio. Tienes un criterio - el mínimo de una función, encuentra todos los mínimos de esta función y selecciona los que necesitas.

Buena suerte

Te entiendo, no nos entendemos, pero gracias por la aclaración...

 
mytarmailS #:

Sé que no nos entendemos, pero gracias por la aclaración...

Estoy de acuerdo. De nada.

 
Andrey Dik #:

¿Es el valor medio de los pesos de la red neuronal tomados como módulo un indicador de su calidad de entrenamiento?

Supongamos que hay dos neuronas idénticas entrenadas con los mismos datos, una neurona tiene un valor de 0,87 y la otra de 0,23, ¿cuál está mejor entrenada?

Cuanto más se acerque la respuesta media a 1, mejor, es sólo cuestión de práctica. No puedo explicar por qué, pero para mí es uno de los principales signos de un buen modelo.
 
Me doy cuenta de que este modelo es algo más universal. Con los mismos resultados en la muestra de prueba, el modelo con el valor medio de respuesta más alto se comporta mejor en la vida real.