Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 829

 
...en el reverso de la moneda:

Y donde encontraste CNTK, si no es un secreto, hay una biblioteca DEAP de programación evolutiva y no hay mucha complejidad y toneladas de código, aunque no hay ejemplos generados, pero eso sería demasiado?

No es ningún secreto. Abrir cualquier código fuente en Python.

 
Grigoriy Chaunin:
No hay redes neuronales. Es una programación genética.

¿Y aquí? ¿O estoy mirando lo que no es?

 
Grigoriy Chaunin:
Para las redes neuronales sigo eligiendo CNTK. Las razones son las siguientes. En Python quiero entrenar una red y almacenar la red entrenada. En C++ la DLL para MT que utiliza una red entrenada. Esto se debe a la comodidad de conectar una red capacitada y yo elijo. Tensorflow en C++ para Windows es un horrible baile de pandereta.

Por supuesto, es la elección del desarrollador. Para mí, keras es el lugar perfecto para empezar. Cierto, yo uso keras para R, y no bailo. Terminando un artículo para mostrar esta variante.

¿Quizás en tu blog podrías esbozar brevemente un diagrama de bloques de tu implementación de la programación genética?

Buena suerte

 
Vladimir Perervenko:

¿Y aquí? ¿O estoy mirando lo que no es?

Fue hace mucho tiempo. He dado un enlace a otro repositorio. Este repositorio no es para este foro. Donde escribí sobre NS, escribí que respondería a todas las preguntas sobre el código.
 
Grigoriy Chaunin:
Ha pasado mucho tiempo. Te he dado un enlace a otro repositorio. Este repositorio no es para este foro. Donde escribí sobre NS, escribí que respondería a todas las preguntas sobre el código.

La respuesta que ha dado y es clara. Buena suerte

 
Maxim Dmitrievsky:

Es de la teoría de los juegos, parece. Así es como el comerciante juega su juego y el mercado juega su juego.

El secreto más fiable es cuando no se sabe o no se entiende, se ha dicho mucho aquí que ZZ es el objetivo equivocado porque supuestamente se asoma al pasado.


En realidad, los datos del pasado sólo se utilizan para encontrar puntos (máximos y mínimos), y para los propios objetivos se calculan rendimientos o clases basados en datos del futuro (a la derecha de los máximos previstos).

Así que, de hecho, no hay que mirar los datos para el entrenamiento.

Pero los "corifeos" siguen vendiéndonos esta falsedad bajo la apariencia de conocimientos secretos pero no pueden darnos las pruebas prometidas, probablemente lo mismo con la métrica...

 
Ivan Negreshniy:
El secreto más fiable es cuando no se sabe o no se entiende, se ha dicho mucho aquí que ZZ es el objetivo equivocado porque supuestamente se asoma al pasado.

Y aún más fiable cuando no lo sabías y luego lo olvidaste :)

 
Ivan Negreshniy:
El secreto más fiable es cuando no se sabe o no se entiende, aquí se ha dicho mucho que ZZ es el objetivo equivocado porque supuestamente se asoma al pasado.


De hecho, los datos del pasado sólo se utilizan para encontrar puntos (vértices y valles), y los rendimientos o las clases se calculan a partir de los datos del futuro (a la derecha de los vértices previstos) para los propios objetivos.

Es decir, de hecho, no se produce ningún picoteo en los datos de entrenamiento.

Pero no sé si es cierto, pero si tienen razón siguen vendiéndonos este fake, y no son capaces de mostrarnos las pruebas prometidas, quizás lo mismo con las métricas...

Me corrijo, los sabios lo hicieron, admito mi error, ZZ es cool targeting, RSI es cool fics, perdón por refunfuñar en vano.

 
Aliosha:

Me corrijo, los sabios lo señalaron, admito mi error, ZZ es un objetivo genial, RSI es una ficha genial, me disculpo por refunfuñar por nada.

rsi no es muy diferente a la de los retornados )

 
Alyosha:

Me corrijo, los sabios lo señalaron, admito mi error, ZZ es un objetivo genial, RSI es una ficha genial, me disculpo por refunfuñar por nada.

No es un refunfuño, es una charla ociosa.

Dos días esperando los resultados de la carrera, lo que confirma lo que has dicho.


PS.

No hay necesidad de descartarme como la última vez.