Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 52

 
Dr.Trader:

La aptitud puede crecer simplemente porque el modelo ha mejorado su topología y ha eliminado un par de neuronas, para la misma precisión.
Por lo que entendí de los comentarios en el código, es un port de Lua. Y Lua también es un port, porque el original ya estaba en c++:http://nn.cs.utexas.edu?neat
El puerto desde el puerto es desafortunado, un montón de acciones innecesarias, sería mejor si el autor de RNeat tomara el código C++ como base, y utilizara los paquetes genéticos existentes de R para evolucionar la red.

Y por alguna razón pensé que era todo r-ke escrito allí
 
mytarmailS:

Encontré esto en un sitio web, pero ya no funciona por alguna razón

Tal vez a alguien le interese:

...El siguiente paso fue un nuevo modelo: aplicamos un filtro de paso bajoal precio de cierre (utilicé un filtro Butterworth de 2º orden), aplicamos una aproximación polinómica-armónica, transformamos A*cos(wx)+B*sin(wx) para formar M*sin(wx+f) y tomamos M y f como características secundarias.

.... Y con este modelo conseguí construir una red que tenía muy buenas propiedades de generalización: reconocía correctamente casi todos los datos nuevos.

YuryReshetov- Yury, ¿entiendes lo que el hombre escribió aquí en general?

 
Las cuentas de céntimos están de moda estos días
 
Combinador:
Últimamente está de moda presumir de cuentas de céntimos
¿Hubo un anuncio en alguna parte otra vez?
 

mytarmailS:

mytarmailS:

...El siguiente paso fue un nuevo modelo: aplicamos un filtro de paso bajoal precio de cierre (utilicé un filtro Butterworth de 2º orden), aplicamos una aproximación polinómica-armónica, transformamos A*cos(wx)+B*sin(wx) para formar M*sin(wx+f) y tomamos M y f como características secundarias.

.... Y con este modelo conseguí construir una red que tenía muy buenas propiedades de generalización: reconocía correctamente casi todos los datos nuevos.

YuryReshetov- Yury, ¿entiendes lo que el hombre escribió aquí en general?

Para ser sincero, no. Hay muchas preguntas:

  1. Por ejemplo, ¿por qué prefiltrar por separado si se puede simplemente ignorar los armónicos no deseados en la transformada de Fourier poniendo sus amplitudes a cero, o recortar las amplitudes de los armónicos filtrados hasta los umbrales?
  2. ¿Qué frecuencias concretas se han filtrado? Otra gran pregunta, porque las opciones para adivinar son una carreta y un carro pequeño.
  3. ¿Por qué se filtró el componente de baja frecuencia y no el de MF o HF? Al fin y al cabo, el ruido, por lógica, debería estar en el MF o en el HF.
  4. ¿Cómo se ha resuelto el problema de la no periodicidad de la RV de los precios, es decir, cómo se ha eliminado la imprecisión en los bordes del periodo?

A primera vista, parece que tenemos una especie de texto erudito sin datos concretos, afirmaciones sin fundamento.

Y en consecuencia, sin conocer las respuestas a las preguntas anteriores, sólo se puede adivinar cómo reproducirlo en la práctica y si se obtendrá algún resultado adecuado.

 
Alexey Burnakov:
¿Hubo un anuncio en alguna parte otra vez?
Sí, lo era.
 

El problema aquí no es la fanfarronería ni las cuentas de céntimos.

El problema es otro.

Los participantes en la discusión esperan, en mi opinión, encontrar algún grial deslizando aportaciones innecesarias.

Y se olvidan por completo de que tienen que utilizar una estrategia o una táctica preparada, lo que sea mejor.

La máquina sólo hace lo que tú le pones.

La mierda de la entrada es la mierda de la salida.

Lo siento.

 
Vadim Shishkin:

El problema aquí no es la fanfarronería ni las cuentas de céntimos.

El problema es otro.

Los participantes en la discusión esperan, en mi opinión, encontrar algún grial deslizando aportaciones innecesarias.

Y se olvidan por completo de que tienen que utilizar una estrategia o una táctica preparada, lo que sea mejor.

La máquina sólo hace lo que tú le pones.

La mierda de la entrada es la mierda de la salida.

Lo siento.

Una red neuronal de proteínas puede estar llena de basura dentro y fuera.

Lo siento.

 
Alexey Burnakov:

Una red neuronal proteínica también puede estar llena de pringue, tanto de entrada como de salida.

(Disculpe.

Exactamente, eso es lo que estoy diciendo.

¿Qué tiene que decir sobre este tema?

 
Vadim Shishkin:

Exactamente, eso es lo que estoy diciendo.

¿Tiene algo que decir sobre el tema?

Así que la pregunta es para ti. )

¿Cuál es la táctica? ¿Qué se le ocurre a su cabeza? Así que dime.