¿Qué alimentar a la entrada de la red neuronal? Tus ideas... - página 38

 
Ivan Butko #:





Por favor, aclárelo en el contexto de un optimizador MT5 normal y un EA normal. ¿Cómo sería? ¿Tomar dos conjuntos de la lista de optimización (no correlacionados), combinarlos y ejecutarlos? ¿O es otra cosa en mente

De acuerdo a los resultados obtienes algunos coeficientes, escríbelos en el código de tu EA antes del código que trabaja con las variables a optimizar.

Como resultado, obtienes un filtro de la primera pasada, y la segunda red aprende no de todos los ejemplos, sino sólo de los filtrados por la primera NS.

El objetivo es aumentar la matriz de expectativas reduciendo las entradas falsas; a juzgar por el gráfico, es muy baja.

O, como ya he sugerido antes - para tratar de entrenar en los resultados filtrados utilizando otros métodos - el mismo CatBoost.

 
Andrey Dik #:
Los especialistas de la rama MoD dicen

Esa no es la cuestión, se puede buscar lo que se quiera y como se quiera, sólo que la variante óptima en los datos de búsqueda no garantiza el mismo resultado en los datos fuera de esta búsqueda (en relación con el mercado).

Si hay un algoritmo que no sólo busca los parámetros óptimos desde el punto de vista matemático en el FF, sino que también tiene en cuenta la estructura de datos, lo que permite ver alguna dependencia estable en dos muestras después del entrenamiento, entonces es realmente valioso para la aplicación al mercado. Y siempre es posible encontrar algo por casualidad, que he demostrado en el tema MO - en mi investigación reciente.

 
Aleksey Vyazmikin #:

De acuerdo a los resultados obtuviste algunos coeficientes, escríbelos en el código de tu NS antes del código que trabaja con las variables optimizadas.

Como resultado, obtienes un filtro de la primera pasada, y la segunda red aprende no de todos los ejemplos, sino sólo de los filtrados por la primera NS.

El objetivo es aumentar la matriz de expectativas reduciendo las entradas falsas; a juzgar por el gráfico, es muy baja.

O, como ya he sugerido antes - para tratar de entrenar en los resultados filtrados utilizando otros métodos - el mismo CatBoost.



Ah, lo tengo Gracias por la idea

 
Ivan Butko #:



Ah, lo tengo. Gracias por la idea.

De nada. Comparte tus resultados.

 
Aleksey Vyazmikin #:

Sí, por favor. Comparte tus resultados.

y bots.

¿Es del artículo del bot perseptron? Entonces no.
 
Aleksey Vyazmikin #:

1. No se trata de eso: puedes buscar lo que quieras y como quieras,

2. simplemente la variante óptima en los datos de búsqueda no garantiza el mismo resultado en los datos fuera de esta búsqueda (como se aplica al mercado).

3. Si hay un algoritmo que no sólo busca los parámetros óptimos desde el punto de vista matemático en la FF, sino que también tiene en cuenta la estructura de los datos, lo que permite ver alguna dependencia estable en dos muestras después del entrenamiento, entonces es realmente valioso para su aplicación al mercado.

4. y siempre es posible encontrar algo por casualidad, como he demostrado en el tema de MO - en mi reciente investigación.

1. ¿qué sentido tiene? - No es que se pueda buscar cualquier cosa, pero ¿cuál es exactamente el sentido de la búsqueda?

2. ¿y qué lo garantiza?

3. No he visto un algoritmo específico de una sola pieza que pueda encontrar la "dependencia estable a lo largo de dos muestras después del entrenamiento", pero hay consideraciones lógicas, un conjunto de técnicas y consideraciones sobre cómo se puede lograr esto (o al menos para entender qué camino tomar).

4. ¿Por qué buscar algo aleatorio cuando se puede buscar algo no aleatorio?

 
Andrey Dik #:

1. ¿Qué sentido tiene? - no es que se pueda buscar cualquier cosa, pero ¿cuál es el sentido de la búsqueda?

2. ¿Qué lo garantiza?

3. No he visto un algoritmo específico de una sola pieza que pueda encontrar la "dependencia estable a lo largo de dos muestras después del entrenamiento", pero hay consideraciones lógicas, un conjunto de técnicas y consideraciones sobre cómo lograrlo (o al menos para entender qué camino tomar).

4. ¿Por qué buscar algo aleatorio cuando se puede buscar algo no aleatorio?

1. La cuestión es que no sólo importa el algoritmo, sino también la naturaleza/origen de los datos: estamos hablando tanto de la (no) estacionariedad de los procesos como de la no representatividad de la muestra si hablamos de permitir distintos métodos de optimización.

2. 2. No tengo una respuesta, la estoy buscando.

3. Me interesaría conocerla.

4. Escribí aquí que si no hay algoritmo a partir del punto 2, entonces todos los enfoques muestran esencialmente al azar la eficiencia en los nuevos datos - mejor o peor no es una cuestión de lógica del algoritmo (aunque admito que hay heurísticas que mejoran el resultado), pero la aleatoriedad de los datos obtenidos determina el resultado.

Cuando examinas una función conocida, ésta (sus constantes) no cambia con las variables entrantes, cuantos más ejemplos tengas, más posibilidades tendrás de elegir correctamente sus coeficientes. En los datos de mercado hay límites en el número de ejemplos que se pueden obtener, y existe el problema de que muchos de esos generadores de números con su propia función están trabajando a la vez (aunque se trate de grandes participantes cuyas normas de comportamiento están aprobadas e impresas, siguiendo el ejemplo de nuestro Banco Central). Así que resulta que idealmente es posible ajustarse a reglas de comportamiento similares de diferentes participantes, habrá una función tan ruidosa que describa sólo una parte del mercado, y así es como yo veo la situación. Al mismo tiempo, los participantes pueden pasar de una función de comportamiento a otra.....

Los algoritmos de optimización de los propios artículos son muy interesantes. Trate de considerar de frente la cuestión de la admisibilidad de su aplicación, ¿quizá también tome cien funciones diferentes mezcladas e intente describir al menos una? En general, complique el experimento.

 
Aleksey Vyazmikin #:

1. La cuestión es que no sólo importa el algoritmo, sino también la naturaleza/procedencia de los datos: estamos hablando tanto de la (no) estacionariedad de los procesos como de la no representatividad de la muestra, si hablamos de la admisibilidad de distintos métodos de optimización.

2. No tengo una respuesta - Estoy buscando.

3. Me interesaría conocerla.

4. Escribí aquí que si no hay algoritmo a partir del punto 2, entonces todos los enfoques muestran esencialmente al azar el rendimiento en los nuevos datos - mejor o peor no es una cuestión de lógica del algoritmo (aunque admito que hay heurísticas que mejoran el resultado), pero la aleatoriedad de los datos obtenidos determina el resultado.

Cuando examinas una función conocida, ésta (sus constantes) no cambia con las variables entrantes, cuantos más ejemplos tengas, más posibilidades tendrás de elegir correctamente sus coeficientes. En los datos de mercado hay límites al número de ejemplos que se pueden obtener, y existe el problema de que hay muchos de esos generadores de números trabajando a la vez con su propia función (aunque sean grandes participantes cuyas normas de comportamiento están aprobadas e impresas, siguiendo el ejemplo de nuestro Banco Central). Así que resulta que idealmente es posible ajustarse a reglas de comportamiento similares de diferentes participantes, habrá una función tan ruidosa que describa sólo una parte del mercado, y así es como yo veo la situación. Al mismo tiempo, los participantes pueden pasar de una función de comportamiento a otra....

Los algoritmos de optimización de los propios artículos son muy interesantes. Trate de plantearse de frente la cuestión de la admisibilidad de su aplicación, ¿quizá también tome cien funciones diferentes mezcladas e intente describir al menos una? En general, complique el experimento.

Más sobre el texto: dos citas, después - mi texto

1.

Ese no es el punto - usted puede buscar lo que quiera y como quiera,

La cuestión es que no sólo el algoritmo es importante, sino también la naturaleza/origen de los datos - estamos hablando tanto de la (no) estacionariedad de los procesos como de la no representatividad de la muestra, si hablamos de la admisibilidad de diferentes métodos de optimización.

Sobre el primer punto, no he dicho nada sobre algoritmos de optimización. La esencia de cualquier búsqueda es el óptimo descrito por el usuario. Independientemente del algoritmo de optimización que se utilice, AO sólo permite evitar la necesidad de hacer una búsqueda completa. Si es posible hacer una búsqueda completa, entonces AO no es necesario, pero la cuestión de "qué se necesita exactamente" sigue en pie, y no importa si el proceso es estacionario o no.

2.

simplemente un óptimo en datos de búsqueda no garantiza el mismo resultado en datos fuera de esa búsqueda (con respecto al mercado).

No tengo una respuesta - estoy buscando.

Nadie tiene una respuesta clara a esta pregunta. Si no se sabe qué buscar, entonces nadie ni nada lo hará por el que busca, porque no se sabe qué buscar exactamente, y siendo así, es imposible clasificar ningún resultado como "lo buscado".

3.

No he visto un algoritmo específico de una sola pieza que pueda encontrar "dependencia estable sobre dos muestras después del entrenamiento", pero hay consideraciones lógicas, un conjunto de técnicas y consideraciones sobre cómo se puede lograr esto (o al menos para entender qué camino tomar).

Me interesaría que me lo explicaran.

Y yo, en circunstancias favorables, estaría encantado de hablar de ello (si sabes a qué me refiero).

4.

Y sólo encontrar algo por casualidad siempre es posible, como he demostrado en el tema MO - en mi reciente investigación.

Aquí escribí que si no hay algoritmo a partir del punto 2, entonces todos los enfoques muestran esencialmente al azar la eficiencia en los nuevos datos - mejor o peor no es una cuestión de lógica del algoritmo (aunque admito que hay heurísticas que mejoran el resultado), pero la aleatoriedad de los datos obtenidos determina el resultado.

Exacto, si no sabes qué buscar, es imposible encontrarlo.

Cuando examinas una función conocida, ésta (sus constantes) no cambia con las variables de entrada, cuantos más ejemplos tengas, más posibilidades tendrás de encontrar correctamente sus coeficientes. En los datos de mercado hay límites al número de ejemplos que se pueden obtener, y existe el problema de que hay muchos de esos generadores de números trabajando a la vez con su propia función (aunque sean grandes participantes cuyas normas de comportamiento están aprobadas e impresas, siguiendo el ejemplo de nuestro Banco Central). Así que resulta que idealmente es posible ajustarse a reglas de comportamiento similares de diferentes participantes, habrá una función tan ruidosa que describa sólo una parte del mercado, y así es como yo veo la situación. Al mismo tiempo, los participantes pueden pasar de una función de comportamiento a otra.....

De esto trata el debate.

Los algoritmos de optimización de los propios artículos son muy interesantes. Trate de considerar la cuestión de la admisibilidad de su aplicación de frente, tal vez también tomar un centenar de funciones diferentes y mezclarlos y tratar de describir al menos uno? En general, es más complicado poner en marcha un experimento.

Permítanme decirlo así, los algoritmos de optimización (entendiendo su lógica interna y sus métodos de búsqueda) te abren los ojos a muchas cosas y te abren caminos y visiones de las vías de búsqueda (ya sea de optimización de forma general o de aprendizaje de forma particular). Estoy planeando un artículo con un experimento de este tipo, con una mezcla de características.

¿Qué quiere decir con"admisibilidad de la aplicación frontal"? - No entiendo esta formulación de la pregunta.

Justo el otro día empecé el proyecto de un cliente, un asesor con una red neuronal (existe la posibilidad de elegir un algoritmo de optimización interna, SGD y muchos otros), entrenamiento, validación y todo como debe ser, el proyecto es de varias decenas de densas líneas de código..... Entonces, ¿qué estoy diciendo ...? es que neuronka muestra nuevos resultados cada vez sobre los mismos datos de entrenamiento.))))) ¿Neuronka no muestra buenos resultados con nuevos datos? Bueno, muestra resultados diferentes sobre los mismos datos, así que ¿de qué datos nuevos podemos hablar? Pero no se trata de neuronka, porque neuronka es sólo una fórmula estática, pesos y compensaciones se ajustan, pero neuronka no cambia. Entonces, ¿cuál es el problema, ¿por qué se obtienen resultados diferentes? Y el punto es elemental - SGD (y otros) se queda atascado, la atención, en la función de pérdida))) Es decir, no sólo que la red neuronal está entrenado incomprensiblemente, sino también el algoritmo de optimización interna no es capaz de sacar.

Quiero hacer un experimento, para comparar la misma neuralink en los resultados con gradiente y algoritmos de optimización clásica. He ventilado esta pregunta, no he encontrado ninguna investigación sobre este tema, solo veo y oigo como dogma "deberías usar gradient descents y demás", no hay una respuesta clara a la pregunta "por qué deberías". Pregunté a diferentes personas afines a gpt, uno de ellos da artículos al azar de un recurso científico conocido, otro no da enlaces pero dice tercamente que "es necesario", y el tercero admitió que le enseñaron a decirlo y no tiene pruebas de sus palabras, pero estaría encantado de conocerlas (pruebas).

 
Andrey Dik #:

Sobre el primer punto, no he dicho nada de algoritmos de optimización. La esencia de cualquier búsqueda es el óptimo descrito por el usuario. Independientemente del algoritmo de optimización que se utilice, el AO sólo evita la necesidad de hacer una búsqueda completa. Si es posible hacer una búsqueda completa, entonces AO no es necesario, pero la cuestión de "qué se necesita exactamente" sigue en pie, y no importa si el proceso es estacionario o no.

1. Y yo que pensaba que habías hecho una referencia al hilo de MO, porque la opinión de algunos participantes sobre los algoritmos revisados en tus artículos era crítica. Solo decidí aclarar, según entendí, cual es el motivo de desacuerdo de fondo, en mi opinión. No quiero sacar el tema de las personalidades.


A ndrey Dik #: Nadie tiene una respuesta clara a esta pregunta. Si no se sabe qué buscar, entonces nadie ni nada lo hará por el que busca, porque no se sabe qué buscar exactamente, y si es así, entonces cualquier resultado no puede ser clasificado como "lo que se buscaba".

2. Sé lo que hay que buscar - dependencias estadísticamente estables en segmentos cuánticos de predictores, pero lo que dicen los signos al respecto - aún no lo sé. Al construir un modelo, es necesario tener una alta probabilidad de dar el paso correcto en una nueva iteración - eso es todo :)


A ndrey Dik #:

Y yo, en circunstancias favorables, estará encantado de decirle (si sabes lo que quiero decir).

3. No lo entiendo en absoluto, para ser honesto.


A ndrey D ik #:

Exactamente, si usted no sabe qué buscar exactamente, es imposible encontrarlo.

4. Sigues sin entender lo que quiero decir. Para simplificar, imagina que puedes, en un enfoque iterativo, de acuerdo con el algoritmo de optimización, comprobar forzosamente todos los resultados de las variantes entre las que necesitas hacer una elección, y tal elección acercará el modelo a un objetivo particular en todas las muestras disponibles. Y, aquí en el bolsillo es un modelo de este tipo (o coeficientes - como quieras llamarlo), que es bueno en los datos disponibles, pero no es necesariamente la mejor opción. Es decir, el algoritmo atisba cuál será el FF en los datos finales a la hora de elegir un paso para resolver en una iteración. Eso es lo que estoy diciendo, cuando usted no peek, accidentalmente puede obtener un buen resultado que dependía de pasos aleatorios. Estamos hablando de datos de mercado. Y el resultado puede volverse malo cuando se alimentan nuevos datos. De todas formas, lo que quiero decir es que no es tan fácil entender si has obtenido un buen modelo por casualidad o debido a un algoritmo en una submuestra no representativa.


A ndrey Dik #:

De esto trata la discusión.


Andrey Dik #:

Permítanme ponerlo de esta manera, los algoritmos de optimización (la comprensión de su lógica interna y los métodos de búsqueda) abrir los ojos a muchas cosas y abrir caminos y visiones de los caminos de búsqueda (ya sea la optimización de una manera general o el aprendizaje de una manera particular). Estoy planeando un artículo con un experimento de este tipo, con una mezcla de características.

Me interesaría leer sobre tal experimento y en qué medida refleja el modelo de formación del mercado.


A ndrey D ik

¿Qué significa"admisibilidad de la aplicación frontal"? - No entiendo esta formulación de la pregunta.

Significa utilizarlo del mismo modo que el optimizador estándar con su genética y sus FF estándar. La aceptabilidad se refiere aquí a la probabilidad de obtener un modelo estable (ajustes) sobre nuevos datos. Así que está claro lo que se va a buscar y encontrar....

Por cierto, ¿has evaluado cómo se las arreglan los algoritmos con las características categóricas?


A ndrey Dik #: Entonces, ¿qué sentido tiene, por qué se obtienen resultados diferentes?

Muchos algoritmos utilizan la aleatorización para la variabilidad, ¿no te has encontrado con algo así fuera del MOE? Si quieres resultados repetibles, fija la semilla.


A ndrey Dik #: Quiero hacer un experimento, comparar la misma neurona por resultados con algoritmos de gradiente y optimización clásica.

Es necesario comparar no sólo un modelo, pero al menos un centenar - por algunos criterios estadísticos descriptivos. Sólo la probabilidad de elegir la configuración correcta (modelo) se puede estimar en los nuevos datos ...


A ndrey Dik #: Ventilado esta pregunta, no encontró ninguna investigación sobre este tema

El descenso gradiente se utiliza como método eficaz para aprovechar los recursos informáticos. Hay métodos más complicados y pesados, como mencionó el conferenciante en un vídeo, pero no me acordé, sólo está claro el fundamento.

 
Así es como las sucursales reciben spam....