Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1418

 
Yuriy Asaulenko:

Deja de hacer el ridículo, payaso.

Dame alguna prueba cuando digas tonterías, tus dibujos con un montón de puntos ya han sido discutidos, ¿qué es lo siguiente?

¿qué metodología aún, alguien se perdió algo?

Tú eres el payaso que somos los 2, vete a aburrir tu circo a otra parte, "señor".

Tus posts no interesan a nadie, no son divertidos, informativos, irrelevantes... anderstendish... si te aburres, es tu problema, vete entonces
 
Maxim Dmitrievsky:

Dame alguna prueba cuando digas tonterías, tus dibujos con un montón de puntos ya han sido discutidos, ¿qué es lo siguiente?

¿qué metodología aún, alguien se perdió algo?

El clowninidze de los 2 eres tú, vete a perder tu circo ido a otra parte, "señor".

Tus posts no interesan a nadie, no son divertidos, ni informativos, ni nada... ¿anderstendish? Si te aburres, es tu problema, piérdete

¿Has probado a ver a un psiquiatra?

 
Yuriy Asaulenko:
Los bosques y las NS tienen suficiente inteligencia para organizar internamente sus propios predictores, los que mejor se adaptan a la tarea.

A no ser que no sea sólo una tontería, sino un engaño para tirarte del andamio, para llevarte por una pendiente resbaladiza.

No hay "inteligencia" en el andamiaje y la NS, son algoritmos bastante prosaicos, como la ordenación, quizá un poco más complicados, como la inversión de matrices...

El resultado depende de los predictores EXACTAMENTE como el estado del sistema caótico a partir de las condiciones iniciales.

Añade algunas características de ruido, deforma el espacio de características y ya está.


Me preguntaba...

¿Ha presentado alguna vez un precio neto al bosque? No lo creo, porque una persona que lo haya probado no postularía esta mierda aquí...

 
Grial:

A no ser que no sea sólo una tontería, sino un engaño para tirarte del andamio, para llevarte por una pendiente resbaladiza.

No hay "inteligencia" en el andamiaje y la NS, son algoritmos bastante prosaicos, como la ordenación, quizá un poco más complicados, como la inversión de matrices...

El resultado depende de los predictores MUY FUERTEMENTE, como el estado del sistema caótico a partir de las condiciones iniciales.

Añade algunas características de ruido, deforma el espacio de características y ya está.


Me preguntaba...

¿Ha presentado alguna vez un precio neto al bosque? Me da la sensación de que no, porque una persona que lo probara no postularía aquí semejantes chorradas...

Parece que es usted muy fácil de "confundir y dirigir en una pendiente resbaladiza". ))

Por supuesto, no tengo ningún intelecto, pero incluso tengo lo suficiente como para formar predictores necesarios dentro de mí de BP).

Sí, de hecho, lo hice, y no sólo yo, y no sólo en el bosque, sino también en la NS. De 20 a 50 muestras. Estoy bastante satisfecho con los resultados. Si leemos la teoría de NS, son bastante buenos en estas tareas de procesamiento de BP. Por cierto, casi todos los paquetes tienen instancias que trabajan directamente con BP, puedes ver por ti mismo que no hay problemas).

 
Yuriy Asaulenko:

Parece que es usted muy fácil de "confundir y dirigir en una pendiente resbaladiza". ))

Por supuesto que no tengo ningún intelecto, pero incluso tengo el suficiente como para formar de forma independiente los predictores necesarios dentro de mí de BP).

Sí, de hecho, lo hice, y no sólo yo, y no sólo en el bosque, sino también en la NS. De 20 a 50 muestras. Estoy bastante satisfecho con los resultados. Si leemos la teoría de NS, son bastante buenos en estas tareas de procesamiento de BP. Por cierto, casi todos los paquetes tienen instancias que funcionan directamente con BP, puedes ver por ti mismo que no hay problemas).

Vasya, date un paseo con esos "conocimientos", aquí no le interesas a nadie

Cuando escribo sobre los incrementos, tú hablas de los incrementos, cuando escribo sobre los precios, tú escribes sobre los precios. Sólo oyes el timbre, pero no sabes dónde está. Mañana escribiré sobre otra cosa y lo repetirás como un loro durante otro año, responderás como el bosque más oscuro.

 
Maxim Dmitrievsky:

Vasya, date un paseo con esos "conocimientos", aquí no le interesas a nadie

Cuando escribo sobre incrementos, tú hablas de incrementos, cuando escribo sobre precios, tú escribes sobre precios. Sólo oyes el timbre, pero no sabes dónde está. Mañana escribiré sobre otra cosa y repetirás como un loro durante otro año, tu respuesta son años, como el bosque más denso.

Será mejor que veas a un psiquiatra. Eres sintomático. Probablemente una fase aguda. No le curarán, pero le aliviarán la exacerbación.

 
Yuriy Asaulenko:

Parece que es usted muy fácil de "confundir y dirigir en una pendiente resbaladiza". ))

Por supuesto que no tengo ningún intelecto, pero incluso tengo el suficiente como para formar predictores necesarios dentro de mí a partir de la PA).

Sí, de hecho, lo hice, y no sólo yo, y no sólo en el bosque, sino también en la NS. De 20 a 50 muestras. Estoy bastante satisfecho con los resultados. Si leemos la teoría de NS, son bastante buenos en estas tareas de procesamiento de BP. Por cierto, casi todos los paquetes tienen instancias que funcionan directamente con BP, puedes ver por ti mismo que no hay problemas).

Con todos los respetos(lo consigues...) pero tienes una comprensión muy pobre de cómo funciona el modus operandi, a nivel de oscurantismo a la "Si pones un programa de conducción sin conductor para conducir sobre el movimiento de los precios, entonces...", gente como tú pegando capturas de pantalla de gráficos en la CNN y noticias de texto en LSTM. Maxim Dmitrievsky caracterizó correctamente su mentalidad de"oyes la campana, pero no sabes dónde está". En MLP , además en el bosque, no hay una búsqueda mágica de características, todas las heurísticas estúpidas trabajan más rápido que el kNN "cuasi-óptimo" y el método de la ventana de Parzen, que esencialmente promedia la vecindad alrededor de un punto. Lea Mitchell, escriba usted mismo kNN, parzen, MLP, les..... En la CNN en general la convolución en sí misma es una heurística de preprocesamiento codificada para características localmente correlacionadas, toma las imágenes y baraja los píxeles, de una manera, y eso es todo... La CNN pica enseguida, no encuentra nada ya que todo funciona en márgenes muy estrechos, no se puede buscar por sí mismo.

Si le pones un precio puro a las características, no obtendrás nada mejor que una mezcla normal optimizada para la historia.
 
Grial:

Con todos los respetos (lo consigues...) pero tienes una comprensión muy pobre de cómo funciona la MLP, al nivel de oscurantismo a la "Si pones un programa de conducción no tripulado para conducir sobre el movimiento de los precios, entonces...", gente como tú pegando capturas de pantalla de gráficos en la CNN y noticias de texto en LSTM. Maxim Dmitrievsky caracterizó correctamente su mentalidad de"oyes la campana, pero no sabes dónde está". En MLP , además en el bosque, no hay una búsqueda mágica de características, todas las heurísticas estúpidas trabajan más rápido que el kNN "cuasi-óptimo" y el método de la ventana de Parzen, que esencialmente promedia la vecindad alrededor de un punto. Lea Mitchell, escriba usted mismo kNN, parzen, MLP, les..... En la CNN en general la convolución en sí misma es una heurística de preprocesamiento codificada para características localmente correlacionadas, toma las imágenes y baraja los píxeles, de una manera, y eso es todo... La CNN la va a cagar enseguida, no va a encontrar nada, ya que todo funciona sólo dentro de un límite muy estrecho, no está "buscando" nada por sí mismo.

Si metes un precio puro en las fichas, no consigues nada mejor que un mago normal optimizado para la historia.

No tengo nada que decirles, ya que no hay ninguna cuestión que discutir. Sólo recuerda: la forma más segura de ser engañado es creerse más inteligente que los demás. (с)

Sí, tengo el sistema en NS desde hace más de un año, sin volver a entrenar. Las primeras operaciones, todavía de prueba, aquí en este hilo. ¿Nuevo sistema? - No tengo prisa.

 

Las funciones de activación deben abandonarse cuando ya hay datos preparados en la entrada, para no perder las señales hacia la capa final.

Mientras se introduzcan los datos en las plantillas HH, no habrá ningún efecto.

 

Con el debido respeto (ya sabes...), pero creo que apoyaré a Asaulenko. Casi un millar y medio de páginas, pero sólo hay una conclusión: hay que buscar predictores.

¿De dónde viene la conclusión? Bueno, es muy sencillo: la gente inserta velas en MO y obtiene el 50/50. Y si adjuntamos indicadores, el error disminuirá. Pero, señores, si ponen un hipotético Grial que siempre adivina, obtendrán 0 errores en la salida del MO. Si ha seleccionado un conjunto de indicadores del grial, no necesita MO. Puedes arreglártelas con medios más sencillos.