Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2496

 
Vladimir Baskakov #:
¿Cuándo comenzará la aplicación práctica?

cuando muevas el culo y te pongas a aplicar... en vez de aterrorizar este hilo (por enésima vez) con señales para operar... - mi oficio no es tu oficio... tu consulta no es mi dolor de cabeza... - aplique lo que quiera y lo que crea conveniente...

 
JeeyCi #:

cuando levantes el culo de esa silla y empieces a aplicar... no aterrorizar a todo el hilo (por enésima vez) acosándome para que te de señales de comercio... - mi oficio no es tu oficio... tu consulta no es mi dolor de cabeza... - aplique lo que quiera y lo que crea conveniente...

La agresión inmotivada sugiere que no hay aplicación práctica, sólo blablablá
 
Vladimir Baskakov #:
... habla del hecho de que ...

dice que todo tu trolling y groserías anteriores resultan ser Reacciones y Consecuencias de no responderte -- no aportas nada constructivo a cambio... y nadie le debe a usted generar entradas en el mercado (simplemente porque no sabe nada más que tomar lo prepotente e inadecuado)

 
JeeyCi #:

dice que todo tu trolling y groserías anteriores resultan ser Reacciones y Consecuencias de no responderte -- no aportas nada constructivo a cambio... Y nadie está obligado a generar entradas en el mercado para ti (simplemente porque no sabes más que empujar, mendigar y ser inadecuado)

¿Son posibles los ejemplos?
 
Vladimir Baskakov #:
¿Son posibles los ejemplos?

y no puedes tomar mi tiempo para ti... eres 0 en la rama (ver anterior ~3000 pp)

 
JeeyCi #:

y no hay forma de que consigas mi tiempo para ti... eres 0 en la rama

Ya veo, no hay ejemplos
 
Vladimir Baskakov #:
¿Cuándo comenzará la aplicación práctica?
ya ha comenzado
Интеграция прогнозов нейросети в MetaTrader 5
Интеграция прогнозов нейросети в MetaTrader 5
  • www.mql5.com
⚠️  Файлы обновились 08.11.21, текущая версия 1.4        Что нового:        1. Качество прогноза по EURUSD поднялось до 63%, по BTCUSD
 
JeeyCi #:

por cierto tensorflow.keras (como tiene Evgeny Dyuka) - entonces

SKLearn parece más interesante - Interpretación de los resultados del aprendizaje automático (tal vez la biblioteca no es muy buena, pero la lógica de evaluación está dada)

p.d.

no has adjuntado...

Estoy de acuerdo en que la clasificación de las características que alimentamos a la NS es interesante, pero no más que eso. ¿Qué obtenemos como resultado? Si tomamos como axioma (o postulado) la afirmación de que el precio actual lo contiene todo, entonces cualquiera de los signos es importante, no importa el lugar que ocupe en el ranking, sobre todo porque no son muchos y puedo clasificarlos sin SKLearn. O explique si me he perdido algo. Sólo en forma más simple y luego me senté con su siguiente mensaje durante 15 minutos, lo que llegaría a la esencia de lo que se afirma))))
 
JeeyCi #:

a la lógica ... que el NS se utiliza cuando es necesario eludir la falta de una fórmula que describa la dependencia de un rasgo con respecto a un factor... se utiliza la ponderación... pero antes y después de NS el procesamiento estadístico estándar/clásico... por ejemplo teniendo sólo PDF=F'(X)=dF(x)/dx (aunque no necesitamos CDF, ya que todas las conclusiones del análisis de la población se hacen por PDF) y teniendo datos volátiles - en primer lugar necesito llevar las distribuciones a la uniformidad para la posibilidad de su análisis conjunto - y aquí la ponderación es útil (no aspiro a las matemáticas aquí)... pero el análisis en sí no tiene nada que ver con NS, ni sus conclusiones con ella (ns)... aunque dicha estimación puede ser burda, pero la estática clásica también es imperfecta (por ejemplo, el uso de logaritmos de los incrementos ya introduce por sí mismo la tendencia en las conclusiones, un defecto puramente matemático)... De hecho, cualquier modelo tiene sus supuestos...

los participantes en el mercado NO esperan las predicciones, sino que evalúan el riesgo y la volatilidad y toman sus decisiones de negociación (y de cobertura) en función de ello... es que hay 2 factores variables en este análisis - volatilidad y ventana de tiempo - y NS ayuda a uniformar las muestras (pero también se puede usar GARCH) para que puedan ser analizadas juntas en un solo modelo estadístico y ayuda a determinar el horizonte... En esos momentos, cuando no hay una fórmula matemática, que no es necesaria (todo cambia en este mundo)... pero ponderando, ponderando y volviendo a ponderar (en aras de la compresión a alguna regresión) - para hacer un análisis conjunto dentro de un modelo estadístico, y preferiblemente sin ruido o al menos con su minimización...

Merece la pena tener en cuenta la lógica de inferencia bayesiana para Gauss...

Lo principal, supongo, es construir una arquitectura NS tal, que cuando las capas neuronales pasen a la salida, la dispersión no aumente... imho (por qué acumularlo, si está disponible tal cual, es una pregunta retórica)... y luego la lógica clásica de la estadística... e incluso en la historia muy profunda no hay suficientes muestras para analizar cualitativamente momentos robustos (todo pasa en la vida)... Supongo que en el modelo de clasificación de Mihail Marchukajtes también pueden darse valores atípicos... (tenemos que pensar, ¿cómo debe tratar el secuenciador?)

hasta ahora mi imho es ... También miraré importando scipy.stats como stats

p.d.

gracias por el enlace

Me confunde un poco su siguiente afirmación: " El NS ayuda a que las muestras sean uniformes". ¿Cómo es eso?

Además - "lo principal es construir una arquitectura del NS tal que la varianza no aumente cuando las capas de neuronas pasen a la salida ". Tengo una pregunta, a qué te refieres con eso, más detalles y más concretos. Supongo que hay algo de sentido común que no puedo entender. Por cierto si quieres evitar la proliferación de ideas, llevémoslo a una cuenta personal, yo también estaría encantado de compartir y escuchar tus opiniones. Tengo algunas ideas sobre el hecho de que no es el NS el que no nos da un resultado fiable y no podemos ver el bosque por los árboles. Alguna idea (y experimentos con código en consecuencia) de cómo se puede obviar esto.

 
eccocom #:
. O explique si me he perdido algo. He tenido que simplificarlo, porque he tardado unos 15 minutos en llegar al fondo de tu mensaje) ))

Jason Brownlee (autor de Deep Learning With Python y Statistical Methods for Machine Learning) -

- Los 3 errores que cometen los principiantes:

1. Los profesionales no conocen las estadísticas
2. Los profesionales estudian las estadísticas equivocadas
3. Los profesionales estudian las estadísticas de forma equivocada

eccocom #:
cualquiera de los atributos es importante, independientemente del lugar que ocupen en la clasificación, sobre todo porque no son tantos y puedo clasificarlos por orden de importancia sin SKLearn.

Diferentes atributos adquieren importancia en diferentes condiciones... pero si estás seguro de que puedes clasificarlos correctamente en el impulso, eres AI (no sé qué precisión y cuál es el error)...

qué introducir - decide por ti mismo, ponte a prueba, no olvides comprobar tus hipótesis (la prueba t de Student está en la clase de estadística del módulo scipy) ... en general, neuronki es una herramienta útil para superar las dificultades de trabajar con muestras grandes en estadística, pero no sustituye la lógica estadística, sino que la implementa... incluyendo la comprensión de que la muestra debe ser representativa, y no del techo (¡incluyendo el número! y la calidad [heterogeneidad] de las muestras)... algo así como