Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2495

 
mytarmailS #:

..

Sí, sí, sí, cálmate ya)))

Repite tío gruñón :-)
 
Loco. Parece que las redes neuronales realmente mandan aquí. Al menos un par de los míos están a ese nivel...
 
eccocom #:
Thrash. Parece que las redes neuronales realmente mandan aquí. Al menos un par de los míos están a ese nivel...

se rió de toda la granja colectiva y del turno de fábrica (sí, todo montado) :-)

muéstrame una señal de más de un año que realmente funcione en las redes neuronales

Normalmente sólo mencionan "redes neuronales, aprendizaje profundo" y otras tonterías. Y cuando se considera - martingala, cerraduras, rejillas y simple MA. La cruda realidad: los algoritmos simples y las estafas simples son los que mandan.

---

Por más que miro este hilo veo el resultado: sólo bonitos (realmente muy buenos) artículos y autodesarrollo personal de los autores

 
Maxim Kuznetsov #:

riéndose de todo el colectivo de la granja y del turno de la fábrica (sí, todo montado) :-)

muéstrame una señal de más de un año que realmente funcione en las redes neuronales

Normalmente sólo mencionan "redes neuronales, aprendizaje profundo" y otras tonterías. Y cuando se considera - martingala, cerraduras, rejillas y simple MA. La cruda realidad: los algoritmos simples y las estafas simples son los que mandan.

---

Cada vez que miro este hilo veo el resultado: sólo artículos bonitos (realmente muy buenos) y el autodesarrollo personal de los autores

Eso no es lo que quería decir...

Y sobre las redes neuronales escribí más arriba que la norma es 55-56, generalmente sobre nada.

 
eccocom #:
En cuanto a los modelos, no se trata de ellos, sino de que la IA es esencialmente un aproximador...

esa es la cuestión, se trata de modelos, que se crean en base a las dependencias encontradas con la IA, -- y no hay que ir del modelo a la NS, sino de la NS al modelo -- trabajando en condiciones actuales específicas... Por supuesto, las condiciones pueden cambiar...

cuando pensé que el equilibrio en el segmento clásico de AS y el desequilibrio en el segmento keynesiano -- según Keyns -- ya me di cuenta de que el NS para determinar este hecho es algo irrelevante para mí globalmente...

(y la aproximación es sólo 1 de las habilidades de la IA, + la optimización, etc.),

Evgeniy Ilin # :

Todo lo que necesitas está en OHLC, el resto de los datos se derivan de él. Lo principal es un algoritmo flexible que encuentre la manera de convertir OHLC en aquellos datos que tienen más peso, de nuevo es una tarea de la máquina. Además sólo el OHLC es el mismo en casi todas partes, si miras los volúmenes de los ticks o algo más estos datos son diferentes, así como los spreads y demás. Todo lo que necesitas está en el gráfico del terminal.

Pero si tiene la capacidad de aprendizaje profundo, probablemente sea posible... (Incluso he recordado cómo encontrar la curvatura de la "línea recta", como en la niebla, utilizando 1ª y 2ª derivadas, gracias al autor de la cita))

Y si es más modesto, también puede ejecutar una muestra para el momento actual... y luego volver a entrenar como la curva de rendimiento comienza a ir horizontal...

pero si inicialmente se utilizan signos que realmente importan (lógica y económicamente), entonces la propia máquina averiguará qué es lo que impulsa el mercado en ese momento (es decir, de qué depende el conductor en ese momento)...

Mihail Marchukajtes tiene un enfoque muy interesante/lógico y gracias a él por explicar el polinomio(intentaré recordarlo también)... sólo un hombre en el saber! ... pero si la otra persona no sabe y no quiere saber cómo funcionan las estadísticas pasadas (¡¡NO es un modelo todavía!!) para poder procesarlas razonablemente y trasladarlas al futuro (con una probabilidad del 50/50, claro)... entonces culpará al modelo, a la neurona, al mercado y a las condiciones... y por cierto, ¡el cambio de este último es exactamente donde se pueden poner buenas entradas! - El esquema de funcionamiento de cualquier ecosistema, independientemente de su estructura, es siempre el mismo: Condiciones -> Reacciones -> Consecuencias (e incluso consecuencias ambientales).

La principal habilidad de un trader es saber cuándo NO entrar en el mercado... ¡imho!

P.D.

Y si las dependencias actuales encontradas y sus interacciones se desarrollan o no en un modelo... Y no tiene que ver con la SN, sino con la capacidad de aproximación del cerebro del autor del estudio de la muestra, que utiliza la SN como herramienta, pero no como motivo de entrada, y sin delegar en él la responsabilidad del análisis y las conclusiones

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2021.10.25
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
JeeyCi #:

Eso es lo que pasa con los modelos, que se crean en base a las dependencias encontradas con la IA -- y no hay que ir de un modelo a la NS, sino de la NS a un modelo -- trabajando en condiciones actuales específicas... Por supuesto, las condiciones pueden cambiar...

cuando pensé que el equilibrio está en el segmento clásico de AS y el desequilibrio está en el segmento keynesiano -- según Keyns -- ya me di cuenta de que el NS para determinar este hecho es algo irrelevante para mí globalmente...

(y la aproximación es sólo 1 de las habilidades de la IA, + la optimización, etc),

pero si hay capacidad de aprendizaje profundo, supongo que es posible... (Incluso he recordado cómo encontrar la curvatura de una "línea recta", como en la niebla, utilizando el 1ª y 2ª derivadas, gracias al autor de la cita))

Y si es más modesto, también puede ejecutar una muestra para el momento actual... y luego volver a entrenar como la curva de rendimiento comienza a ir horizontal...

pero si inicialmente se utilizan atributos realmente relevantes (lógica y económicamente), entonces la propia máquina averiguará qué es lo que mueve el mercado en ese momento (es decir, de qué depende más el conductor)...

Mihail Marchukajtes tiene un enfoque muy interesante/lógico y gracias a él por explicar el polinomio (intentaré recordarlo también)... sólo un hombre en el saber! ... pero si la otra persona no sabe y no quiere saber cómo funcionan las estadísticas pasadas (¡¡NO es un modelo todavía!!) para poder procesarlas razonablemente y trasladarlas al futuro (con una probabilidad del 50/50, claro)... entonces culpará al modelo, a la neurona, al mercado y a las condiciones... y por cierto, ¡el cambio de este último es exactamente donde se pueden poner buenas entradas! - El esquema de funcionamiento de cualquier ecosistema, independientemente de su estructura, es exactamente el siguiente: Condiciones -> Reacciones -> Consecuencias (e incluso consecuencias ambientales)

La principal habilidad de un trader es saber cuándo NO entrar en el mercado... ¡imho!

P.D.

Si un comerciante ha encontrado dependencias actuales y sus interacciones en un modelo o no - es una cuestión global... y no tiene que ver con la SN, sino con la capacidad de aproximación del cerebro del autor de la investigación, que utiliza la SN como herramienta, pero no le delega toda la responsabilidad del análisis y las conclusiones

Ya veo, ¿a dónde irá el euro hoy?
 
eccocom #:
Lee la documentación de TensorFlow, todo está en forma de constructor... prácticamente. Realmente son cajas negras. Si es interesante te puedo dar el código del perceptrón escrito manualmente, y por cierto todo son cálculos matriciales, está todo construido sobre ellos

Por cierto tensorflow.keras (como el de Evgeny Dyuka)

Por el momento Keras no proporciona ninguna funcionalidad para extraer la importancia de la característica

SKLearn parece más interesante - Interpretación de los resultados del aprendizaje automático(tal vez la biblioteca no es muy buena, pero la lógica de la evaluación está dada)

p.d.

no has adjuntado...

Feature Importance Chart in neural network using Keras in Python
Feature Importance Chart in neural network using Keras in Python
  • 2017.07.27
  • andre andre 481 1 1 gold badge 5 5 silver badges 8 8 bronze badges
  • stackoverflow.com
I am using python(3.6) anaconda (64 bit) spyder (3.1.2). I already set a neural network model using keras (2.0.6) for a regression problem(one response, 10 variables). I was wondering how can I generate feature importance chart like so:
 
JeeyCi #:

por cierto tensorflow.keras (como tiene Evgeny Dyuka) - entonces

SKLearn parece más interesante - Interpretación de los resultados del aprendizaje automático (tal vez la biblioteca no es muy buena, pero la lógica de evaluación está dada)

p.d.

no has adjuntado...

Te estás metiendo en una especie de jungla. Los problemas de la predicción (o más bien de la no predicción) de la NS se sitúan en un nivel mucho más simple y no tienen nada que ver con la propia NS

https://neurohive.io/ru/tutorial/prostaja-nejronnaja-set-python/

Es un simple perceptrón))).

Mi ejemplo de tutorial está en Júpiter, no quiero copiar en trozos y no uso githab.

Простая нейронная сеть в 9 строк кода на Python
Простая нейронная сеть в 9 строк кода на Python
  • 2019.02.14
  • neurohive.io
Из статьи вы узнаете, как написать свою простую нейросеть на python с нуля, не используя никаких библиотек для нейросетей. Если у вас еще нет своей нейронной сети, вот всего лишь 9 строчек кода: Перед вами перевод поста How to build a simple neural network in 9 lines of Python code , автор — Мило Спенсер-Харпер . Ссылка на оригинал — в подвале...
 
eccocom # :

Te estás metiendo en la rutina.

La lógica... que el NS se utiliza cuando es necesario sortear la falta de una fórmula que describa la dependencia de un rasgo con respecto a un factor... se utiliza la ponderación... pero antes y después de la NS, el tratamiento estadístico estándar/clásico está en vigor... por ejemplo teniendo sólo PDF=F'(X)=dF(x)/dx (aunque no necesitamos CDF, ya que todas las conclusiones del análisis de la población se extraen de la PDF) y teniendo datos volátiles - en primer lugar necesito llevar las distribuciones a la uniformidad para la posibilidad de su análisis conjunto - y aquí ayuda la ponderación (aquí no aspiro a las matemáticas)... pero el análisis en sí no tiene nada que ver con NS, ni sus conclusiones con ella (ns)... aunque dicha estimación puede ser burda, pero la estática clásica también es imperfecta (por ejemplo, el uso de logaritmos de los incrementos ya introduce por sí mismo la tendencia en las conclusiones, un defecto puramente matemático)... De hecho, cualquier modelo tiene sus supuestos...

los participantes en el mercado NO esperan las predicciones, sino que evalúan el riesgo y la volatilidad y toman sus decisiones de negociación (y de cobertura) en función de ello... es que hay 2 factores variables en este análisis - volatilidad y ventana de tiempo - y NS ayuda a uniformar las muestras (pero también se puede usar GARCH) para que puedan ser analizadas juntas en un solo modelo estadístico y ayuda a determinar el horizonte... En esos momentos, cuando no hay una fórmula matemática, que no es necesaria (todo cambia en este mundo)... pero ponderando, ponderando y volviendo a ponderar (en aras de la compresión a alguna regresión) - para hacer un análisis conjunto dentro de un modelo estadístico, y preferiblemente sin ruido o al menos con su minimización...

Merece la pena tener en cuenta la lógica de inferencia bayesiana para Gauss...

Lo principal, supongo, es construir una arquitectura NS tal, que cuando las capas neuronales pasen a la salida, la dispersión no aumente... imho (por qué acumularlo, si está disponible tal cual, es una pregunta retórica)... y luego la lógica clásica de la estadística... e incluso en la historia muy profunda no hay suficientes muestras para analizar cualitativamente momentos robustos (todo pasa en la vida)... Supongo que en el modelo de clasificación de Mihail Marchukajtes también pueden darse valores atípicos... (tenemos que pensar, ¿cómo debe tratar el secuenciador?)

hasta ahora mi imho es ... También miraré importando scipy.stats como stats

p.d.

gracias por el enlace

 
JeeyCi #:

a la lógica ... que el NS se utiliza cuando es necesario sortear la falta de una fórmula que describa la dependencia de un rasgo con respecto a un factor... se utiliza la ponderación... pero antes y después de NS el procesamiento estadístico estándar/clásico... por ejemplo teniendo sólo PDF=F'(X)=dF(x)/dx (aunque no necesitamos CDF, ya que todas las conclusiones del análisis de la población se extraen de la PDF) y teniendo datos volátiles - en primer lugar necesito llevar las distribuciones a la uniformidad para la posibilidad de su análisis conjunto - y aquí ayuda la ponderación (aquí no aspiro a las matemáticas)... pero el análisis en sí no tiene nada que ver con NS, ni sus conclusiones con ella (ns)... aunque dicha estimación puede ser burda, pero la estática clásica también es imperfecta (por ejemplo, el uso de logaritmos de los incrementos ya introduce la tendencia en las conclusiones en sí misma, defectos puramente matemáticos)... De hecho, cualquier modelo tiene sus supuestos...

los participantes en el mercado NO esperan las predicciones, sino que evalúan el riesgo y la volatilidad y toman sus decisiones de negociación (y de cobertura) en función de ello... es que hay 2 factores variables en este análisis - volatilidad y ventana de tiempo - y NS ayuda a uniformar las muestras (pero también se puede usar GARCH) para que puedan ser analizadas juntas dentro de un único modelo estadístico y ayuda a determinar el horizonte... En esos momentos, cuando no hay una fórmula matemática, que no es necesaria (todo cambia en este mundo)... pero ponderando, ponderando y volviendo a ponderar - para hacer un análisis conjunto dentro de un modelo estadístico, y preferiblemente sin ruido o al menos con su minimización...

Lo principal, supongo, es construir una arquitectura NS tal, que la dispersión no aumente cuando las capas neuronales pasan de camino a la salida... imho (por qué acumularlo, si está disponible tal cual - una pregunta retórica)... y luego la lógica clásica de la estadística... e incluso en la historia muy profunda no hay suficientes muestras para analizar cualitativamente los momentos robustos (todo pasa en la vida)

hasta ahora mi imho es ... Voy a echar otro vistazo a import scipy.stats as stats

p.d.

gracias por el enlace

¿Cuándo comenzará la aplicación práctica?