Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 398
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Mirado el archivo, hay 8 coeficientes de entrada es23 es decir hay una neurona para trabajar con 3 entradas. Supongo que su programa tarda veinticuatro horas en calcular qué 3 entradas de 100 debe alimentar esta neurona. Creía que la neurona se expandía hasta al menos 10 entradas...
sí, es una selección difícil, sólo quedan unos pocos :)
Te he dado un enlace a su página web, hay una descripción del modelo. No sé ni cómo describirlo, dice Máquina Nuclear + Máquina Vectorial. Es más complicado allí que en la versión mt5 + entrenamiento con oponente en lugar de seleccionar los pesos en el optimizador, pero en el resultado tenemos los mismos pesos para cada uno de los predictores.
Por lo que sé, se utiliza el método de los vectores de referencia, cuando en un espacio multidimensional se construye el hiperplano que se aleja al máximo de todos los puntos del conjunto de entrenamiento, dividiendo así el espacio en dos categorías "sí" y "no". Transformaciones del núcleo de escupir. Así que el optimizador tarda MUCHO tiempo en calcular. No es una neurona la que lo entrena, es un sistema de IA que además de entrenar hace un montón de conversiones y fuerza bruta con los datos. Por eso tarda tanto. Lo cual es un poco frustrante. Pero, de nuevo, ¿cómo se puede conseguir un modelo adecuado para el mercado en 5 segundos???? No lo sé :-(
Por lo que sé, se utiliza el método de los vectores de referencia, cuando en el espacio multidimensional se construye tal hiperplano que se aleja al máximo de todos los puntos del conjunto de entrenamiento, dividiendo así el espacio en dos categorías "sí" y "no". Transformaciones del núcleo de escupir. Así que el optimizador tarda MUCHO tiempo en calcular. No es una neurona la que lo entrena, es un sistema de IA que además de entrenar hace un montón de transformaciones y fuerza bruta con los datos. Por eso tarda tanto. Lo cual es un poco frustrante. Pero entonces, ¿cómo se puede conseguir un modelo adecuado para el mercado en 5 segundos???? No lo sé :-(
Al menos, como ya se ha escrito más arriba, no hay que meter un montón de predictores, ya que de todos modos los filtrará todos :)
Mirado el archivo, hay 8 coeficientes de entrada es23 es decir hay una neurona para trabajar con 3 entradas. Supongo que su software está contando de la noche a la mañana qué 3 entradas de 100 hay que suministrar a esta neurona. Pensaba que la neurona se expande hasta al menos 10 entradas...
getBinaryClassificator1(x0, x1, x2, x3, x4, x5, x6, x7);
No es algo que hayas entendido mal, hay 2 rejillas, se alimentan 8 entradas a cada una, luego el resultado de ambas rejillas se interpreta como se ha descrito antes. Si ambos dicen que sí, entonces sí, si no, entonces no, si es mixto, no sé... Así.....
Duro... ¿Es posible predecir algo a partir de 3 entradas?
Creo que estás perdiendo el tiempo en el lugar equivocado, si la RNN se ampliara a 10 o 100 entradas, entonces podrías dedicar 24 horas a su entrenamiento. Y ahora pierdes el tiempo en cribar las entradas. Y no en la formación.
No es algo que hayas entendido mal, hay 2 rejillas con 8 entradas cada una, luego el resultado de ambas rejillas se interpreta como se ha descrito antes. Si ambos dicen que sí, entonces sí, si no, entonces no, si se mezclan, entonces no sé... Así.....
8 son los coeficientes de enlace entre las entradas y las salidas, y hay 3 entradas (8 =23)
Más concretamente, los coeficientes de las reglas:
r0 = (1 - A) * (1 - B) * (1 - C) * p0
Y sólo hay 3 entradas - A, B y Cr1 = (1 - A) * (1 - B) * C * p1
r2 = (1 - A) * B * (1 - C) * p2
r3 = (1 - A) * B * C * p3
r4 = A * (1 - B) * (1 - C) * p4
r5 = A * (1 - B) * C * p5
r6 = A * B * (1 - C) * p6
r7 = A * B * C * p7
Duro... ¿Es posible predecir algo a partir de 3 entradas?
Creo que estás perdiendo el tiempo en el lugar equivocado, si la RNN se ampliara a 10 o 100 entradas, entonces podrías dedicar 24 horas a su entrenamiento. Y ahora pierdes el tiempo en cribar las entradas. Y no en la formación.
porque la última versión utiliza un comité de 2 ns, entonces los resultados se comparan
porque la última versión utiliza un comité de 2 ns, entonces los resultados se comparan
Yo ampliaría la neurona a 10 entradas...
Pero necesito añadir reglas hasta 1024:
r0 = (1 - A) * (1 - B) * (1 - C) * p0
r1 = (1 - A) * (1 - B) * C * p1
r2 = (1 - A) * B * (1 - C) * p2
r3 = (1 - A) * B * C * p3 A) * B * C * p3
r4 = A * (1 - B) * (1 - C) * p4
r5 = A * (1 - B) * C * p5
r6 = A * B * (1 - C) * p6
r7 = A * B * C * p7
.....
r1023 =
Bueno, al menos, tal y como está escrito arriba, no deberías poner un montón de predictores, los eliminará todos de todos modos :)
Aquí estoy listo para apostar. Esto es por la práctica. Lo que observo durante el uso del optimizador.
Si hay menos columnas que filas, el número de entradas es menor que el tamaño condicional del polinomio de la red.
Si el número de columnas y filas es igual, el número de entradas y el tamaño del polinomio son aproximadamente iguales.
Si hay más columnas que filas, el tamaño del polinomio es menor que el número de entradas.
En otras palabras, es necesario que el número de columnas y filas sea aproximadamente igual. Entonces el polinomio se obtiene con un número suficiente de entradas, y su tamaño es aproximadamente igual al número de entradas.
En otras palabras. Cuanto mayor sea el archivo, más multiparamétrico será el modelo. El número de entradas y el tamaño del polinomio aumentan, lo que indica que el modelo se vuelve más inteligente. Y así sucesivamente.
Además, cuando se ejecuta el mismo archivo más de una vez, el conjunto de parámetros de entrada es siempre diferente. Esto se debe a la partición aleatoria de la muestra durante la división. Pero si ejecutamos un mismo archivo y obtenemos modelos absolutamente diferentes, seguirán funcionando de forma idéntica, al menos deberían hacerlo. Esta es la respuesta a la pregunta de qué pescado está en el archivo dado. Si difiere de una ejecución a otra, significa que los datos no tienen nada que ver con la salida. Así....
8 son los coeficientes de enlace entre las entradas y las salidas, y hay 3 entradas (8 =23)
Más concretamente, los coeficientes de las reglas:
r0 = (1 - A) * (1 - B) * (1 - C) * p0
Sólo hay tres entradas: A, B y C.r1 = (1 - A) * (1 - B) * C * p1
r2 = (1 - A) * B * (1 - C) * p2
r3 = (1 - A) * B * C * p3
r4 = A * (1 - B) * (1 - C) * p4
r5 = A * (1 - B) * C * p5
r6 = A * B * (1 - C) * p6
r7 = A * B * C * p7
¿De qué coeficientes de acoplamiento hablas? Aquí hay una lista de entradas utilizadas, y lo que se ve allí antes de cada polinomio es la normalización, y hay 8 entradas descritas, mira abajo en la parte inferior del archivo.
//Variable x0: Del
//Variable x1: Del1
//Variable x2: VDel
//Variable x3: VDel1
//Variable x4: VDel6
//Variable x5: ST5
//Variable x6: VAD11
//Variable x7: VVolum4
Dónde están las tres entradas????? Cuando hay ocho de ellos.
El ejemplo que has citado es de otro trabajo de Reshetov y no tiene nada que ver con el optimizador.