Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 716
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Michael, ¿cómo terminaron los experimentos de entropía/no entropía?
Mis hermanos me aconsejaron que instalara R y me lanzaron un par de plugins con fragmentos de código. Como resultado, he dejado de hacer todos los cálculos en Excel y utilizo paquetes ya preparados. En R he hecho un cálculo del número de variables de entrada importantes para la salida de cada línea de la tabla, y para varias salidas también. Como resultado obtengo cierta cantidad de datos dependiendo del tamaño de la tabla y de la variable de salida. Elijo la salida en la que tengo el máximo número de variables importantes con la máxima profundidad de muestreo. A continuación, entreno los modelos con la muestra preparada. Y sabes, en todos los años de entrenamiento de IA es la primera vez que las pruebas muestran resultados satisfactorios tan estables. Pero todas las pruebas no servirán de nada si la señal no se eleva, y cuando se eleve y la gente le preste atención, todo el mundo empezará a leer de nuevo mi artículo y tratará de entender qué he hecho y cómo lo he hecho. Al fin y al cabo, no importa realmente cómo lo haya hecho, siempre que funcione a largo plazo. Y no importa si se utiliza un ordenador o la IA. ¡¡¡¡¡Lo importante es el resultado final!!!!!
Y este es el eslabón desgastado que inicia toda la acción en el mercado. Es interesante verlo a partir del minuto 20. Ahí es donde se le da lo esencial...
https://www.youtube.com/watch?v=d4XzMqHNeew
He lanzado esto a los que piensan que mis conocimientos del mercado son ridículos. Aunque sé muy poco sobre el mercado, lo miro con sobriedad, sin ilusiones ni gafas de color de rosa. Te deseo lo mismo en .....Mis hermanos me aconsejaron que instalara R y me lanzaron un par de plugins con fragmentos de código. En consecuencia, dejé de hacer todos los cálculos en Excel y utilicé los paquetes ya preparados. En R he hecho un cálculo del número de variables de entrada importantes para la salida de cada línea de la tabla, y para varias salidas también. Como resultado obtengo cierta cantidad de datos dependiendo del tamaño de la tabla y de la variable de salida. Elijo la salida en la que tengo el máximo número de variables importantes con la máxima profundidad de muestreo. A continuación, entreno los modelos con la muestra preparada. Y sabes, en todos los años de entrenamiento de IA es la primera vez que las pruebas muestran resultados satisfactorios tan estables. Pero todas las pruebas no servirán de nada si la señal no se eleva, y cuando se eleve y la gente le preste atención, todo el mundo empezará a leer de nuevo mi artículo y tratará de entender qué he hecho y cómo lo he hecho. Al fin y al cabo, no importa realmente cómo lo haya hecho, siempre que funcione a largo plazo. Y no importa si se utiliza un ordenador o la IA. ¡¡¡¡¡Lo importante es el resultado final!!!!!
Bueno, es decir, ahora mismo, toda la investigación está en suspenso. Se utilizan plantillas preparadas de R, contando incluso con un pequeño +. A continuación, la apertura de la señal y, si hay dinero fijo en la cartera, la continuación de la investigación fuera de las plantillas. ¿Estoy en lo cierto al entender la situación actual?
Es decir, ahora mismo, toda la investigación está en suspenso. Las plantillas ya hechas de R se están utilizando, aunque sólo sea por un pequeño +. A continuación, abra la señal y, si hay dinero fijo en el monedero, siga investigando fuera de las plantillas. ¿Entiendo bien la situación actual?
No. Ahora la investigación está en pleno apogeo, concretamente las pruebas a gran escala en relación con las nuevas oportunidades. Los resultados hasta ahora son más que satisfactorios. La señal ya está ahí, ahora sólo tengo que levantarla :-).
En R estoy preprocesando los datos y sacando la basura de los datos. Resulta que la presencia de basura en la entrada degrada mucho el rendimiento del modelo en el OOS. Después del preprocesamiento, cuando R me dice que estas entradas exactas tienen dependencia con la salida, busco la dependencia misma en el optimizador. Consigo unos 3-5 modelos, luego hago pruebas de control de cada modelo y selecciono el que ha pasado la prueba. Luego lo coloco en el robot y compruebo.....
.... Resulta que la presencia de basura en la entrada es muy perjudicial para el rendimiento del modelo en el OOS.
+100
Y no sólo en bucle abierto.
No. La investigación está ahora en pleno apogeo, concretamente las pruebas a gran escala en relación con las nuevas posibilidades que han surgido. Los resultados son más que satisfactorios hasta ahora. La señal ya está ahí, ahora sólo tengo que levantarla :-).
En R estoy preprocesando los datos y sacando la basura de los datos. Resulta que la presencia de basura en la entrada degrada mucho el rendimiento del modelo en el OOS. Después del preprocesamiento, cuando R me dice que estas entradas exactas tienen dependencia con la salida, busco la dependencia misma en el optimizador. Consigo unos 3-5 modelos, luego hago pruebas de control de cada modelo y selecciono el que ha pasado la prueba. Luego se lo pongo al robot y veo cómo va.....
así que todo lo que tienes que hacer es tirar el jpredictor y usar la abundancia de modelos en R
tal vez sus rasgos son tan ardientes que cualquier modelo estaría bien con ellos
así que todo lo que tienes que hacer es tirar el jpredictor y usar la abundancia de modelos en R
tal vez sus signos son tan ardientes que cualquier modelo estaría bien con ellos
Esa es una afirmación fundamentalmente errónea. La cuestión es que Reshetov apretó todos los tornillos del optimizador hasta el límite en cuanto a la reconversión. Condiciones máximas para la selección de modelos, por no hablar de la construcción aleatoria del entrenamiento y las pruebas. Me parece que las tuercas se aprietan incluso demasiado, porque con la abundancia de datos de entrada los modelos rara vez tenían ni una décima parte de todas las entradas. PERO, ¿qué hizo R?
Mediante el preprocesamiento que da R, estas entradas tienen algún tipo de relación con esta salida. Así que R sólo dice sobre la existencia de esta correlación, y la búsqueda de esta correlación es hecha por el optimizador y con sus reglas duras para reducir el sobreentrenamiento construye modelos en el campo de los datos útiles para la salida y no es sobreentrenado. Al menos lo intenta..... ¡¡¡¡Así que es una buena simbiosis !!!!
Bueno. La crítica está muy presente..... Así se hace.....
Dígame, ¿qué hay de ridículo en mi post? Qué pasa con él????
Nada, sólo generalidades al estilo de Gertschik.
Mis hermanos en ciencias me aconsejaron instalar R...