Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 460

 
Mihail Marchukajtes:

Estás dando palos de ciego...... Dame un ejemplo concreto... Entonces podemos continuar la conversación, pero por lo demás....

No tiene argumentos, si encontró algo que considera un error y se lo dijo a Reshetov. Él, por su parte, no ha reconocido que es un error, lo que significa que sus argumentos son débiles o erróneos. Así que guarda silencio.


¡Discusiones en un estudio!

 
Siempre prevaricando. Sin argumentos para respaldar lo que dices.
 
Vizard_:

Mishek, ¿por qué no dices algo? Apoya a tu hermano)))

¿De qué hablas? ¿Tienes algún negocio? Al menos la gente hace algo interesante.

Escribe algo bueno

 

Esta es una versión muy antigua, y estoy 100% de acuerdo con Wizard en que es mejor no usarla. El modelo se vuelve a entrenar, y también cuando al final muestra una estimación de la precisión en los datos fuera de la muestra, la muestra con un error, sobrestimándola en gran medida. Incluso he publicado en este hilo del foro un ejemplo en el que el modelo en la información después de la formación mostró el 90% de precisión en los nuevos datos y después de añadir estos datos a la fórmula y después de calcular el resultado utilizando la fórmula, al menos en Excel las predicciones eran completa aleatoriedad y sólo el 50% de precisión

Entonces Yuri lo trajo a mi mente, agregó un comité de varios modelos, aceleró y nombró todo jPrediction, creó un sitio web para este modelo en particular. El sitio ha desaparecido, pida a Mikhail la última versión y las fuentes.
Imho este modelo resultó bien, pero teniendo en cuenta la lentitud hay cosas mucho más productivas en R.

 
Dr. Trader:

Esta es una versión muy antigua, y estoy 100% de acuerdo con Wizard en que es mejor no usarla. El modelo se vuelve a entrenar, y también cuando al final muestra una estimación de la precisión en los datos fuera de la muestra, la muestra con un error, sobrestimándola en gran medida. Incluso publiqué en este hilo del foro un ejemplo en el que el modelo en la información después de la formación mostró una precisión del 90% en los nuevos datos y después de añadir estos datos a la fórmula y el cálculo de los resultados utilizando la fórmula al menos en Excel había completa aleatoriedad y sólo el 50% de precisión en las predicciones.

Entonces Yuri lo trajo a la mente, agregó un comité de varios modelos, aceleró y nombró todo jPrediction, creó un sitio web para este modelo. El sitio ha desaparecido, pida a Michael la última versión y las fuentes.
Imho este modelo está bien, pero teniendo en cuenta la lentitud hay cosas mucho más productivas en R.

Lo tengo, creo que también está recapacitado, sólo un enlace a la descripción
 
Vizard_:

¿Por qué gritas entonces? No es estúpido. Wizard siempre va al grano, incluso cuando se hace el gracioso)))
Tira la matraca, no pierdas el tiempo con ella. Herramientas y sus posibles combinaciones expresadas ayer.
No pierdas el tiempo con Mishek, escribe una cosa implica otra, y la res en los oos es la tercera...


Sí, estoy susurrando. ) no pudo encontrar otros posts, borrados por los moderadores o algo así
 

Estoy bien... Sólo he estado fuera por un tiempo ....

Realmente lo que se describe en google es una versión antigua de it.... ¡¡¡¡¡¡¡BUT!!!!!!!

Para demostrar razonablemente que JPrediction está reentrenado y no funciona correctamente hagamos un experimento. Al fin y al cabo, todo se aprende por comparación. Esto es exactamente lo que quería hacer.

Supongamos que tenemos un conjunto de datos, lo entrenamos y dejamos que este modelo funcione durante algún tiempo, y luego veamos el resultado...

Yo entreno el conjunto de datos en JPrediction, tú entrenas el mismo conjunto de datos en tu IA, eliges un intervalo y ves qué modelo funciona más tiempo y mejor.....

A eso me refería cuando te pedí que entrenaras mi conjunto de datos con tus IAs.

Y así.... no está claro qué criterio utilizó cada uno para decidir que el predictor era excesivo????? De dónde sacaste eso, Mago. ¿Tiene pruebas concretas de que el optimizador no funciona? ???? Lo hago???? Dame un ejemplo.....

De la misma manera, puedo entrenar tu conjunto de datos y luego puedes ver por ti mismo qué modelo funciona mejor. El entrenado por usted o el entrenado por mí con el optimizador....

 
Vizard_:

No. Reshetov no ha entendido que no debemos tener una normalización rígida según la fórmula conocida. Deberíamos haber hecho
un interruptor de desconexión. También el desglose aleatorio es cuestionable y al menos deberíamos haberlo marcado, pero es mejor desactivarlo, etc.

Ah, sí, yo también escribí sobre la avería. Así que para los datos normales está bien, pero específicamente para el mercado de divisas deberíamos haber hecho algún tipo de roll-forward. O al menos dividirlo en dos partes por tiempo: para entrenar antes de la fecha y para probar después de la fecha.

¿Qué tiene de malo la normalización? Para las neuronas, no importa en qué rango se encuentre la entrada, los pesos correctamente inicializados lo digerirán todo. La normalización no interfiere, pero no ayuda en absoluto.
Aunque la intuición dice que si la entrada contiene números positivos y negativos, es mejor no desplazar el cero. Y R dice que hay que escalar los predictores no a 0-1, sino que sd(x) = 1

 
Vizard_:

No. Reshetov no entendió que no debíamos hacer la normalización de forma rígida basándonos en la fórmula conocida. Deberíamos haber hecho
un interruptor de desconexión. El desglose aleatorio también está en cuestión y al menos deberíamos haberlo marcado, pero es mejor desactivarlo, etc.


Sobre el desglose aleatorio, estoy dispuesto a discutir.

Cuando hacemos una predicción con IA entonces SÍ, la secuencia de datos importa desde el pasado hasta el futuro, estamos haciendo una predicción.

Pero cuando se trata de la clasificación, la secuencia de datos no juega absolutamente ningún papel, porque tenemos un área para dividir y encontrar el hiperplano que lo hará mejor con la esperanza de que la ley encontrada sea válida durante algún tiempo más.

Al igual que la ley que encontramos cuando construimos el modelo de predicción.......

 

Por no hablar del hecho de que la descripción muestra que el modelo enseña deliberadamente aquellos ejemplos que son más difíciles de aprender, descartando los que son fáciles de aprender. Bueno, así soy yo... leer en la descripción.... si lo entiendo bien...

Al dividir la muestra en muestras de entrenamiento y de prueba, es como si los dos valores más cercanos cayeran en muestras diferentes. Así, si tenemos dos vectores idénticos, llegarán a muestras diferentes, uno en la muestra de entrenamiento y otro en la de prueba... Así que...