Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 631
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
¿Tiene tres neuronas en la entrada de la segunda capa procesada por sigmoide? Cómo se ajustan los pesos en la segunda capa que se elige entre -1 y 1 con paso de 0,1 por ejemplo.
En mi red, después de procesar la segunda capa , el número de acuerdos descendió y mis resultados no mejoraron mucho. Era diferente cuando simplemente ajustaba un perceptrón con 9 entradas y una neurona de salida y luego cogía otro perceptrón independiente y lo ajustaba de nuevo con los ajustes del primero guardados, etc.
La 4ª neurona procesa los resultados de las tres primeras, es decir, + 3 pesos más
Sí, de -1 a 1 en incrementos de 0,1, pero no sigmoidea sino tangente
He probado a hacer una capa intermedia con los mismos pesos que la primera de entrada, el número de operaciones ha bajado y la calidad ha mejorado considerablemente, pero optimizar 9 pesos extra es demasiado :)
Tu versión suena bien... Estaba pensando en entrenar a la NS convencional sobre los resultados de la optimización... Tendré que probarlo. Pero me estoy aburriendo de este enfoque
La 4ª neurona procesa los resultados de las tres primeras, es decir, + 3 pesos más
Ahora he intentado hacer una capa intermedia con los mismos pesos que la primera capa de entrada - el número de operaciones ha bajado y la calidad también ha mejorado, pero optimizar 9 pesos adicionales ya es demasiado :)
Tu versión suena bien... Estaba pensando en entrenar a la NS convencional sobre los resultados de la optimización... Tendré que probarlo. Pero me estoy aburriendo de este enfoque.
Mi impresión es que debería hacer un indicador en la primera capa y ver visualmente qué pesos deberían aplicarse en la segunda capa. O procesarlo con sigmoide (entonces se obtienen los valores de alrededor de 0,2 a 0,9, aproximadamente) y entonces se pueden tomar pesos pequeños y no se necesita un gran rango de ellos.
Además, el peso adicional sin referencia a la entrada es sólo un peso, lo que el Dr.Trader me sugirió. Tal y como aconseja el Dr. Trader, obtengo mejores resultados con Bias. Por ejemplo, 1,7 bias se convierte en 1,8 https://www.mql5.com/ru/forum/86386/page505#comment_5856699
Tengo la impresión de que hay que hacer un indicador en la primera capa y ver visualmente qué pesos aplicar en la segunda. O procesarlo con sigmoide (entonces se obtienen valores de 0,2 a 0,9 más o menos) y entonces se pueden tomar pesos pequeños y no se necesita un gran rango de pesos.
Además, el peso adicional sin vinculación a la entrada es sólo el peso del sesgo, lo que el Dr.Trader me sugirió. Por ejemplo, es 1,7 con sesgo y ahora es 1,8.https://www.mql5.com/ru/forum/86386/page505#comment_5856699
es difícil hacer algo por pura improvisación :) pero el problema principal sigue siendo la reconversión
Bueno, 5-10 neuronas para reentrenar no es un problema en absoluto). Parece que es algo así con usted.
Había un espécimen interesante en el ordenador. Tienes un pedazo de discurso. Se genera un ruido que se superpone a este discurso. Luego se enseña un simple MLP, y volvemos a escuchar un discurso casi puro.
Esto me extrañó mucho, aunque hay una descripción de un modificador de ruido similar en Haikin como ejemplo.
Bueno, 5-10 neuronas para reentrenar no es un problema en absoluto). Parece que es algo así con usted.
Había un espécimen interesante en el ordenador. Tienes un pedazo de discurso. Se genera un ruido que se superpone a este discurso. Luego se enseña un simple MLP, y volvemos a escuchar un discurso casi puro.
Me quedé muy sorprendido con ella, aunque se describe en Heikin como un ejemplo.
Parece que se ha perdido algo de basura, ojalá hubiera tenido tiempo de participar.
La otra es que borraron mi post en el que respondía al señor Terenyevsky y decía que los escritores locales son los únicos que escribieron sobre las pruebas de series temporales. Le contesté a Terentiev sobre las pruebas de series temporales y le dije que los escritores locales son aficionados porque no entienden que con un 70-80% de precisión el ratio de Sharp será superior a 20, pero no tienen ningún sentido.
borró mi mensaje en el que respondía al Sr. Terenyv. Terentiev sobre las pruebas de series temporales y dijo que los escritores de artículos locales son sólo aficionados porque no entienden que con un 70-80% de precisión la proporción de Sharp será superior a 20, y tienen algunas tonterías
ah, ok )
Me he preguntado sobre el aprendizaje de la reinformación, así que he encontrado un artículo interesante y estoy intentando comprarlo y quizás añadirlo al bot.
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
Estoy tratando de comprar el bot, pero es un poco tonto, sólo aprende a comprar al final por alguna razón.