Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1279
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Descubrirlo y hacer lanzamientos son cosas diferentes. Todavía estoy experimentando. Estoy mezclando los pronósticos en este momento. Tal vez lo deje, igual que dejé la NS por no poder soportar el ruido.
Es fácil de entender. Hay que mirar el código durante unas horas y todo se aclarará.Sí, claro que es diferente, pero una buena mano puede hacer mucho. A mí, en cambio, me cuesta entender el código de los demás, así que ni siquiera me meto en él.
Y el bosque, por lo que es en su concepto siempre será ruidoso (de hecho, el ruido blanco debe superponerse al ruido con una mayor confianza respuestas colectivas), porque no funciona debido a la calidad, pero la cantidad, creo que tenemos que controlar de alguna manera más y la calidad de los árboles y su singularidad.
No entiendo por qué no te gusta mi idea de recoger hojas de los árboles; puedes ir a una encuesta, o intentar distribuir las hojas para que no se superpongan en el muestreo... Evidentemente, el ruido es menor, pero es importante que la regla de la hoja tenga un significado real, pues así será estable en el tiempo.
No entiendo por qué no te gusta mi idea de recoger las hojas de los árboles: puedes votar o intentar distribuir las hojas para que no se solapen en la muestra... Es importante que la regla de la hoja tenga un significado real, ya que así será estable en el tiempo.
Todavía no he explorado completamente el bosque. Por eso no tengo tiempo para distraerme con nada más.
Ya veo. Trabaja en ello, escribe sobre tus logros - interesante.
Ahora estoy tratando de hacer un grupo de esos extraños modelos CatBoost, que tienen un pequeño número de árboles 1-30, para el aprendizaje profundo y evaluar si el aprendizaje profundo bajo 100-300 árboles tiene sentido.
Curiosamente, la primera parte de la muestra (resaltada en azul, pero un poco más de lo necesario, porque mostraba una ruptura del último saldo alto, dicen que era largo) para el entrenamiento se ve muy mediocre después de aplicar el modelo, y luego hay un patrón que comienza a explotar el modelo, mientras que en la muestra de prueba (en la que se selecciona el modelo) no es tan evidente como en el examen (no participan en la formación). Tal vez sea un signo de subentrenamiento, la cuestión es si es mejor que el sobreentrenamiento.
Si alguien está interesado, puedo exponer las baterías, el muestreo, la configuración para ejecutar a través de la línea de comandos, bueno cualquiera que no domine python como yo.
Doy una variante por minuto, y adjunto el informe de operaciones del probador.
Pero he mejorado un poco los indicadores.
El ratio de Sharpe es ahora de 0,29.
Finalmente se cuenta la permutación y el recuento real del bosque con 1 predictor eliminado. Los resultados no son en absoluto similares.
Los autores de la permutación experimentaron con 6 predictores y yo lo hice con 65. Quizá con 6 predictores sea más fácil separar la entrada de ruido. Además, el bosque sigue siendo aleatorio, tal vez también añadió la aleatoriedad a la lista de importancia.
Ahora volveré a correr con los mismos datos y por la mañana compararé 4 tablas de importancia.
Las más parecidas fueron 2 tablas de importancia de permutación (sólo que de diferentes ejecuciones sobre los mismos datos).
Las tablas de importancia obtenidas por el recuento del bosque al eliminar 1 predictor - no son similares entre sí, ni a la permutación.
¡Hola maquinistas!
Así es, aquí sólo hay griales de prueba, y el ballet marlesiano lo ponen en escena el Aprendiz de Novio y compañía :)
Sí, por aquí sólo hay griales de prueba, y el ballet marlesiano lo dirigen El Aprendiz de Novio y compañía :)
Kesha hijo.
Me haces reír.
profundidad de pensamiento,
qué sílaba.