Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 585
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Es difícil evaluar las operaciones de esta manera, porque también hay una duración de la operación y los niveles de stop-loss deben añadirse a todo lo demás, y hay que volver a entrenar periódicamente ... así que, en general, una pena :)
Sí, lo he visto durante mucho tiempo. No es tan malo en sí mismo, pero la nubosidad no es muy adecuada para construir el ST.
puedes vender señales:)) acceso vía api, si el modelo es genial
Sentado. leyendo un pdf de la monografía del Ministerio de Defensa. Cita:
Resulta que tampoco es necesario hacer un tic, la NS parece ser la mejor opción.
Sentado. leyendo un pdf de la monografía del Ministerio de Defensa. Cita:
Resulta que tampoco es necesario hacer un tic, la NS parece ser la mejor opción.
Y leí a Haykin y vi en paralelo
la película es atmosférica... ¿qué ganará al final? ¿la vida proteica o la vida artificial, o se creará algo intermedio? :)
Por cierto, algunas fuentes dicen que la NN probabilística está de moda estos días. Mi amigo susurró... pero sabe mucho de ellos, participa en concursos de Google.
Y he estado leyendo a Heikin y viendo
la película es atmosférica... ¿qué ganará al final? ¿la vida proteica o la vida artificial, o se creará algo intermedio? :)
Por cierto, algunas fuentes dicen que la NN probabilística está de moda estos días. Lo dice mi amigo... pero él sabe mucho de ellos, participa en los concursos de Google.
Ayer encontré la NN convolucional, que suele utilizarse para el reconocimiento de imágenes. Naturalmente, están todas las utilidades - formación, etc. Hecho para su uso en Python.
También hay recurrentes, etc., pero todavía no es muy interesante.
Como la red convolucional no está totalmente mallada, podemos aumentar mucho el número de neuronas sin perder rendimiento. Pero tengo que entender todos los detalles, aún no he entrado en detalles.
Descripción popular -https://geektimes.ru/post/74326/Ayer encontré una convolución NS - normalmente utilizada para el reconocimiento de imágenes. Naturalmente, están todas las utilidades - formación, etc. Hecho para su uso en Python.
También hay recurrentes, etc., pero todavía no es muy interesante.
Como la red convolucional no está totalmente mallada, podemos aumentar mucho el número de neuronas sin perder rendimiento. Pero aún tengo que entrar en detalles, todavía no me he puesto a ello.
Descripción popular -https://geektimes.ru/post/74326/Bueno, esto es profundo, se utilizan principalmente para las imágenes y la visión por ordenador. Se necesitan muchos ejemplos y capas para que funcione. La propia arquitectura copia el sistema visual
Prueba con PNN de python, tienen más sentido para la predicción de series temporales.
https://habrahabr.ru/post/276355/
Se utilizan principalmente para imágenes y visión por ordenador. Se necesitan muchos ejemplos y capas para que funcione. La propia arquitectura copia el sistema visual
Busca los equivalentes de PNN python en su lugar. Me parece que tienen más sentido en la predicción de series temporales.
https://habrahabr.ru/post/276355/
Una vez más, no estoy prediciendo nada. Sólo tengo una clasificación.
Llevo mucho tiempo buscando una red incompleta. El MLP está bien, pero allí todas las entradas van a cada neurona a la vez. Ah, eso es exactamente lo que necesitamos, para que sólo 5-6 entradas desplazadas vayan a una neurona, y esto es el NS convolucional.
No hay nada complicado aquí, y sólo se necesitan 100-150 neuronas, por lo que la estructura es simple y rápida como el MLP con 60 neuronas, debido a que hay menos entradas de neuronas.
Una vez más, no estoy prediciendo nada. Sólo tengo una clasificación.
Llevo mucho tiempo buscando una red incompleta. El MLP está bien, pero todas las entradas van a cada neurona a la vez. Ah, eso es exactamente lo que necesitamos, para que sólo 5-6 entradas desplazadas vayan a una neurona, y esto es el NS convolucional.
No hay nada complicado aquí, y sólo necesitamos 100-150 neuronas, por lo que la estructura es simple, y la velocidad será como la del MLP con 60 neuronas, a expensas de un menor número de entradas de neuronas.
Bueno, hay un clasificador, y lo que le impide buscar uno incompleto. Así es como me gusta, por ejemplo:
Quiero hacer capturas de pantalla del libro :)
Una vez más, no estoy prediciendo nada. Sólo tengo una clasificación.
Llevo mucho tiempo buscando una red incompleta. El MLP está bien, pero todas las entradas van a cada neurona a la vez. Ah, eso es exactamente lo que necesitamos, para que sólo 5-6 entradas desplazadas vayan a una neurona, y esto es el NS convolucional.
No hay nada complicado aquí, y sólo necesitamos 100-150 neuronas, por lo que la estructura es simple, y la velocidad será similar a la del MLP con 60 neuronas, debido a un menor número de entradas de las neuronas.
La idea de utilizar capas convolucionales lleva mucho tiempo gestándose. Creo que pueden dar buenos resultados.
Pero no tires el perseptrón multicapa. Las redes convergentes no aprenden nada por sí mismas, sólo proporcionan una imagen compacta de la información de entrada.
Hay un clasificador, así que qué te impide buscar uno incompleto.