Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 585

 
Maxim Dmitrievsky:

Es difícil evaluar las operaciones de esta manera, porque también hay una duración de la operación y los niveles de stop-loss deben añadirse a todo lo demás, y hay que volver a entrenar periódicamente ... así que, en general, una pena :)

Sí, lo vi hace mucho tiempo. En sí, no está mal, pero la nubosidad no es muy adecuada para la construcción de CT.
 
Yuriy Asaulenko:
Sí, lo he visto durante mucho tiempo. No es tan malo en sí mismo, pero la nubosidad no es muy adecuada para construir el ST.

puedes vender señales:)) acceso vía api, si el modelo es genial

 

Sentado. leyendo un pdf de la monografía del Ministerio de Defensa. Cita:

Resulta que tampoco es necesario hacer un tic, la NS parece ser la mejor opción.

 
Yuriy Asaulenko:

Sentado. leyendo un pdf de la monografía del Ministerio de Defensa. Cita:

Resulta que tampoco es necesario hacer un tic, la NS parece ser la mejor opción.


Y leí a Haykin y vi en paralelo

la película es atmosférica... ¿qué ganará al final? ¿la vida proteica o la vida artificial, o se creará algo intermedio? :)

Por cierto, algunas fuentes dicen que la NN probabilística está de moda estos días. Mi amigo susurró... pero sabe mucho de ellos, participa en concursos de Google.

 
Maxim Dmitrievsky:

Y he estado leyendo a Heikin y viendo

la película es atmosférica... ¿qué ganará al final? ¿la vida proteica o la vida artificial, o se creará algo intermedio? :)

Por cierto, algunas fuentes dicen que la NN probabilística está de moda estos días. Lo dice mi amigo... pero él sabe mucho de ellos, participa en los concursos de Google.

Ayer encontré la NN convolucional, que suele utilizarse para el reconocimiento de imágenes. Naturalmente, están todas las utilidades - formación, etc. Hecho para su uso en Python.

También hay recurrentes, etc., pero todavía no es muy interesante.

Como la red convolucional no está totalmente mallada, podemos aumentar mucho el número de neuronas sin perder rendimiento. Pero tengo que entender todos los detalles, aún no he entrado en detalles.

Descripción popular -https://geektimes.ru/post/74326/
Применение нейросетей в распознавании изображений
Применение нейросетей в распознавании изображений
  • 2005.11.09
  • geektimes.ru
Про нейронные сети, как один из инструментов решения трудноформализуемых задач уже было сказано достаточно много. И здесь, на хабре, было показано, как эти сети применять для распознавания изображений, применительно к задаче взлома капчи. Однако, типов нейросетей существует довольно много. И так ли хороша классическая полносвязная нейронная...
 
Yuriy Asaulenko:

Ayer encontré una convolución NS - normalmente utilizada para el reconocimiento de imágenes. Naturalmente, están todas las utilidades - formación, etc. Hecho para su uso en Python.

También hay recurrentes, etc., pero todavía no es muy interesante.

Como la red convolucional no está totalmente mallada, podemos aumentar mucho el número de neuronas sin perder rendimiento. Pero aún tengo que entrar en detalles, todavía no me he puesto a ello.

Descripción popular -https://geektimes.ru/post/74326/

Bueno, esto es profundo, se utilizan principalmente para las imágenes y la visión por ordenador. Se necesitan muchos ejemplos y capas para que funcione. La propia arquitectura copia el sistema visual

Prueba con PNN de python, tienen más sentido para la predicción de series temporales.

https://habrahabr.ru/post/276355/

Байесовская нейронная сеть — потому что а почему бы и нет, черт возьми (часть 1)
Байесовская нейронная сеть — потому что а почему бы и нет, черт возьми (часть 1)
  • 2029.02.16
  • habrahabr.ru
То, о чем я попытаюсь сейчас рассказать, выглядит как настоящая магия. Если вы что-то знали о нейронных сетях до этого — забудьте это и не вспоминайте, как страшный сон. Если вы не знали ничего — вам же легче, полпути уже пройдено. Если вы на «ты» с байесовской статистикой, читали вот эту и вот эту статьи из Deepmind — не обращайте внимания на...
 
Maxim Dmitrievsky:

Se utilizan principalmente para imágenes y visión por ordenador. Se necesitan muchos ejemplos y capas para que funcione. La propia arquitectura copia el sistema visual

Busca los equivalentes de PNN python en su lugar. Me parece que tienen más sentido en la predicción de series temporales.

https://habrahabr.ru/post/276355/

Una vez más, no estoy prediciendo nada. Sólo tengo una clasificación.

Llevo mucho tiempo buscando una red incompleta. El MLP está bien, pero allí todas las entradas van a cada neurona a la vez. Ah, eso es exactamente lo que necesitamos, para que sólo 5-6 entradas desplazadas vayan a una neurona, y esto es el NS convolucional.

No hay nada complicado aquí, y sólo se necesitan 100-150 neuronas, por lo que la estructura es simple y rápida como el MLP con 60 neuronas, debido a que hay menos entradas de neuronas.

 
Yuriy Asaulenko:

Una vez más, no estoy prediciendo nada. Sólo tengo una clasificación.

Llevo mucho tiempo buscando una red incompleta. El MLP está bien, pero todas las entradas van a cada neurona a la vez. Ah, eso es exactamente lo que necesitamos, para que sólo 5-6 entradas desplazadas vayan a una neurona, y esto es el NS convolucional.

No hay nada complicado aquí, y sólo necesitamos 100-150 neuronas, por lo que la estructura es simple, y la velocidad será como la del MLP con 60 neuronas, a expensas de un menor número de entradas de neuronas.


Bueno, hay un clasificador, y lo que le impide buscar uno incompleto. Así es como me gusta, por ejemplo:

Quiero hacer capturas de pantalla del libro :)


 
Yuriy Asaulenko:

Una vez más, no estoy prediciendo nada. Sólo tengo una clasificación.

Llevo mucho tiempo buscando una red incompleta. El MLP está bien, pero todas las entradas van a cada neurona a la vez. Ah, eso es exactamente lo que necesitamos, para que sólo 5-6 entradas desplazadas vayan a una neurona, y esto es el NS convolucional.

No hay nada complicado aquí, y sólo necesitamos 100-150 neuronas, por lo que la estructura es simple, y la velocidad será similar a la del MLP con 60 neuronas, debido a un menor número de entradas de las neuronas.

La idea de utilizar capas convolucionales lleva mucho tiempo gestándose. Creo que pueden dar buenos resultados.

Pero no tires el perseptrón multicapa. Las redes convergentes no aprenden nada por sí mismas, sólo proporcionan una imagen compacta de la información de entrada.

 
Maxim Dmitrievsky:

Hay un clasificador, así que qué te impide buscar uno incompleto.

Así que trata de encontrar uno). Un MLP así sería óptimo.