Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 591

 
Yuriy Asaulenko:
En realidad, todo debe estar escrito en C++/C# y no hay problema para interactuar con nada. El problema es que las principales librerías de DM están en Python y R, y esto es necesario, al menos, para dominarlo. Y la interacción no es nada, hay API en todas partes (excepto MQL). Al menos puedes transferir archivos a través de RAM-Disk.

Sí, es cierto, no hay problema con eso.

El problema es hasta qué punto hay que echar raíces en MO y en qué momento entender que estos modelos ya son suficientes...

Me he conformado con los clásicos por ahora y todo es suficiente para mí... No busco un aumento del 1-10% en la precisión :) ahora me estoy centrando en las estrategias, un montón de ideas que tengo - y todo esto necesita ser probado, tshe

Estoy estudiando en detalle las PNN, que trabajan con valores probabilísticos y no se reentrenan mucho.

 
Evgeny Belyaev:

¡Yura, eres realmente increíble! )) Hablando así en el foro MQL. Ahora tus compañeros vendrán corriendo y te tirarán piedras.

También uso MQL sólo para abrir/cerrar órdenes. Yo uso MQL sólo para abrir/cerrar órdenes. Todos los cálculos están en Wissima. Sin embargo este es el único foro con físicos y matemáticos más o menos profesionales por eso estoy aquí. En el resto de los sitios, sólo son idiotas de pueblo.
 
Alexander_K2:
También uso MQL sólo para abrir/cerrar órdenes. Todos los cálculos están en Wissima. Este es el único foro donde tenemos físicos y matemáticos más o menos profesionales, por eso estoy aquí. En el resto de los sitios, sólo son idiotas de pueblo.

Alexander, puede que te interese este tema :)

El método de aproximación de las funciones de densidad de probabilidad mediante funciones de núcleo es muy similar al método delas funciones de base radial, y así llegamos de forma natural a las nociones dered neuronal probabilística (PNN) yred neuronal de regresión generalizada (GRNN)(Speckt 1990, 1991). Las PNN están diseñadas para tareas declasificación y las GRNN para tareas deregresión. Las redes de estos dos tipos son implementaciones de los métodos de aproximación del núcleo, enmarcados enuna red neuronal.

 
Maxim Dmitrievsky:

Alexander, puede que te interese este tema :)

El método de aproximación de las funciones de densidad de probabilidad mediante funciones de núcleo es muy similar al método delas funciones de base radial, y así llegamos de forma natural a las nociones dered neuronal probabilística (PNN) yred neuronal de regresión generalizada (GRNN)(Speckt 1990, 1991). Las PNN están diseñadas para tareas declasificación y las GRNN para tareas deregresión. Estos dos tipos de redes son implementaciones de métodos de aproximación del núcleo, diseñados comouna red neuronal.

Aha. ¡Gracias, Maxim!
 
Alexander_K2:
Sí. ¡Gracias, Maxim!
Maxim es en realidad bastante bueno. A veces me sorprende su perspectiva. Pero hay que recordar que las personas que leen mucho, pierden la costumbre de pensar por sí mismas. ¿Adivina quién?)
 
Yuriy Asaulenko:
Pero, debemos recordar - la gente que lee mucho, se vuelve incapaz de pensar por sí misma.(c) Y yo no he dicho eso. ¿Adivina quién?)

También existe esta opinión:

La gente deja de pensar cuando deja de leer. Diderot

 
Yuriy Asaulenko:
Maxim es realmente bueno. A veces me sorprende su perspectiva. Pero hay que recordar que la gente que lee mucho pierde la costumbre de pensar por sí misma. ¿Adivina quién?)
Estoy de acuerdo. Pero, el enlace interesante - lo leeré cuando tenga tiempo. Ocupado ahora - veo el Grial en el horizonte y, empujado por las poderosas manos de mi suegro, avanzo hacia él.
 
Evgeny Belyaev:

También existe esta opinión:

La gente deja de pensar cuando deja de leer. Diderot

Una cosa no excluye la otra). Nadie ha afirmado que no se deba leer en absoluto).
 
Alexander_K2:
Estoy de acuerdo. Pero el enlace es interesante, lo leeré cuando tenga tiempo. Ahora estoy ocupado: veo el Grial en el horizonte y, empujado por las poderosas manos de mi suegro, me dirijo hacia él.

Buscad y encontraréis. (с)

Pero esta vez no.

 
Yuriy Asaulenko:
Maxim es realmente muy bueno. A veces me sorprende su perspectiva. Pero recuerda: la gente que lee mucho pierde la costumbre de pensar por sí misma. ¿Adivina quién?)

Sí, acabo de revisar todo tipo de artículos para ver lo que es interesante sobre el tema :) Bueno, la principal ventaja sobre MLP, según tengo entendido, es la velocidad y los ajustes mínimos (aquí no lo son en absoluto) y que estas rejillas casi no se reentrenan

Bueno y la fuerza f gaussiana se utiliza en lugar de la de stydent. Para cada entrada, se crea una densidad de vértices fi, y luego se suman linealmente los resultados a la salida

por cierto, PNN y GRNN están disponibles en forma de mql, pero aún no los he probado y no los he comparado con MLP

https://www.mql5.com/ru/code/1323

Класс нейронной сети PNN
Класс нейронной сети PNN
  • votos: 41
  • 2012.11.30
  • Yury Kulikov
  • www.mql5.com
Класс CNetPNN реализует вероятностную нейронную сеть (Probabilistic Neural Network - PNN). Создание сети объявляется параметрическим конструктором класса. Нумерация классов(целей классификации) начинается с нуля и должна быть непрерывна. Например, если задано 3 класса, то номера классов должны быть: 0, 1, 2. Обучение сети осуществляется вызовом...