Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 591

 
Yuriy Asaulenko:
Na verdade, tudo deve ser escrito em C++/C# e não há problema em interagir com nada. O problema é que as principais bibliotecas de DM estão em Python e R, e isto é necessário, pelo menos, para dominar. E a interação não é nada, há API em todos os lugares (exceto MQL). Você pode ao menos transferir arquivos via RAM-Disk.

Sim, é verdade, não há problema com isso.

O problema é o quão profundamente você precisa criar raízes em MO e em que estágio para entender que esses modelos já são suficientes...

Eu me acomodei aos clássicos por enquanto e tudo é suficiente para mim... Eu não estou atrás de um aumento de 1-10% na precisão :) agora eu estou me concentrando em estratégias, muitas idéias foram escritas - e eu preciso testar tudo isso, é difícil

Estou estudando o PNN em detalhes - eles trabalham com valores de probabilidade e não se retraem muito.

 
Evgeny Belyaev:

Yura, tu és mesmo qualquer coisa! )) A falar assim no fórum MQL. Agora seus camaradas virão correndo e jogarão pedras em você.

Eu também uso MQL apenas para abrir/fechar ordens. Eu uso MQL apenas para abrir/fechar ordens. Todos os cálculos estão em Wissima. No entanto, este é o único fórum com físicos e matemáticos mais ou menos profissionais e é por isso que estou aqui. No resto dos locais, eles são apenas idiotas da aldeia.
 
Alexander_K2:
Eu também uso MQL apenas para abrir/fechar ordens. Todos os cálculos estão em Wissima. Este é o único fórum onde temos físicos e matemáticos mais ou menos profissionais, é por isso que estou aqui. No resto dos locais, eles são apenas idiotas da aldeia.

Alexander, você pode estar interessado neste tópico :)

O método de aproximação de funções de densidade de probabilidade por meio de funções de kernel é muito semelhante ao método dasfunções de base radial, e assim chegamos naturalmente a noções derede neural probabilística (PNN) erede neural de regressão generalizada (GRNN)(Speckt 1990, 1991). Os PNNs são concebidos para tarefas declassificação e os GRNNs para tarefas deregressão. Redes destes dois tipos são implementações de métodos de aproximação de kernel, enquadradas comouma rede neural.

 
Maxim Dmitrievsky:

Alexander, você pode estar interessado neste tópico :)

O método de aproximação de funções de densidade de probabilidade por meio de funções de kernel é muito semelhante ao método dasfunções de base radial, e assim chegamos naturalmente a noções derede neural probabilística (PNN) erede neural de regressão generalizada (GRNN)(Speckt 1990, 1991). Os PNNs são concebidos para tarefas declassificação e os GRNNs para tarefas deregressão. Estes dois tipos de redes são implementações de métodos de aproximação de kernel, concebidos comouma rede neural.

Aha. Obrigado, Maxim!
 
Alexander_K2:
Sim. Obrigado, Maxim!
Maxim é realmente muito bom. Às vezes fico espantado com a sua visão. Mas, lembrem-se - pessoas que lêem muito, ficam fora do hábito de pensar por si mesmas. Adivinha quem?))
 
Yuriy Asaulenko:
Mas, devemos lembrar - pessoas que lêem muito, tornam-se impróprias para pensar por si mesmas.(c) E eu não disse isso. Adivinha quem?))

Há também esta opinião:

As pessoas param de pensar quando param de ler. Diderot

 
Yuriy Asaulenko:
Maxim é realmente bom. Às vezes fico espantado com a sua visão. Mas você tem que se lembrar - pessoas que lêem muito perdem o hábito de pensar por si mesmas. Adivinha quem?))
Eu concordo. Mas, o link interessante - vou lê-lo quando tiver tempo. Ocupado agora - eu vejo o Graal no horizonte e, empurrado pelas poderosas mãos do meu sogro, eu me movo em direção a ele.
 
Evgeny Belyaev:

Há também esta opinião:

As pessoas param de pensar quando param de ler. Diderot

Um não exclui o outro). Ninguém alegou que não se deve ler de todo).
 
Alexander_K2:
Eu concordo. Mas o link é interessante - vou lê-lo quando tiver tempo. Estou ocupado agora - vejo o Graal no horizonte e, empurrado pelas poderosas mãos do meu sogro, vou em direção a ele.

Procurai e encontrareis. (с)

Mas não desta vez.

 
Yuriy Asaulenko:
Maxim é realmente muito bom. Às vezes fico espantado com a sua visão. Mas lembre-se - as pessoas que lêem muito perdem o hábito de pensar por si mesmas. Adivinha quem?))

Sim, só passei por todo o tipo de artigos para ver o que é interessante sobre o assunto :) Bem, a principal vantagem sobre o MLP, como eu entendo, é a velocidade e as configurações mínimas (aqui elas não estão de jeito nenhum) e que essas grades quase não são retrabalhadas

Bem e a Força F Gaussiana é usada em vez da Força Estilo. Para cada entrada, é criado um fi de densidade de vértices, depois os resultados na saída são somados linearmente

a propósito, PNN e GRNN estão disponíveis em formato mql, mas eu ainda não os experimentei e ainda não os comparei com o MLP

https://www.mql5.com/ru/code/1323

Класс нейронной сети PNN
Класс нейронной сети PNN
  • votos: 41
  • 2012.11.30
  • Yury Kulikov
  • www.mql5.com
Класс CNetPNN реализует вероятностную нейронную сеть (Probabilistic Neural Network - PNN). Создание сети объявляется параметрическим конструктором класса. Нумерация классов(целей классификации) начинается с нуля и должна быть непрерывна. Например, если задано 3 класса, то номера классов должны быть: 0, 1, 2. Обучение сети осуществляется вызовом...