Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1002

 
Alexander_K2:

Portanto, há uma opinião de que a seqüência de retornos (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]) é uma série estacionária.

Um retorno de uma vela é (fechado)/aberto, é claro que não é um preço limpo para colocar em NS, o próximo retorno é previsto a partir do anterior (com uma janela diferente) muito mal, não o suficiente para uma propagação, mas aparentemente isto é tudo o que podemos obter

 
Alexander_K2:

Em essência, o valor CLOSE[i]-OPEN[i] nada mais é do que a soma dos incrementos.

Uma sequência de tais valores deve, no limite, tender para uma distribuição normal.

Bem, há uma opinião de que a sequência de retornados (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]) é uma série estacionária.

Alguém tentou algo assim na entrada da NS e quais foram os resultados???

Fechado[i] pode ser substituído por Aberto[i+1], em Forex é verdade em mais de 90% dos casos. Ou pode ser apenas um ou dois pips diferentes. Então haverá apenas uma série temporal na fórmula, é mais conveniente.

Tal transformação é utilizada no modelo ARIMA. E serve realmente para alcançar a estacionaridade, mas há muito mais transformações, não é a única fórmula lá.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
ARIMA está desactualizada agora, nos mercados financeiros se der algo, não é mais do que juros bancários sobre um depósito. O GARCH é muito melhor de acordo com os artigos, além disso é ARIMA mais vários acréscimos.
 
Alexander_K2:

Uma sequência de tais valores deve, no limite, tender para uma distribuição normal.

Não tenho visto preços que tendam para uma distribuição normal. Sempre tive ganhos que se pareciam com o Laplace, com caudas koshi.

 

Esse foi o meu raciocínio teórico.

Na prática, claro, os primeiros retornados não têm Gauss, e nunca ninguém conseguiu, e nunca conseguirá, infelizmente...

Ainda estava falando sobre a seqüência (FECHADO[i]-OPEN[i])-(FECHADO[i-1]-OPEN[i-1]), ou seja, na verdade, sobreo segundo retorno.

Bem, eu ainda não prestei muita atenção a estes segundos retornos, e devia ter prestado.

 

E Kolmogorov, em geral, vejo, prestou atenção especial a B(k)=M[x(t)*x(t-to)]=M[(FECHAR[i]-OPEN[i])*(FECHAR[i-to]-OPEN[i-to])] e recusou-se a prever qualquer coisa se essa função não fosse bem definida.

Talvez faça sentido colocar certas condições no trabalho da NS?

Digamos, pular pedaços instáveis da PA, explorando, por exemplo, segundos retornos ou B(k)?

 

Hi!

Queridos gurus, já criaram um superbot?

Gostava de o experimentar a sério.

 
Alexander_K2:

E Kolmogorov, em geral, vejo, prestou atenção especial a B(k)=M[x(t)*x(t-to)]=M[(FECHAR[i]-OPEN[i])*(FECHAR[i-to]-OPEN[i-to])] e recusou-se a prever qualquer coisa se esta função não fosse bem definida.

Talvez faça sentido colocar certas condições no trabalho da NS?

Digamos, pular pedaços instáveis de BP explorando segundos retornos ou B(k), por exemplo?

Portanto, há um limite: (Sigmas ao quadrado).

A determinação deste limite é o primeiro dos problemas resolvidos neste

problema a ser resolvido neste artigo.

Quanto ao problema da interpolação, consideramos apenas o

o caso de avaliar x(/) pelas quantidades

-x{t + i)Jx{t + 2)1 ...,x(t + n),

x(t - l), x(t~2), ... , x(t - ha).

Para este caso denota-se por oj (ha) o valor mínimo da expectativa matemática

expectativa

a2 = MI0-<?)%

onde Q é uma forma linear:

Q = axx {t + i) + atx {t + 2)+ ... +apx {t + n) +

+ a-ix(t - l)--a-2%(t - 2)+ ... --a-nx(t - ha)

com coeficientes reais constantes como.

medida que ha aumenta, o valor de a2 (i) não aumenta. Portanto, existe

limite

l im a} (ha) = o? (5)

P~>o

O nosso segundo problema é determinar um]. As seguintes propostas

a solução dos dois problemas acima formulados foi relatada sem

prova na minha nota (*) *. Baseia-se em noções relacionadas com

à teoria espectral de processos aleatórios estacionários.

A teoria espectral dos processos aleatórios estacionários foi

construído por A. Я. Hinchin para o caso da mudança contínua do argumento do tempo t (2 ) .

argumento t (2 ) .

Não entendo, você planeja estimar analiticamente a confiabilidade da previsão já feita, ou fazer uma previsão para começar. As primeiras páginas dizem que o artigo é sobre a estimativa da confiabilidade de uma previsão. As previsões em si são deA.J. Hinchin.

E você não copiou cuidadosamente a declaração básica do artigo.

Não: B(k)=M[x(t)*x(t-to)]=M[(FECHAR[i]-OPEN[i])*(FECHAR[i-to]-OPEN[i-to])

A: B(j)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i])

Também, acho que é mais correcto:

Fórum sobre Trading, Sistemas Automatizados de Trading e Estratégias de Teste

Aprendizagem da Máquina no Comércio: Teoria e Prática (Comércio e Além)

Dr. Trader, 2018.07.06 02:37

Close[i] pode ser substituído por Open[i+1], em forex é verdade em mais de 90% dos casos. Ou uma diferença de apenas alguns pips. Então haverá apenas uma série temporal em fórmula, é mais conveniente.

Tal transformação é utilizada no modelo ARIMA. E serve para alcançar a estacionaridade, mas há muitas mais transformações lá, não é a única fórmula lá.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
A ARIMA já está obsoleta, nos mercados financeiros, se alguma coisa, não vai dar mais do que juros bancários sobre um depósito. O GARCH é muito melhor de acordo com os artigos, além disso é ARIMA mais vários acréscimos.

PS.

Sim, e obrigado pela resposta à minha pergunta do meu post: https://dxdy.ru/post1244134.html#p1244134

Рекуррентная формула для синуса : Дискуссионные темы (М) - Страница 7
  • dxdy.ru
В принципе, используется и рекуррентное вычисление через возвратное уравнение второго порядка, и через комплексную экспоненту. Первое менее расходно по ресурсам (умножение и два сложения и две ячейки памяти) по сравнению со вторым (два умножения, четыре сложения, две ячейки памяти при постоянной частоте), но накапливается погрешность быстрее...
 
Olá, daqui fala Misha, e como adivinhou, estou a fazer isto do meu telefone :-)
Eu sei, eu acho que o pré-processamento de dados vem à tona hoje em dia. Claro que o algoritmo de otimização é importante em si mesmo, mas uma boa amostra de treinamento não é a última coisa. Você estava elogiando e criticando o otimizador Reshetov, mas pela forma como ele faz bons modelos quando os dados são bem pré-processados. Em qualquer caso, com 10 otimizações, pelo menos metade dos modelos funcionará. Afinal de contas não é tão fácil de implementar no seu caso. E eu acho que o JPrediction será sempre relevante. O principal aqui é o pré-processamento adequado dos dados e é nesta área que a competição está agora em curso.
 
Como eu disse, em outro tópico .... Estou a trabalhar nisso agora e já implementei pelo menos duas etapas de pré-processamento. O primeiro remove os palpiteiros de lixo. A segunda torna a amostra mais apresentável para treinamento e eu gostaria de focar no segundo ponto.
Após o exercício de representatividade, a qualidade da aprendizagem aumentou 15 por cento para o mesmo conjunto de dados. O principal objectivo é aumentar o período de aprendizagem, mantendo o mesmo nível de qualidade de aprendizagem. Exemplo: Com 25 exemplos, eu consegui obter de 80% de generalização para o seu. Ao processar a representatividade em 40 exemplos, consegui obter 90% da qualidade do modelo. Acredito que o melhor modelo é aquele que pode ser treinado em uma amostra mais longa, mantendo sua qualidade de treinamento.
 
Gramazeka1:
Olá, daqui fala Misha, e como adivinhou, estou a fazer isto do meu telefone :-)
Eu sei, eu acho que o pré-processamento de dados vem à tona hoje em dia. Claro que o algoritmo de otimização é importante em si mesmo, mas uma boa amostra de treinamento não é a última coisa. Você estava elogiando e criticando o otimizador Reshetov, mas pela forma como ele faz bons modelos quando os dados são bem pré-processados. Em qualquer caso, com 10 otimizações, pelo menos metade dos modelos funcionarão. Afinal de contas não é tão fácil de implementar no seu caso. E eu acho que o JPrediction será sempre relevante. O principal aqui é o pré-processamento adequado dos dados e é nesta área que a competição está agora em curso.

Olá Misha!

Sim, é hora de reconsiderar todos os esforços de redes neurais e suas parcas esperanças na ferramenta em si. Nada vai ajudar - nem florestas, nem estepes - se os dados de entrada não estiverem preparados.

E sim - não há competição, há um problema e há uma burrice geral.

Se você sabe como preparar os dados, vá em frente. A humanidade vai agradecer-lhe.