Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 488

 
Maxim Dmitrievsky:

Bem, é uma questão de acertar as fichas e o alvo, embora pareça o que poderia ser mais simples do que uma tabela de multiplicação, mas também não há ali um pequeno erro

Não posso ter a certeza da correcção do meu treino, daí os erros.

Com todo o respeito.
 
Andrey Kisselyov:
Não posso ter certeza da correção do treinamento, daí os erros. Em forex, pelo menos de uma forma ou de outra, há repetição na tabela de multiplicação, sem repetição.

Com todo o respeito.

Bem, sim, dado que a RF é incapaz de extrapolar de forma alguma

 
Vizard_:

...pode...


(Diz em todo o lado que, tipo, não... )

 
Vizard_:

Você também escreveu um guizo)))) Mas você decidiu fazê-lo produzir outro.
Coloque-o no -
х = 1 0 1 0 1 0 1 0 1 0
alvo = 1 0 1 0 1 0 1 0 1 0 1 0 1 0
então...
х = 1 0 1 0 1 0 1 0 1 1
alvo = 1 0 1 0 1 0 1 0 1 0 1 0 1 0
etc...
Num exemplo interpretável, veja em breve.
precisão, Willoss, Kappa... etc... o que quiseres. Bem e correctamente assinalado anteriormente -
há muito para ver na floresta...


OK, se assim for, vou terminar a estratégia e depois veremos o que é o quê :)

 

Saudações, neuronautas! Grandes mentes ))

aqui está um filme sobre um neuralista que criou um programa de software super-previsivo e "ajudou" um banco a "ficar rico" .



 
Alexander Ivanov:

Saudações, neuronautas! Grandes mentes ))

há aqui um filme sobre um tipo de neurónio que criou um super motor de previsão e "ajudou" um banco a "ficar rico" .




ver "The Texas Chainsaw Massacre", um filme novo e relaxante.

 

Não posso deixar de pensar que vários problemas são comuns tanto aos modelos de classificação como aos de regressão.


Um desses problemas é a multicolinearidade, que geralmente é interpretada como uma correlação entre as variáveis de entrada, mas isso pode não ser inteiramente verdade.


A multicolinearidade no sentido geral leva a uma consequência muito desagradável que prejudica os nossos esforços de modelação:

  • os parâmetros do modelo tornam-se incertos
  • Os erros padrão de estimativa tornam-se infinitamente grandes.


Se a multicolinearidade é entendida como uma relação linear entre as variáveis de entrada (variáveis explicativas, preditores), então temos o seguinte quadro

  • embora as estimativas do OLS ainda sejam imparciais, elas têm uma grande variação e covariância, o que dificulta uma estimativa precisa
  • Como resultado, os intervalos de confiança tendem a ser mais amplos. Portanto, não podemos rejeitar a "hipótese nula" (ou seja, a verdadeira taxa de amostragem é zero),
  • Devido ao primeiro efeito do t a relação de um ou mais coeficientes tende a ser estatisticamente insignificante
  • Mesmo que alguns coeficientes de regressão sejam estatisticamente insignificantes, o valor R^2 pode ser muito alto
  • As ferramentas de estimativa OLS e seus erros padrão podem ser sensíveis a pequenas alterações nos dados


Aqui está um artigo que fornece ferramentas de R para reconhecer a presença da multicolinearidade.

Multicollinearity in R
Multicollinearity in R
  • Bidyut Ghosh
  • www.r-bloggers.com
One of the assumptions of Classical Linear Regression Model is that there is no exact collinearity between the explanatory variables. If the explanatory variables are perfectly correlated, you will face with these problems: However, the case of perfect collinearity is very rare in practical cases. Imperfect or less than perfect...
 
SanSanych Fomenko:

Não posso deixar de pensar que vários problemas são comuns tanto aos modelos de classificação como aos de regressão.


Um desses problemas é a multicolinearidade, que geralmente é interpretada como uma correlação entre as variáveis de entrada, mas isso pode não ser inteiramente verdade.


A multicolinearidade no sentido geral leva a uma consequência muito desagradável que prejudica os nossos esforços de modelação:

  • os parâmetros do modelo tornam-se incertos
  • Os erros padrão de estimativa tornam-se infinitamente grandes.


Se a multicolinearidade é entendida como uma relação linear entre as variáveis de entrada (variáveis explicativas, preditores), então temos o seguinte quadro

  • embora as estimativas do OLS ainda sejam imparciais, elas têm uma grande variação e covariância, o que dificulta uma estimativa precisa
  • Como resultado, os intervalos de confiança tendem a ser mais amplos. Portanto, não podemos rejeitar a "hipótese nula" (ou seja, a verdadeira taxa de amostragem é zero),
  • Devido ao primeiro efeito do t a relação de um ou mais coeficientes tende a ser estatisticamente insignificante
  • Mesmo que alguns coeficientes de regressão sejam estatisticamente insignificantes, o valor R^2 pode ser muito alto
  • As ferramentas de estimativa OLS e seus erros padrão podem ser sensíveis a pequenas alterações nos dados


Aqui está um artigo que fornece ferramentas R para reconhecer a presença da multicolinearidade.


obrigado pela nova palavra, já lustrada algumas vezes hoje :)

Que outros problemas existem?

 

Hoje decidi verificar, a minha rede baseada no percetron. Otimizado para maio-junho de 2016, o EURUSD, com um spread de 15 pips.

A própria cauda.

Ainda estou confuso com o resultado.

 
forexman77:

Hoje decidi verificar, a minha rede baseada no percetron. Otimizado para maio-junho de 2016, o EURUSD, com um spread de 15 pips.

A própria cauda.

Até agora, estou confuso com o resultado.

Eu também sou mimado, mesmo que esteja um pouco chocado. Experimentei em amostras aleatórias e os resultados são incríveis. Eu ainda não fiz o TC.

Maxim diz que é uma longa curva de aprendizagem. Eu tenho cerca de 23 horas. Mas mesmo que eu o faça uma vez a cada 3 meses - que lixo).

E durante 3 meses é o suficiente, com certeza, não o testei mais.