Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2749

 
elibrarius #:

Osartigos de Vladimir também apresentam um erro em torno de 10 a 20%, mas a linha de equilíbrio não é animadora.

isso também pode depender da interpretação "a-post" do treinamento....

 
Maxim Dmitrievsky #:

adicionado na postagem anterior

#299

alguém excluiu minhas postagens onde publiquei o vídeo... não sei como isso pode acontecer.

 
mytarmailS #:

alguém excluiu minhas postagens onde publiquei o vídeo... não sei como isso pode acontecer.

Bem, bem, bem, você está se exibindo muito, eu acho.

Aqui está um sobre modelagem de madeira.

#4469

#4467

Sobre a pesquisa de catbusters? 😄 quem iniciou o tópico

Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
  • 2017.07.12
  • www.mql5.com
Самое интересное что я не понимаю почему он открывает сделки туда или обратно. экспериментирую с предикторами и разными способами открытия поз. тем более что оно копирует механизм работы настоящих нейронов очень примитивно и не так как на самом деле это происходит в мозгу Единственное из НС что нормально работает и перспективно это сверточные нс для распознавания всяких образов
 
Maxim Dmitrievsky #:

Bem, bem, bem, você deve estar se exibindo muito.

Aqui está a modelagem da madeira

#4469

#4467

Sobre a pesquisa de catbusters? 😄 quem começou o tópico

Veja bem, a madeira não é um argumento de forma alguma... 95% dos tutoriais do MoD começam com madeira, é a primeira coisa que um iniciante aprende, você não é o responsável por ela.

 
mytarmailS #:

Veja bem, a madeira não é um argumento de forma alguma... 95% dos tutoriais do MoD começam com madeira, é isso que um iniciante aprende primeiro, não é culpa sua.

A maioria dos tutoriais sobre NS já foi feita aqui antes, e eu me perguntei por que não com árvores. Fiz testes e descobri que elas não são piores. Nunca vi essa informação aqui antes, caso contrário, não teria feito essa pergunta.

Em seguida, mudei para o bousting, encontrei a biblioteca katbust e comecei a replicá-lo aqui

 
Maxim Dmitrievsky #:

A maioria dos NSs foi discutida aqui antes, e eu me perguntei por que não as árvores. Fiz testes e descobri que elas não são piores. Não vi essas informações aqui antes, caso contrário não teria feito essa pergunta.

e as árvores, a propósito, podem servir como uma alternativa válida para clustering e fs - "2 em um".

Maxim Dmitrievsky #:

Depois mudei para o bousting, encontrei a biblioteca katbust e comecei a replicá-la aqui

Sobre o algoritmo: ele fornece outra 2ª derivada matematicamente (ou média de resíduos - estatisticamente) - MAS como isso o ajuda pessoalmente no treinamento e em quais casos?... além dos clichês padrão em comerciais "catboost fornecerá resultados melhores e mais precisos".... porque a precisão dos pontos nem sempre é importante, às vezes a capacidade de geração do modelo pode ser mais importante.
 
JeeyCi #:

e as árvores, a propósito, podem servir como uma alternativa válida para clustering e fs.

Sobre o algoritmo: ele fornece outra 2ª derivada matematicamente (ou média de resíduos - estatisticamente) - MAS como isso ajuda no treinamento e em quais casos?... além dos clichês padrão em comerciais "catboost fornecerá resultados melhores e mais precisos".... porque nem sempre a precisão dos pontos é importante, às vezes a capacidade de geração do modelo pode ser mais importante?

Há também modelos de madeira para inferência causal, mas ainda não tive tempo de descobrir isso

O Boosting reduz o viés e a variação, enquanto o Forest reduz apenas a variação, eu acho. Trata-se de vantagens comprovadas, você pode pesquisar no Google. E a biblioteca em si foi desenvolvida, é conveniente trabalhar com ela.

Não está muito claro sobre os generativos, talvez às vezes eles sejam mais importantes. Mas as generativas NS não funcionam bem no Forex, se estivermos falando sobre a geração de dados sintéticos.

Forest Based Estimators — econml 0.13.1 documentation
  • econml.azurewebsites.net
Orthogonal Random Forests are a combination of causal forests and double machine learning that allow for controlling for a high-dimensional set of confounders , while at the same time estimating non-parametrically the heterogeneous treatment effect , on a lower dimensional set of variables . Moreover, the estimates are asymptotically normal and...
 
Maxim Dmitrievsky #:

se estivermos falando sobre a geração de dados sintéticos.

não - trata-se de generalizar... sim, errado, expresse-o.... desculpe.

Acho que é para distinguir o ambiente de risco de risco - ainda estou pensando em como generalizar essa divisão... tudo em meus próprios pensamentos (no fórum por acidente)...

Obrigado pela resposta!

 
JeeyCi #:

não - trata-se de generalizar..... sim, errado, expresso.... desculpe

Acho que é para distinguir o ambiente de risco de risco - ainda estou pensando em como generalizar essa divisão... tudo em meus próprios pensamentos (no fórum por acidente)...

Obrigado pela resposta!

experimente, o catbusta tem vários recursos diferentes, eu gosto dele.

Há uma parada antecipada com base no erro da amostra de validação, pré-treinamento. A generalização não é pior do que a do NS, que, além disso, precisa escrever suas próprias funções para interromper o aprendizado.

E ele aprende rapidamente, você não precisa esperar por horas.

 
Uma floresta aleatória pode encontrar o máximo em uma cadeia de dados, ou seja, simular a função mach()?

Só estou me perguntando se o MO pode simular funções primitivas do JA

há uma matriz, cada linha da matriz é um exemplo de treinamento.

head(X)
     [,1] [,2] [,3] [,4] [,5]
[1,]    2    4    1    3    1
[2,]    3    1    4    5    3
[3,]    1    2    4    4    1
[4,]    1    1    5    3    5
[5,]    3    4    1    3    3
[6,]    4    4    5    1    2

Precisamos encontrar o máximo de cada linha, o tamanho da amostra é de 20 mil linhas.


Resolver o problema por meio de regressão

 pred actual
1  4.967619      5
2  4.996474      5
3  4.127626      4
4  4.887233      5
5  5.000000      5
6  4.881568      5
7  4.028334      4
8  4.992406      5
9  3.974674      4
10 4.899804      5
11 4.992406      5

arredondado para maior clareza

 pred actual
1     5      5
2     5      5
3     4      4
4     5      5
5     5      5
6     5      5
7     4      4
8     5      5
9     4      4
10    5      5
11    5      5

muito bom, apenas alguns erros no teste de 50 novas linhas


Mas os dados na matriz X são muito simples, apenas 5 valores exclusivos de 1 a 5 e apenas 5 colunas, mas já há erros.

Embora eu ache que, se fizermos a classificação, não haverá erros, você pode verificar isso.

Bem, sim, é, mas se estivermos procurando o máximo nos dados, a classificação não é adequada porque a dispersão dos valores pode ser enorme....

Portanto, vamos voltar à regressão e complicar os dados.

head(X)
      [,1]  [,2]  [,3]  [,4]  [,5]
[1,]  0.93 -2.37 -0.35  0.16 -0.11
[2,] -0.53  0.19 -0.42  1.35 -0.16
[3,]  1.81  0.19 -0.68  0.31 -0.05
[4,]  0.08 -1.43  0.15 -0.96  0.43
[5,]  0.40  1.36  1.17 -0.99 -0.18
[6,] -2.19 -0.65  0.42 -1.12  1.46

Obtemos este resultado.

  pred actual
1   1.75   1.78
2   1.33   1.31
3   1.67   1.69
4   1.15   1.16
5   0.51   0.41
6   1.00   0.99
7   0.80   0.78
8   1.75   1.76
9   0.35   0.36
10  1.78   1.79
11  2.02   2.13
12  1.26   1.21
13  1.60   1.57
14  0.19   0.06

Em princípio, isso não é ruim, mas a função usual mach() fará isso melhor e poderá substituir todo esse modelo....

A propósito, eu me pergunto como os outros modelos funcionarão, se eles poderão criar a função mach() sem erros