Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3152

 
Maxim Dmitrievsky #:

você pode solicitar ao chatgpt a decodificação da fórmula se não entender algum símbolo.

Y|T = 1 resultados do grupo de teste (com tratamento)

Y|T = 0 - grupo de controle (sem)

Y - rótulo da classe, Y0,Y1 - rótulos da classe sem e com o tratamento

T - tratamento inserido no modelo (incluindo preditor) ou não inserido (1;0)

E - expectativa

Dividido em qualquer ponto quando você divide por teste e treinamento

Se você não fizer a mistura, obterá uma estimativa tendenciosa de ATE+vieses

ATE é o efeito médio do tratamento da exposição

Sonolento, talvez eu tenha confundido as letras, mas a lógica deve estar clara.

Ainda não entendo a ideia de dividir em qualquer ponto da amostra. Afinal, o objetivo, ao que me parece, é encontrar exatamente o ponto em que o efeito do fator mudou. Talvez seja necessário percorrer diferentes partes da amostra e usar a genética para encontrar aquela que foi recentemente influenciada pelo preditor?

Anteriormente, você acusou outras pessoas de não dizerem a verdade, mas você mesmo não deixa claro o significado dessas ações, a seu ver, para fins de negociação.

Ainda não testei nada sobre essa questão, pois é difícil automatizá-la na MQL5.

 

Pessoal, podemos dizer que o MO é um caso especial de otimização?

Acho que sim.

 
Aleksey Vyazmikin #:

Nem sei de que código estamos falando.

Pensei que estava respondendo a outro Alexei, mas estava escrevendo do meu telefone.
 
Aleksey Vyazmikin #:

Ainda não entendo a ideia de dividir em qualquer ponto da amostra. O objetivo, ao que me parece, é encontrar o momento em que a influência de um fator mudou. Talvez devêssemos percorrer diferentes partes da amostra e usar a genética para encontrar aquela que foi afetada pelo preditor de uma nova maneira?

Anteriormente, você acusou outras pessoas de não dizerem a verdade, mas você mesmo não deixa claro o significado dessas ações, a seu ver, para fins de negociação.

Ainda não testei nada sobre essa questão, pois é difícil automatizá-la na MQL5.

:)

Você tem diante de si exatamente o mesmo livro que eu. Do meu ponto de vista, você também o escreveu. Peça ao mordorator para fazer um resumo se você o perdeu.
 

banido, 12 horas depois cancelado o banimento e, em seguida, banido novamente.

O que foi isso?

 
mytarmailS #:

banido, 12 horas depois cancelado o banimento e, em seguida, banido novamente.

O que foi isso?

Um mês será suficiente, deixe-o continuar, nova conta.

 

Deparei-me com o pacote de pré-processamento de receitas do R. Lista impressionante de etapas de pré-processamento desse pacote:

#> [ 1] "step_BoxCox" " step_YeoJohnson "

#> [ 3] "step_arrange" " step_bagimpute "

#> [ 5] "step_bin2factor" " step_bs "

#>  [  7] "step_center"  "  step_classdist " 

#> [ 9] "step_corr " " step_count "

#> [11] "step_cut " " step_date "

#> [13] "step_depth" " step_discretize "

#> [15] "step_dummy" "  step_dummy_extract " 

#> [17] "step_dummy_multi_choice" "step_factor2string "

#> [19] "step_filter" " step_filter_missing "

#> [21] "step_geodist" " step_harmonic "

#> [23] "step_holiday"  "  step_hyperbolic " 

#> [25] "step_ica" " step_impute_bag "

#> [27] "step_impute_knn" " step_impute_linear "

#> [29] "step_impute_lower" " step_impute_mean "

#> [31] "step_impute_median"  "  step_impute_mode " 

#> [33] "step_impute_roll" " step_indicate_na "

#> [35] "step_integer" " step_interact "

#> [37] "step_intercept" " step_inverse "

#> [39] "step_invlogit"  "  step_isomap " 

#> [41] "step_knnimpute" " step_kpca "

#> [43] "step_kpca_poly" " step_kpca_rbf "

#> [45] "step_lag" " step_lincomb "

#> [47] "step_log "  "  step_logit " 

#> [49] "step_lowerimpute" " step_meanimpute "

#> [51] "step_medianimpute" " step_modeimpute "

#> [53] "step_mutate" " step_mutate_at "

#> [55] "step_naomit"  "  step_nnmf " 

#> [57] "step_nnmf_sparse" " step_normalize "

#> [59] "step_novel " " step_ns "

#> [61] "step_num2factor" " step_nzv "

#> [63] "step_ordinalscore"  "  step_other " 

#> [65] "step_pca" " step_percentile "

#> [67] "step_pls " " step_poly "

#> [69] "step_poly_bernstein" " step_profile "

#> [71] "step_range"  "  step_ratio " 

#> [73] "step_regex" " step_relevel "

#> [75] "step_relu" " step_rename "

#> [77] "step_rename_at" " step_rm "

#> [79] "step_rollimpute"  "  step_sample " 

#> [81] "step_scale" " step_select "

#> [83] "step_shuffle" " step_slice "

#> [85] "step_spatialsign" " step_spline_b "

#> [87] "step_spline_convex"  "  step_spline_monotone " 

#> [89] "step_spline_natural" " step_spline_nonnegative"

#> [91] "step_sqrt" " step_string2factor "

#> [93] "step_time" " step_unknown "

#> [95] "step_unorder"  "  step_window " 

#> [97] "step_zv"

Em minha experiência, a intensidade de trabalho do pré-processamento é muitas vezes menor (3 a 5 vezes) do que a intensidade de trabalho da aplicação do próprio modelo

 
СанСаныч Фоменко #:

Capturou o pacote de pré-processamento de receitas do R

Hedley Wickham não faz besteira

 
Maxim Dmitrievsky #:

:)

Você tem diante de si exatamente o mesmo livro que eu. Do meu ponto de vista, você também o escreveu. Peça ao mordorator para fazer um resumo se você o perdeu.

Vejo que, em vez de discussão e troca de experiências, caímos novamente em algumas reações emocionais.

Você apagou a segunda postagem - eu queria dizer que não vi nenhuma conexão com o link que você forneceu. No artigo, é estranho que o autor não tenha tentado as funções padrão do CB para equilibrar a amostra. E as conclusões não podem ser tiradas apenas dos resultados de um teste em um conjunto de dados.
 
Aleksey Vyazmikin #:

Vejo que, em vez de discussão e troca de experiências, caímos novamente em algumas reações emocionais.

Você apagou a segunda postagem - eu queria dizer que não vi nenhuma conexão com o link que você forneceu. No artigo, é estranho que o autor não tenha tentado as funções padrão do CB para equilibrar a amostra. E você não pode tirar conclusões apenas dos resultados de um teste em um conjunto de dados.
Aumente seu nível, pelo menos para escrever código e ter uma compreensão básica dos algoritmos, que são descritos em livros. Assim, haverá algo sobre o que conversar. Caso contrário, a esperteza (uma tentativa de imitar o estilo científico formal), com erros gramaticais e outros, causa apenas um sorriso :).

Nunca havia ajustado modelos por meio de pesos antes, parecia interessante. Ainda não foi possível escrever um TS lucrativo puramente com base nesse livro. Refiro-me aos meta-lerners, que são descritos lá. O ajuste por meio de pesos também é considerado lá. Mas quando acrescentei alguns elementos ao meu trabalho, ele ficou melhor em alguns pontos. Por exemplo, o treinamento cruzado, que é descrito em outro artigo. Já passei por tudo isso e segui em frente, por assim dizer, e não quero puxar as carroças atrás de mim. Você e Sanych passaram muito tempo discutindo se isso é necessário ou não na negociação, sem aprender nada :)
.

Apagado, porque saí do fórum retardado. Não há necessidade.

Boa sorte, você precisará dela.