트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3152

 
Maxim Dmitrievsky #:

기호를 이해하지 못하는 경우 chatgpt에 수식 디코딩을 요청할 수 있습니다.

Y|T = 1 테스트 그룹 결과(트리트먼트 포함)

Y|T = 0 - 대조군(트리트먼트 없음)

Y - 클래스 레이블, Y0,Y1 - 트리트먼트가 없는 경우와 있는 경우의 클래스 레이블

T - 모델에 입력된 트리트먼트(예측자 포함) 또는 입력되지 않은 트리트먼트(1;0)

E - 기대치

테스트와 훈련으로 나눌 때 원하는 시점에 분할합니다.

혼합을 하지 않으면 편향된 ATE+편향 추정치를 얻게 됩니다.

ATE는 노출의 평균 치료 효과입니다.

졸린, 글자를 혼동할 수 있지만 논리는 명확해야 합니다.

샘플의 어떤 지점에서 나누는 아이디어를 여전히 이해하지 못합니다. 결국 요점은 요인의 효과가 변경된 지점 만 찾는 것 같습니다. 샘플의 다른 부분을 순환하고 유전학을 사용하여 예측 인자에 의해 새로 영향을받은 부분을 찾아야 할까요?

이전에 당신은 다른 사람들이 진실을 말하지 않았다고 비난했지만, 당신 자신은 거래 목적으로 이러한 행동의 의미를 명확하게 밝히지 않았습니다.

이 문제는 MQL5에서 자동화하기 어렵기 때문에 아직 테스트하지 않았습니다.

 

여러분, MO가 최적화의 특별한 사례라고 말할 수 있을까요?

그런 것 같습니다.

 
Aleksey Vyazmikin #:

무슨 코드인지도 모르겠어요.

다른 알렉세이에게 답장하는 줄 알았는데 휴대폰으로 글을 쓰고 있었어요.
 
Aleksey Vyazmikin #:

샘플의 어떤 지점에서 분할한다는 개념이 여전히 이해가 되지 않습니다. 제가 보기에 요점은 요인의 영향력이 변화한 순간을 찾는 것입니다. 샘플의 다른 부분을 반복해서 유전학을 사용하여 새로운 방식으로 예측 인자의 영향을 받은 부분을 찾아야 할까요?

앞서 당신은 다른 사람들이 진실을 말하지 않았다고 비난했지만, 당신 자신은 거래 목적으로 이러한 행동의 의미를 명확하게 밝히지 않았습니다.

이 문제는 MQL5에서 자동화하기 어렵기 때문에 아직 테스트하지 않았습니다.

:)

당신도 저와 똑같은 책을 앞에 두고 있군요. 제가 보는 방식대로 저도 썼어요. 잃어버리셨다면 모도레이터에게 요약본을 만들어 달라고 부탁하세요.
 

금지되었다가 12시간 후에 금지 해제되었다가 다시 금지되었습니다.

무슨 일이죠?

 
mytarmailS #:

금지되었다가 12시간 후에 금지 해제되었다가 다시 금지됩니다.

무슨 일이죠?

한 달이면 괜찮으니 그냥 두세요, 새 계정으로.

 

R에서 레시피 전처리 패키지를 발견했습니다. 이 패키지의 전처리 단계 목록이 인상적입니다:

#> [ 1] "step_BoxCox" " step_YeoJohnson "

#> [ 3] "step_arrange" " step_bagimpute "

#> [ 5] "step_bin2factor" " step_bs "

#>  [  7] "step_center"  "  step_classdist " 

#> [ 9] "step_corr " " step_count "

#> [11] "step_cut " " step_date "

#> [13] "step_depth" " step_discretize "

#> [15] "step_dummy" "  step_dummy_extract " 

#> [17] "step_dummy_multi_choice" "step_factor2string "

#> [19] "step_filter" " step_filter_missing "

#> [21] "step_geodist" " step_harmonic "

#> [23] "step_holiday"  "  step_hyperbolic " 

#> [25] "step_ica" " step_impute_bag "

#> [27] "step_impute_knn" " step_impute_linear "

#> [29] "step_impute_lower" " step_impute_mean "

#> [31] "step_impute_median"  "  step_impute_mode " 

#> [33] "step_impute_roll" " step_indicate_na "

#> [35] "step_integer" " step_interact "

#> [37] "step_intercept" " step_inverse "

#> [39] "step_invlogit"  "  step_isomap " 

#> [41] "step_knnimpute" " step_kpca "

#> [43] "STEP_KPCA_POLY" " STEP_KPCA_RBF "

#> [45] "step_lag" " step_lincomb "

#> [47] "step_log "  "  step_logit " 

#> [49] "step_lowerimpute" " step_meanimpute "

#> [51] "step_medianimpute" " step_modeimpute "

#> [53] "step_mutate" " step_mutate_at "

#> [55] "step_naomit"  "  step_nnmf " 

#> [57] "step_nnmf_sparse" " step_normalize "

#> [59] "step_novel " " step_ns "

#> [61] "step_num2factor" " step_nzv "

#> [63] "step_ordinalscore"  "  step_other " 

#> [65] "step_pca" " step_percentile "

#> [67] "step_pls " " step_poly "

#> [69] "STEP_POLY_BERNSTEIN" " STEP_PROFILE "

#> [71] "step_range"  "  step_ratio " 

#> [73] "step_regex" " step_relevel "

#> [75] "step_relu" " step_rename "

#> [77] "step_rename_at" " step_rm "

#> [79] "step_rollimpute"  "  step_sample " 

#> [81] "step_scale" " step_select "

#> [83] "step_shuffle" " step_slice "

#> [85] "step_spatialsign" " step_spline_b "

#> [87] "step_spline_convex"  "  step_spline_monotone " 

#> [89] "step_spline_natural" " step_spline_nonnegative"

#> [91] "step_sqrt" " step_string2factor "

#> [93] "step_time" " step_unknown "

#> [95] "step_unorder"  "  step_window " 

#> [97] "step_zv"

제 경험상, 전처리의 노동 강도는 모델 자체 적용의 노동 강도보다 몇 배(3~5배) 낮습니다.

 
СанСаныч Фоменко #:

R에서 레시피 전처리 패키지를 가져왔습니다.

헤들리 위컴은 헛소리를 하지 않습니다.

 
Maxim Dmitrievsky #:

:)

당신도 저와 똑같은 책을 앞에 두고 있군요. 제가 보는 방식대로 저도 썼어요. 잃어버리셨다면 모도레이터에게 요약본을 만들어 달라고 부탁하세요.

나는 토론과 경험의 교환 대신에 우리는 다시 감정적 인 반응에 빠지는 것을 봅니다.

두 번째 게시물을 지우 셨습니다. 귀하가 제공 한 링크와 어떤 연관성도 보지 못했다고 말하고 싶었습니다. 이 기사에서 저자가 샘플 균형을 맞추기 위해 표준 CB 기능을 시도하지 않은 것이 이상합니다. 그리고 하나의 데이터 세트에 대한 테스트 결과만으로 결론을 도출 할 수 없습니다.
 
Aleksey Vyazmikin #:

토론과 경험의 교환 대신에 우리는 다시 감정적인 반응에 빠지는 것을 봅니다.

두 번째 게시물을 지우 셨습니다. 귀하가 제공 한 링크와 어떤 연관성도 보지 못했다고 말하고 싶었습니다. 이 기사에서 저자가 샘플 균형을 맞추기 위해 표준 CB 기능을 시도하지 않은 것이 이상합니다. 그리고 하나의 데이터 세트에 대한 테스트 결과만으로 결론을 도출 할 수는 없습니다.
최소한 코드를 작성하고 책에 쓰여진 알고리즘에 대한 기본적인 이해를 위해 레벨을 높이십시오. 그러면 이야기 할 것이있을 것입니다. 그렇지 않으면 문법 및 기타 오류가있는 영리함 (공식적인 과학 스타일을 모방하려는 시도)은 미소 만 유발합니다 :).

이전에 가중치를 통해 모델을 조정 한 적이 없었고 흥미로워 보였습니다. 순전히 그 책을 기반으로 수익성있는 TS를 작성하는 것은 아직 불가능했습니다. 나는 거기에 설명 된 메타 러너를 의미합니다. 가중치를 통한 튜닝도 거기에서 고려됩니다. 하지만 제 작업에 몇 가지 요소를 추가했을 때 어떤 부분에서는 더 좋아졌습니다. 예를 들어, 다른 기사에서 설명하는 크로스 트레이닝이 있습니다. 나는 이미 모든 것을 겪었고 말하자면 내 뒤에 마차를 끌고 싶은 욕망이 없습니다. 당신과 Sanych는 아무것도 배우지 않고 거래에 필요한지 아닌지에 대해 너무 오래 토론했습니다 :)
.

지체 포럼을 떠났기 때문에 지워졌습니다. 필요 없습니다.

행운을 빌어요, 필요하실 겁니다.

사유: