트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2749

 
elibrarius #:

블라디미르의 기사도 10~20% 정도의 오차가 있지만, 균형이 잘 맞고 있다는 점은 고무적입니다.

이것은 또한 교육의 "a-post"에 대한 해석에 따라 달라질 수 있습니다....

 
Maxim Dmitrievsky #:

이전 게시물에 추가되었습니다.

#299

누군가 내가 동영상을 올린 내 게시물을 삭제했습니다... 어떻게 그런 일이 일어날 수 있는지 모르겠습니다.

 
mytarmailS #:

누군가 내가 동영상을 올린 내 게시물을 삭제했어요... 어떻게 그런 일이 일어날 수 있는지 모르겠어요.

이런, 이런, 이런, 이런, 당신은 많이 과시하고있는 것 같습니다.

여기 나무 모델링에 관한 영상이 있습니다.

#4469

#4467

캣버스터즈 검색에 대해? 😄 누가 스레드를 시작했나요?

Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
  • 2017.07.12
  • www.mql5.com
Самое интересное что я не понимаю почему он открывает сделки туда или обратно. экспериментирую с предикторами и разными способами открытия поз. тем более что оно копирует механизм работы настоящих нейронов очень примитивно и не так как на самом деле это происходит в мозгу Единственное из НС что нормально работает и перспективно это сверточные нс для распознавания всяких образов
 
Maxim Dmitrievsky #:

이런, 이런, 이런, 이런, 많이 자랑하시네요.

여기 나무 모델링이 있습니다.

#4469

#4467

캣버스터즈 검색에 대해 궁금하신가요? 스레드를 시작한 사람 😄

이봐요, 나무는 전혀 논쟁거리가 아니에요... MoD 튜토리얼의 95%는 나무로 시작하며, 초보자가 가장 먼저 접하는 것이 나무입니다.

 
mytarmailS #:

이봐요, 나무는 전혀 논쟁거리가 아니에요... MoD 튜토리얼의 95%는 나무로 시작하며, 초보자가 가장 먼저 배우는 것이 나무이므로 문제가 없습니다.

이전에는 대부분 NS 였기 때문에 왜 나무가 아닌지 궁금했습니다. 나는 테스트를했는데 더 나쁘지 않다는 것이 밝혀졌습니다. 전에는 여기에서 그런 정보를 본 적이 없었습니다. 그렇지 않았다면이 질문을하지 않았을 것입니다.

그런 다음 부스팅으로 전환하고 캣버스트 라이브러리를 찾아서 여기에서 복제하기 시작했습니다.

 
Maxim Dmitrievsky #:

이전에 여기에서 논의 된 것은 대부분 NS 였는데 왜 나무가 아닌지 궁금했습니다. 나는 테스트를했고 그들이 더 나쁘지 않다는 것이 밝혀졌습니다. 이전에는 여기에서 그러한 정보를 본 적이 없었습니다. 그렇지 않으면이 질문을하지 않았을 것입니다.

그런데 트리는 클러스터링과 FS에 대한 가치있는 대안으로 "2 in 1"의 역할을 할 수 있습니다.

막심 드미트리예프스키 #:

그런 다음 부스팅으로 전환하고 katbust 라이브러리를 찾아서 여기에서 복제하기 시작했습니다.

알고리즘에 대해 : 수학적으로 (또는 통계적으로 평균화 된 잔차) 다른 두 번째 도함수를 제공합니다. 그러나 개인적으로 훈련에 어떻게 도움이되고 어떤 경우에 도움이됩니까?... 광고의 표준 진부한 표현 외에 "catboost는 더 좋고 정확한 결과를 제공합니다.".... 점의 정밀도가 항상 중요한 것은 아니기 때문에 때로는 모델의 생성 능력이 더 중요할 수 있습니다.
 
JeeyCi #:

트리는 클러스터링과 FS에 대한 가치 있는 대안이 될 수 있습니다.

알고리즘에서 수학적으로 또 다른 2차 미분(또는 잔차 평균 - 통계적으로)을 제공하지만, 훈련에 어떻게 도움이 되고 어떤 경우에 도움이 될까요?... 광고의 표준 진부한 표현인 "catboost는 더 좋고 정확한 결과를 제공합니다"를 제외하고는 .... 모든 곳에서 점의 정밀도가 중요한 것은 아니기 때문에 때로는 모델의 생성 능력이 더 중요할 수 있습니까?

인과 관계 추론을위한 나무 모델도 있지만 아직 알아낼 시간이 없었습니다.

부스팅은 편향과 분산이 줄어드는 반면, 포레스트는 분산만 줄어든다고 생각합니다. 입증된 장점에 관한 것이니 구글에서 찾아보세요. 그리고 라이브러리 자체가 개발되어 작업하는 것이 편리합니다.

생성적인 것에 대해서는 명확하지 않으며 때로는 더 중요 할 수도 있습니다. 그러나 합성 데이터 생성에 대해 이야기하는 경우 NS 생성은 Forex에서 잘 작동하지 않습니다.

Forest Based Estimators — econml 0.13.1 documentation
  • econml.azurewebsites.net
Orthogonal Random Forests are a combination of causal forests and double machine learning that allow for controlling for a high-dimensional set of confounders , while at the same time estimating non-parametrically the heterogeneous treatment effect , on a lower dimensional set of variables . Moreover, the estimates are asymptotically normal and...
 
Maxim Dmitrievsky #:

합성 데이터 생성에 대해 이야기하는 경우.

아니요 - 일반화에 관한 것입니다... 예, 틀렸어요, 표현하세요.... 죄송합니다.

리스크 온 / 리스크 오프 환경을 구분하는 것 같아요-이 구분을 일반화하는 방법에 대해 여전히 생각하고 있습니다... 내 생각에 모두 (우연히 포럼에서) ...

답변 주셔서 감사합니다!

 
JeeyCi #:

아니요 - 일반화에 관한 것입니다..... yes, wrong, express.... 죄송합니다

리스크 온 / 리스크 오프 환경을 구분하는 것 같아요-이 구분을 일반화하는 방법에 대해 여전히 생각하고 있습니다 ... 내 생각에 (우연히 포럼에서) 모두 ...

답변 주셔서 감사합니다!

그것을 시도해보십시오, catbusta에는 다양한 기능이 있습니다.

유효성 검사 샘플, 사전 교육에 대한 오류로 인해 조기 중지가 있습니다. 일반화는 학습을 중단하기 위해 자체 함수를 작성해야하는 NS보다 나쁘지 않습니다.

그리고 빠르게 학습하므로 몇 시간을 기다릴 필요가 없습니다.

 
무작위 포리스트가 데이터 문자열에서 최대값을 찾을 수 있습니까, 즉 함수 mach()를 시뮬레이션 할 수 있습니까?

MO가 JA의 원시 함수를 시뮬레이션 할 수 있는지 궁금합니다.

행렬이 있고 행렬의 각 행은 훈련 예제입니다.

head(X)
     [,1] [,2] [,3] [,4] [,5]
[1,]    2    4    1    3    1
[2,]    3    1    4    5    3
[3,]    1    2    4    4    1
[4,]    1    1    5    3    5
[5,]    3    4    1    3    3
[6,]    4    4    5    1    2

각 행의 최대값을 구해야 하며 샘플 크기는 20,000 행입니다.


회귀를 통한 문제 해결

 pred actual
1  4.967619      5
2  4.996474      5
3  4.127626      4
4  4.887233      5
5  5.000000      5
6  4.881568      5
7  4.028334      4
8  4.992406      5
9  3.974674      4
10 4.899804      5
11 4.992406      5

명확성을 위해 반올림

 pred actual
1     5      5
2     5      5
3     4      4
4     5      5
5     5      5
6     5      5
7     4      4
8     5      5
9     4      4
10    5      5
11    5      5

꽤 괜찮음, 50개의 새로운 라인 중 테스트에서 몇 개의 오류만 있음


그러나 행렬 X의 데이터는 1에서 5까지의 고유 값 5개와 열 5개로 매우 간단하지만 이미 오류가 발생했습니다.

분류를 하면 오류가 없을 거라고 생각하지만, 그래도 확인할 수 있습니다.

네, 그렇지만 데이터에서 최대값을 찾고 있다면 값의 분산이 클 수 있기 때문에 분류는 적합하지 않습니다....

이제 회귀로 돌아가서 데이터를 복잡하게 만들어 봅시다.

head(X)
      [,1]  [,2]  [,3]  [,4]  [,5]
[1,]  0.93 -2.37 -0.35  0.16 -0.11
[2,] -0.53  0.19 -0.42  1.35 -0.16
[3,]  1.81  0.19 -0.68  0.31 -0.05
[4,]  0.08 -1.43  0.15 -0.96  0.43
[5,]  0.40  1.36  1.17 -0.99 -0.18
[6,] -2.19 -0.65  0.42 -1.12  1.46

이 결과를 얻습니다.

  pred actual
1   1.75   1.78
2   1.33   1.31
3   1.67   1.69
4   1.15   1.16
5   0.51   0.41
6   1.00   0.99
7   0.80   0.78
8   1.75   1.76
9   0.35   0.36
10  1.78   1.79
11  2.02   2.13
12  1.26   1.21
13  1.60   1.57
14  0.19   0.06

원칙적으로는 나쁘지 않지만 일반적인 함수인 mach()가 더 잘 수행하며 이 모든 모델.... 을 대체할 수 있습니다.

그건 그렇고, 다른 모델이 오류없이 mach () 함수를 만들 수 있다면 어떻게 작동할지 궁금합니다.

사유: