트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1535

 
막심 드미트리예프스키 :

증분

주말에 커넥터를 완성하고 테스트에 올려 보겠습니다. 모델을 클라우드에 업로드하고 터미널에서 신호를 받을 계획입니다. 원하는 경우 나중에 테스트할 수도 있습니다. 나중에 mt5에서 클라이언트를 삭제할 수 있습니다.
처음에는 몇 달 동안 데모를 보는 것이 흥미로울 것입니다.
그런 다음에만 방법을 복사하거나 반복하는 데 투자하십시오.
Alglib 포리스트와 입력에서 가격이 증가하고 대상이 TP/SL로 표시된 단일 트리에 대한 나의 실험은 흥미로운 것을 보여주지 않았습니다.
 
도서관 :
처음에는 몇 달 동안 데모를 보는 것이 흥미로울 것입니다.
그런 다음에만 방법을 복사하거나 반복하는 데 투자하십시오.
Alglib 포리스트와 입력에서 가격이 증가하고 대상이 TP/SL로 표시된 단일 트리에 대한 나의 실험은 흥미로운 것을 보여주지 않았습니다.

1년 만에 목표의 정확한 설계에 도달했으며 매개변수를 변경하여 예측 가능한 방식으로 Akurashi를 변경할 수 있습니다.

데모에서 예, 테스트가 표시됩니다.

alglib 숲에는 이해할 수 없는 문제가 있습니다. 샘플이 많을수록 더 많이 재훈련됩니다.

아마도 그가 van hot을 하는 것이 합리적일 것입니다. 기능을 범주형으로 변환합니다. 나무는 그렇게 크지 않을 것이다
 
막심 드미트리예프스키 :

alglib 숲에는 이해할 수 없는 문제가 있습니다. 샘플이 많을수록 더 많이 재훈련됩니다.

아마도 그가 van hot을 하는 것이 합리적일 것입니다. 기능을 범주형으로 변환합니다. 나무는 그렇게 크지 않을 것이다

주제별

어떤 사람들은 vanhot이 비대칭 나무를 유발하기 때문에 숲에 좋지 않다고 쓰고, 다른 사람들은 과적합을 방지한다고 씁니다. 두 번째를 선택하세요 :)

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6368971/

Splitting on categorical predictors in random forests
Splitting on categorical predictors in random forests
  • www.ncbi.nlm.nih.gov
This is an open access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, reproduction and adaptation in any medium and for any purpose provided that it is properly attributed. For attribution, the original author(s), title, publication source (PeerJ) and either DOI or...
 
막심 드미트리예프스키 :

주제별

어떤 사람들은 vanhot이 비대칭 나무를 유발하기 때문에 숲에 좋지 않다고 쓰고, 다른 사람들은 과적합을 방지한다고 씁니다. 두 번째를 선택하세요 :)

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6368971/

예를 들어 5자리를 4자리로 변환하는 것과 같이 입력 데이터를 간단히 이산화할 수 있습니다. 그리고 데이터는 이미 10개의 그룹에 있습니다.
글쎄, 또는 앞서 제안한 대로 - 시트에서 원하는 깊이 또는 예제 수에 도달하면 분기를 중지하도록 alglib 포리스트에 빌드합니다.

 
도서관 :

예를 들어 5자리를 4자리로 변환하는 것과 같이 입력 데이터를 간단히 이산화할 수 있습니다. 그리고 데이터는 이미 10개의 그룹에 있습니다.
글쎄, 또는 앞서 제안한 대로 - 시트에서 원하는 깊이 또는 예제 수에 도달하면 분기를 중지하도록 alglib 포리스트에 빌드합니다.

이것은 다르므로 해당 값을 서로 비교할 수 없도록 범주형 값을 만들어야 합니다.

나중에 나는 기사를 마스터 할 것이고, 나는 그것을 잊지 않기 위해 그것을 던졌다.
 
막심 드미트리예프스키 :

나는 이것으로 나의 두뇌를 계속 치솟게 해야 한다. 얀데하와 같은 큰 사무실은 일을 한다. 이렇게 하면 괜찮을 것입니다. 그냥 하지 말고 스스로 하세요. 그렇지 않으면 표현과 다른 접근 방식에 빠져들게 될 것입니다.

그는 경사를 따라 걸으며 나무를 키울 때 이미 변화를 보여줍니다.

거기에 트리를 추가하면 변화가 생기겠지만, 마치 샘플 에 새로운 라인 을 추가하듯이 샘플을 살펴봐야 합니다 - 아마 이렇게 하면 배우기 어려운 영역/상황을 이해하고 그에 대해 생각할 수 있을 것입니다. 이러한 어려운 학습 영역을 극복할 수 있는 예측 변수.

 
도서관 :
나쁘지 않다! 볼륨을 높이면 이미 무언가를 얻을 수 있습니다)

따라서 볼륨을 높이려면 잎을 선택하여 하나의 모델로 결합하여 입력 수, 즉 입력 수를 늘릴 수 있습니다. 상기하다.

아마도 이 방법은 샘플에서 작동하지만 가속화된 경우 ...

이러한 결과는 깊이가 5-7 분할인 트리에서 제공되지만 특정 패턴만 나타냅니다. 일반적으로 3-4개의 잎은 -1과 1로 이동하고 나머지는 0으로 설정합니다.

 
막심 드미트리예프스키 :

증분

총 몇 개의 예측 변수가 있습니까?

 
도서관 :

예를 들어 5자리를 4자리로 변환하는 것과 같이 입력 데이터를 간단히 이산화할 수 있습니다. 그리고 데이터는 이미 10개의 그룹에 있습니다.
글쎄, 또는 앞서 제안한 바와 같이 - 시트의 원하는 깊이 또는 예제 수에 도달할 때 분기 중지를 alglib 포리스트에 구축합니다.

물론 가지치기를 하거나 한 장에 예시(완성도-리콜)의 수만큼 가지치기를 금지해야 합니다. 또한 정확도와 재현율이 기초 아래에 있는 경우 나무가 거부될 수 있습니다.

 
막심 드미트리예프스키 :

이것은 다르므로 해당 값을 서로 비교할 수 없도록 범주형 값을 만들어야 합니다.

나중에 나는 기사를 마스터 할 것입니다. 나는 그것을 잊지 않기 위해 그것을 버렸습니다.

그건 그렇고, 모델 훈련을 위한 매개변수는 무엇입니까?

사유: