트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1615

 
알렉세이 비아즈미킨 :

감소에 관한 것이 아니라 분할 외부의 샘플에 대한 예측자의 행동에 대한 통계에 관한 것입니다. 이는 예측자 값 선택의 무작위성을 줄여야 합니다.

그건 그렇고 AlgLib은 각 분할에 그리드를 만들거나 한 번 만든 다음이 그리드를 사용합니까? 내가 알기로는 CatBoost의 개발자들은 그리드가 한 번만 끝난다고 주장합니다.

사고가 없습니다. 각 예측 변수에 대해 사용 가능한 가장 좋은 분할이 선택됩니다. 모든 예측 변수가 각 트리에 제공되지는 않지만 예를 들어 무작위로 선택된 예측 변수의 절반이 제공되는 경우 포리스트에 무작위성이 존재합니다.

한번 가르칩니다. 훈련이 없습니다. 나무/숲의 경우 재교육이 충분히 빠르기 때문에 추가 교육이 전혀 없는 것 같습니다.
왜 그리드인가? 나무에는 노드와 잎이 있습니다.

 
도서관 :
그건 그렇고, 내가 부스팅에 대해 좋아하지 않는 것은 권장 목재 깊이가 7-10이라는 것입니다.
저것들. 100개의 예측 변수가 있고 나눗셈도 각 예측 변수의 중간에서 시작됩니다. 그런 다음 높은 확률로 중간에 7개의 서로 다른 예측 변수를 나눕니다. 아마도 1 또는 2는 거의 1/4까지 공유할 것입니다.
아니면 알고리즘이 알고리즘을 반으로 나누지 않고 더 작은 조각으로 부스팅하는 데 작동합니까? 아는 사람 있나요?
그리고 누가 나무의 깊이를 사용합니까?


 
막심 드미트리예프스키 :


47분이라는 시간이 아쉽네요...가장 많이 알려진 기본기를 들으니.. 구체적인 질문은 하나뿐입니다. 당신이 알고 있다면 - 말해)

 
도서관 :

47분이라는 시간이 아쉽네요...가장 많이 알려진 기본기를 들으니.. 구체적인 질문은 하나뿐입니다. 당신이 알고 있다면 - 말해)

그것들은 모두 다르게 만들어졌습니다. 각각에 대해 인증서를 흡연해야 합니다.

중요하지 않습니다. 대상과 관련된 유익한 기능이 있으면 모든 방법이 작동합니다.

비슷한 기능으로 숲과 부스팅을 비교했습니다. 부스팅은 오버핏이 적고 전체적으로 +-

 
막심 드미트리예프스키 :

그것들은 모두 다르게 만들어졌습니다. 각각에 대해 인증서를 흡연해야 합니다.

중요하지 않습니다. 대상과 관련된 유익한 기능이 있으면 모든 방법이 작동합니다.

비슷한 기능으로 숲과 부스팅을 비교했습니다. 부스팅은 오버핏이 적고 전체적으로 +-

어떤 깊이가 요구되는 부스팅?
 
막심 드미트리예프스키 :

그것들은 모두 다르게 만들어졌습니다. 각각에 대해 인증서를 흡연해야 합니다.

중요하지 않습니다. 대상과 관련된 유익한 기능이 있으면 모든 방법이 작동합니다.

비슷한 기능으로 숲과 부스팅을 비교했습니다. 부스팅은 오버핏이 적음, 전반적으로 +-

그래서 저도 이야기하고 있습니다. 입력이 대상에 적합하면 모든 방법이 작동합니다. 정말 좋은 입력을 가지고 있기 때문에 확인하고 싶었습니다. 그러나 Reshetov 옵티마이저만이 이를 증명하며, 아시다시피 한 명의 전문가로는 주관적인 평가를 내리기에 충분하지 않습니다. 그것은 방법에 관한 것이 아니라 각 방법마다 하나 또는 다른 수의 기능만 필요합니다. (Kick Max, 당신 때문에 처음으로 이 단어를 사용했습니다) 누군가는 많이 필요하고 누군가는 약간 필요하지만 일반적으로, 입력 데이터가 출력 변수를 설명하면 어떤 방법으로도 작동합니다. 그리고 결과도 비슷할 거라 생각합니다. Reshetov를 제외한 다른 시스템에서 내 입력을 구동할 수 없다는 것은 유감입니다. 프로그래머 포럼에 가야합니다. 어디로 가야합니까 :-(
 
도서관 :
어떤 깊이가 요구되는 부스팅?

2에서 10까지 깊이가 클수록 적합도가 커집니다.

최적의 3-7

그래디언트 단계는 여전히 변경할 수 있습니다. 일반적으로 그것은 전혀 중요하지 않습니다. 결과는 더 적은 확산, 더 적은 오프셋, 더 적은 신호 등을 제공합니다. ... 그리고 평균 사진이 저장됩니다. 이것은 이미 최적화의 문제이며 기능의 품질과 관련이 없습니다.


 
맥스, 자연 뉴런에 대한 비디오에 대해 솔직히 감사하겠습니다. 하지만 이 비디오는 어쩐지 별로 좋지 않습니다. 사실은 제가 오래전부터 고민해 온 재수습 이론이 있어서 저에게 아주 적절하게 만들어 놓은 것입니다. Yandex 직원이 듣고 싶어할 것이라고 확신합니다. 음 ... 동영상을 녹화할 수 있는 힘을 찾기 위해. 그리고 나는 항상 술을 마셨고, 그 다음은 웃겼습니다. 그와 같아요 :-(
 
마이클 마르쿠카이테스 :
맥스, 자연 뉴런에 대한 비디오에 대해 솔직히 감사하겠습니다. 하지만 이 비디오는 어쩐지 별로 좋지 않습니다. 사실은 제가 오래전부터 고민해 온 재수습 이론이 있어서 저에게 아주 적절하게 만들어 놓은 것입니다. Yandex 직원이 듣고 싶어할 것이라고 확신합니다. 음 ... 동영상을 녹화할 수 있는 힘을 찾기 위해. 그리고 나는 항상 술을 마셨고, 그 다음은 웃겼습니다. 그와 같아요 :-(

))) 패턴은 통계적 분석을 통해 찾아야 하며 뉴런을 괴롭히지 않아야 합니다.

예를 들어, 두 번째 기사에서 나는 10년 동안의 EURUSD 계절 변동의 레이아웃을 월 단위로 제공했습니다. 올해는 다 똑같습니다. 4월-5월이 가장 흥미로울 것입니다(가장 가까운 것부터)
 
막심 드미트리예프스키 :

))) 패턴은 통계적 분석을 통해 찾아야 하며 뉴런을 괴롭히지 않아야 합니다.

그래서 저도 이야기하고 있습니다. JPrediction을 방해하기 전에 6,000,000개의 열 중 통계적으로 유의미한 150개만 남겨두고 그 다음에야 그 결과를 설명하는 이 악명 높은 법칙을 찾습니다. 열의 개수는 이론에 따라 테이블의 행 개수의 2배가 되어야 알고리즘이 선택할 수 있고 결과적으로 옵티마이저는 내가 제공하는 150개의 열 중 5~10개를 남겨 둡니다. 최종 모델을 형성합니다.
사유: