트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1437

 

오랫동안 나는 이해할 수 없었지만 그렇게 된 것 같다. Alglib 숲은 표본 크기가 증가함에 따라 과적합되는 경향이 있습니다. 논스톱 카누입니다. 따라서 적당한 표본 크기로 좋은 일반화 능력을 줄 수 있지만 표본이 증가하면 분할 수가 규모에서 벗어나 가지 치기를하지 않고 메모 만 나옵니다. 저것들. 샘플이 증가하면 가지 치기가 필요합니다.

아직 웹 사이트의 새 버전에서 어떻게 작동하는지 살펴보지 않았습니다. 아마도 이 단점이 수정되었을 것입니다.

 
막심 드미트리예프스키 :

오랫동안 나는 이해할 수 없었지만 그렇게 된 것 같다. Alglib 숲은 표본 크기가 증가함에 따라 과적합되는 경향이 있습니다. 논스톱 카누입니다. 따라서 적당한 표본 크기로 좋은 일반화 능력을 줄 수 있지만 표본이 증가하면 분할 수가 규모에서 벗어나 가지 치기를하지 않고 메모 만 나옵니다. 저것들. 샘플이 증가하면 가지 치기가 필요합니다.

아직 웹 사이트의 새 버전에서 어떻게 작동하는지 살펴보지 않았습니다. 아마도 이 단점이 수정되었을 것입니다.

동시에 가지치기는 완전성을 제어해야 합니다. 최소 0.5-1%의 샘플 적용 범위로 잘라냅니다.

 
고비치 :

지난 세기의 소프트웨어를 괴롭히는 이유는 무엇입니까? 사이버 포럼에서 5배 더 빠른 옵션을 제공했습니다 . NeyroPro의 저자는 수십 년 만에 자신이 기반을 잃었다고 인정했으며 이제 더 최적의 코드를 작성하고 있습니다.

C의 Multiperchik, 나쁘지도 나쁘지도 않습니다. 우리의 Maxim은 먹일 필요가 있습니다. 그는 MLP를 어디에서 슬램할 것인지 찾고 있는 것 같았습니다. 여기에 순수한 C 50 라인이 있습니다. 그러나 이것은 아직 그의 수준은 아닙니다.

 
막심 드미트리예프스키 :

앞으로는 돌아오지 않습니다, 최대한 개인적인 일로 던졌습니다, 편히 읽으세요)

맞습니다. 수익이나 어떤 지표도 필요하지 않습니다. MO는 순 가격에서 종속성을 찾을 수 있습니다. 저에게 개인적인 연구도 해주세요. 저는 엄격할 것이라고 약속합니다. 그러나 공정합니다. 모든 것이 실제 생활에서나 직장에서, 상사와 부하의 관계에서와 같습니다.

 
막심 드미트리예프스키 :

오랫동안 나는 이해할 수 없었지만 그렇게 된 것 같다. Alglib 숲은 표본 크기가 증가함에 따라 과적합되는 경향이 있습니다. 논스톱 카누입니다. 따라서 적당한 표본 크기로 좋은 일반화 능력을 줄 수 있지만 표본이 증가하면 분할 수가 규모에서 벗어나 가지 치기를하지 않고 메모 만 나옵니다. 저것들. 샘플이 증가하면 가지 치기가 필요합니다.

아직 웹 사이트의 새 버전에서 어떻게 작동하는지 살펴보지 않았습니다. 아마도 이 단점이 수정되었을 것입니다.

아니요. 기능이 단순히 속도를 위해 재작성되었습니다. 깊이는 승리한/마지막 분할까지 여전히 존재합니다.
깊이를 직접 제한하십시오 - 카운터(시트의 깊이 또는 예의 수)를 설정하고 초과된 경우 분할을 완료하십시오. 내 실험에서 이것은 OOS의 개선으로 이어지지 않았지만 여전히 동일한 50 + -5%입니다.
 
막심 드미트리예프스키 :

적어도 그 과정에서 나는 원래 시리즈와 함께 정체와 상호 정보의 존재를 모두 보았습니다. 어떻게 든 고칠 수 있는 일부 이상값이 있지만 이미 거기에 대해 더 잘 알고 있습니다.

간단한 공식, mql로 다시 작성

나는 또한 상호 정보의 사용에 대해 잠시 생각했습니다. 제 생각에는 그것이 아마도 성배 조차도 의미가 있다고 생각합니다.

 
케샤 뿌리 :

맞습니다. 수익이나 어떤 지표도 필요하지 않습니다. MO는 순 가격에서 종속성을 찾을 수 있습니다. 저에게 개인적인 연구도 해주세요. 저는 엄격할 것이라고 약속합니다. 그러나 공정합니다. 모든 것이 실제 생활에서나 직장에서, 상사와 부하의 관계에서와 같습니다.

아니요, Kesha, 실제 LIFE에서 그리고 여기 포럼에서 당신은 아직 당신과 무언가를 공유할 충분한 권한이 없습니다. 일하는 중입니다.

 
도서관 :
아니요. 기능이 단순히 속도를 위해 재작성되었습니다. 깊이는 승리한/마지막 분할까지 여전히 존재합니다.
깊이를 직접 제한하십시오 - 카운터(시트의 깊이 또는 예의 수)를 설정하고 초과된 경우 분할을 완료하십시오. 내 실험에서 이것은 OOS의 개선으로 이어지지 않았지만 여전히 동일한 50 + -5%입니다.

나는 그것이 어떻게 작동하는지 거의 모르지만 목재를 훨씬 적게 생산한다고 말합니다. 사실, 그것은 더 적게 재훈련해야 합니다. 옵션의 수는 적지만 전체 깊이와 동일합니다.

 
도서관 :
아니요. 기능이 단순히 속도를 위해 재작성되었습니다. 깊이는 승리한/마지막 분할까지 여전히 존재합니다.
깊이를 직접 제한하십시오 - 카운터(시트의 깊이 또는 예의 수)를 설정하고 초과된 경우 분할을 완료하십시오. 내 실험에서 이것은 OOS의 개선으로 이어지지 않았지만 여전히 동일한 50 + -5%입니다.

따라서 Alyosha와 미친 마법사 forex demotivators가 모든 사람을 오도하고 수익이 독립적이고 더 이상 정보를 포함하지 않고 수준이나 추세선 이 없으므로 순수 SB를 사용합니다.

 
케샤 뿌리 :

저도 상호 정보의 활용에 대해 잠시 고민했는데, 여기에도 일리가 있다고 생각합니다. 어쩌면 성배라도요.

이것은 적어도 .. 내가 이것에 대해 SI와 함께 성공적으로 다시 작성한 생각의 매우 정확한 기차입니다.

사유: