트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 963

 
이반 네그레쉬니 :

그리고 순수한 기회를 제외하고 하향 편차의 허용 가능성을 어떻게 정당화합니까?

OOS가 Train보다 나을 것이라고 기대할 이유가 없습니다.
연구한 것보다 OOS의 무작위 데이터에서 어떻게 더 나은 결과를 요구할 수 있습니까? 이것은 우연이 아니면 할 수 없습니다.
최근 다른 스레드에서 그들은 학생이 교사보다 더 많이 알 수 없다고 썼습니다.
예시.
FOS의 데이터 일부(예: 80%)는 모델에 익숙할 것이며 거기에는 Train에서와 동일한 오류(오류 = 30%로 두십시오), FOS의 나머지 20%가 표시됩니다 데이터는 학습되지 않은 새 데이터이며 50%의 오류를 제공합니다. 요약하면, 이러한 80%의 친숙한 데이터와 20%의 새로운 데이터는 지역 환경 오류를 약 35%로 높여야 합니다.
그래서 나는 OOS 결과의 개선보다 악화를 기대할 가능성이 더 큽니다.
또한 많은 성공적인 예제가 Train 섹션보다 더 큰 비율로 OOS에 들어가면 개선의 기회가 있습니다. 나는 OOS에서 오류를 줄이기 위한 다른 옵션을 나타내지 않습니다.

이반 네그레쉬니 :

그리고 유효성 검사와 OOS 및 MO 전체의 의미를 제거하기 때문에 이 무작위성에 대한 싸움이 아니라면 주요 작업은 무엇입니까?))

작업은 오류 델타가 너무 크지 않은지 확인하는 것입니다.

 
Alyosha에 대한 질문입니다.
600개의 예측 변수에서 노이즈를 어떻게 필터링합니까?
 
도서관 :

OOS가 Train보다 나을 것이라고 기대할 이유가 없습니다.
연구한 것보다 OOS의 무작위 데이터에서 어떻게 더 나은 결과를 요구할 수 있습니까? 이것은 우연이 아니면 할 수 없습니다.
최근 다른 스레드에서 그들은 학생이 교사보다 더 많이 알 수 없다고 썼습니다.
예시.
FOS의 데이터 일부(예: 80%)는 모델에 익숙할 것이며 거기에는 Train에서와 동일한 오류(오류 = 30%로 두십시오), FOS의 나머지 20%가 표시됩니다 데이터는 학습되지 않은 새 데이터이며 50%의 오류를 제공합니다. 요약하면, 이러한 80%의 친숙한 데이터와 20%의 새로운 데이터는 지역 환경 오류를 약 35%로 높여야 합니다.
그래서 나는 OOS 결과의 개선보다 악화를 기대할 가능성이 더 큽니다.
또한 많은 성공적인 예제가 Train 섹션보다 더 큰 비율로 OOS에 들어가면 개선의 기회가 있습니다. 나는 OOS에서 오류를 줄이기 위한 다른 옵션을 나타내지 않습니다.

작업은 오류 델타가 너무 크지 않은지 확인하는 것입니다.

혼동하지 않으려면 용어를 결정해야 합니다. OOS 또는 OOS(out of sample)는 정의에 따라 모델에 익숙하지 않은 데이터이고 다른 것은 IS(in sample)입니다.

 
이반 네그레쉬니 :

용어를 결정해야 합니다. - OOS 또는 OOS(샘플 외)는 정의에 따라 모델에 익숙하지 않은 데이터이고 다른 것은 IS(샘플 내)입니다.

데이터에서 패턴이 발견되면 해당 패턴에 해당하는 예가 친숙한 것으로 간주될 수 있습니다.
 
도서관 :

또한 많은 성공적인 예제가 Train 섹션보다 더 큰 비율로 OOS에 들어가면 개선의 기회가 있습니다. 나는 OOS에서 오류를 줄이기 위한 다른 옵션을 나타내지 않습니다.

IR에 관한 책 중 하나에서 학습할 때 성공과 실패의 비율이 현실과 일치해야 한다고 읽었습니다. 우리는 성공과 실패를 동등하게 교육해야 합니다.

 
유리 아사울렌코 :

ML에 관한 책 중 하나에서 학습할 때 성공과 실패의 비율이 현실과 일치해야 한다고 읽었습니다. 우리는 성공과 실패를 동등하게 교육해야 합니다.

그렇다면 왜 실패하고 시끄러운 예를 걸러내려고 합니까? 아니면 그것들을 선택하고 "모름"으로 다시 매핑하고 네트워크를 다시 훈련시킬 수 있습니까?
 
도서관 :
그렇다면 왜 실패하고 시끄러운 예를 걸러내려고 합니까? 또는 선택하고 "모름"으로 다시 분할하고 네트워크를 다시 교육하시겠습니까?

모르겠어요. 하시는 분들을 위한 것입니다. 위와 같이 가르칩니다.

 
박사 상인 :

예, 데모가 병합된 것은 유감입니다. 그리고 모두 OOS를 너무 많이 보기 때문에 OOS에 따라 모델을 선택하는 것이 불가능하다는 기사를 직접 인용했지만 포럼에서 같은 내용이 여러 번 여기에 작성되었습니다.

OOS는 숲과 관련이 없습니다.. OOB를 보고 OOB와 OOS에 대한 저항 사이에 직접적인 상관 관계가 있다고 이미 썼습니다.

OOB에서는 작동하지 않았고 오류는 지금까지 기차에서와 동일하며 항상 최소 2배 이상입니다. 나중에 할게요, 이제 이 찌꺼기에 지쳤어요 :)

아마도 P로 전환하고 더 나은 모델 자체를 선택해야 할 것입니다. lglib 자체는 다른 것을 볼 수 없도록 합니다.
 
막심 드미트리예프스키 :

왜냐하면 lglib 자체는 다른 것을 볼 수 없도록 합니다.

당신은 오랫동안 - 막다른 골목 옵션을 들었습니다. MT - R, MatLab이 아닌 A_K2, VisSim 등에서 모델링이 필요합니다.

모델이 작동하면 MT로 옮기셔도 되고, 못 옮기셔도 됩니다.)

 
유리 아사울렌코 :

당신은 오랫동안 - 막다른 골목 옵션을 들었습니다. MT - R, MatLab이 아닌 A_K2, VisSim 등에서 모델링이 필요합니다.

모델이 작동하면 MT로 옮기셔도 되고, 못 옮기셔도 됩니다.)

다른 흥미로운 이야기가 있습니까?

사유: