트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1236

 
친애하는 산림보호자. 나무와 숲에 대해 클래스 밸런싱을 수행해야 합니까(다른 클래스의 예제 수를 동일하게 유지)?
 
도서관 :
친애하는 산림보호자. 나무와 숲에 대해 클래스 밸런싱을 수행해야 합니까(다른 클래스의 예제 수를 동일하게 유지)?

아니다

 
드미트리 :

아니다

여기에서 읽고 있습니다. Flach P. - 기계 학습. 데이터에서 지식을 추출하는 알고리즘 구축의 과학 및 기술 - 2015

이 주제에 관한 여러 페이지가 있습니다. 마지막은 다음과 같습니다.

표시된 포인트 1은 균형 조정이 유용하다고 말합니다.

그러나 포인트 2도 있습니다. 여기서 우리는 큰 표본의 경우 작은 클래스의 표본이 충분할 때 해당 표본이 대표성이 될 것이라고 결론지을 수 있습니다. 그러면 균형을 맞출 필요가 없습니다.
VR을 대표하는 사례가 몇 개나 될까요?

그리고 포인트 3도 있습니다. 그러나 사용하기로 선택한 프로그램에서 트리의 구체적인 구현에 그러한 수정이 있는지 찾기가 어렵습니다.

 
도서관 :

여기에서 읽고 있습니다. Flach P. - 기계 학습. 데이터에서 지식을 추출하는 알고리즘 구축의 과학 및 기술 - 2015

이 주제에 관한 여러 페이지가 있습니다. 마지막은 다음과 같습니다.

표시된 포인트 1은 균형 조정이 유용하다고 말합니다.

그러나 포인트 2도 있습니다. 여기서 우리는 큰 표본의 경우 작은 클래스의 표본이 충분할 때 해당 표본이 대표성이 될 것이라고 결론지을 수 있습니다. 그러면 균형을 맞출 필요가 없습니다.

그리고 포인트 3도 있습니다. 그러나 사용하기로 선택한 프로그램에서 트리의 구체적인 구현에 그러한 수정이 있는지 찾기가 어렵습니다.

내 생각에 저자는 MO에 대한 큰 수의 법칙을 제시합니다.

첫 번째 클래스에 대해 10개의 관찰이 있고 두 번째 클래스에 대해 6이 있는 경우 두 번째 클래스에 4를 추가하면 모델이 변경되지만(개선될 것이라는 사실은 아님) 여전히 대표성은 아닙니다.

 
드미트리 :

내 생각에 저자는 MO에 대한 큰 수의 법칙을 제시합니다.

첫 번째 클래스에 대해 10개의 관찰이 있고 두 번째 클래스에 대해 6이 있는 경우 두 번째 클래스에 4를 추가하면 모델이 변경되지만(개선될 것이라는 사실은 아님) 여전히 대표성은 아닙니다.

큰 숫자는 없습니다. 그는 작은 숫자에 대해 10:8:2 대 6:4로 설명했습니다. 하지만 우리는 많은 데이터를 가지고 있습니다.


VR을 대표하는 사례가 몇 개나 될까요? 나는 보통 10000 미만을 사용하지 않습니다. 최소한 1000

 
도서관 :
예, 그는 6:4에 대한 10 8:2의 예를 고려했습니다. 하지만 우리는 많은 데이터를 가지고 있습니다.


VR을 대표하는 사례가 몇 개나 될까요?

HZ. 나는 최대치를 취했지만 최소한 2년 동안 나무와 숲에 대한 일일 데이터를 작업했습니다.

A_K에게 물어보십시오. 그는 Chebyshev의 부등식을 통해 최적을 결정했지만(제가 올바르게 기억한다면) 이것은 연속 변수에만 해당됩니다.

각 변수에 대해 최소 100개의 변수를 기반으로 구축하십시오.

일반적으로 "영원한" 패턴을 찾으려면 많을수록 좋습니다. "규칙성"이 뜨면 최적의 창을 찾아야합니다.

 
도서관 :
큰 숫자는 없습니다. 그는 작은 숫자에 대해 10:8:2 대 6:4로 설명했습니다. 하지만 우리는 많은 데이터를 가지고 있습니다.


VR을 대표하는 사례가 몇 개나 될까요? 나는 보통 10000 미만을 사용하지 않습니다. 최소한 1000

수천 개의 첨가제를 추가하지만 모델도 변경될 수 있습니다.

아니면 맞을 수도 있습니다. 그들이 말했듯이 시장은 모델이 바뀌더라도 변화하고 있습니다.

 
도서관 :
수천 개의 첨가제를 추가하지만 모델도 변경될 수 있습니다.

나무를 사용합니까?

 
드미트리 :

나무를 사용합니까?

돈을 벌기 위해 BP를 분석합니다.
아직 사용은 해보지 않았지만 준비중입니다. 장단점을 이해하기 위해 이론을 읽는 동안. 국회는 그 결과가 마음에 들지 않아 숲을 차지하기로 했다. VR용으로는 더 좋을 것 같습니다.
 
도서관 :
돈을 벌기 위해 BP를 분석합니다.
아직 사용은 해보지 않았지만 준비중입니다. 장단점을 이해하기 위해 이론을 읽는 동안. 국회는 그 결과가 마음에 들지 않아 숲을 차지하기로 했다. VR용으로는 더 좋을 것 같습니다.

2년 전 나는 여기 막심카에게 국회는 핵폭탄 같은 장난감이라고 썼다. 다른 모델이 최소한 만족스러운 결과를 제공한다면 NN을 사용하지 않는 것이 좋습니다. 보이지 않는 것을 발견하고 이에 대해 아무 것도 할 수 없습니다.

나무도 좋지만 숲을 이용하는 것이 좋습니다.

사유: