클래스 예측 오류는 30% 미만입니다. 때로는 30%보다 훨씬 적은 경우도 있지만 20% 미만을 달성하는 것은 불가능했습니다. 그러나 모델이 과적합되지 않았다고 주장하는 심각한 이유가 있습니다. 가장 중요한 것은 재교육을 받지 않는 것입니다. 재교육된 모델은 전혀 필요하지 않습니다. 위험한 쓰레기입니다.
모델: 랜덤 포레스트 및 에이다. 일반적으로 모델의 선택은 학습된 경우 결과에 거의 영향을 미치지 않습니다. 내 예측자에서 nnet은 실제로 전혀 배우지 않습니다.
클래스 예측 오류는 30% 미만입니다. 때로는 30%보다 훨씬 적은 경우도 있지만 20% 미만을 달성하는 것은 불가능했습니다. 그러나 모델이 과적합되지 않았다고 주장하는 심각한 이유가 있습니다. 가장 중요한 것은 재교육을 받지 않는 것입니다. 재교육된 모델은 전혀 필요하지 않습니다. 위험한 쓰레기입니다.
모델: 랜덤 포레스트 및 에이다. 일반적으로 모델의 선택은 학습된 경우 결과에 거의 영향을 미치지 않습니다. 내 예측자에서 nnet은 실제로 전혀 학습하지 않습니다.
클래스 예측 오류는 30% 미만입니다. 때로는 30%보다 훨씬 적은 경우도 있지만 20% 미만을 달성하는 것은 불가능했습니다. 그러나 모델이 과적합되지 않았다고 주장하는 심각한 이유가 있습니다. 가장 중요한 것은 재교육을 받지 않는 것입니다. 재교육된 모델은 전혀 필요하지 않습니다. 위험한 쓰레기입니다.
모델: 랜덤 포레스트 및 에이다. 일반적으로 모델의 선택은 학습된 경우 결과에 거의 영향을 미치지 않습니다. 내 예측자에서 nnet은 실제로 전혀 배우지 않습니다.
산산이치 포멘코 : 로그로스란?
글쎄, 내가 이해하는 것처럼 당신은 https://numer.ai 에서 당신의 점수에 대해 이야기하고 있지만 logloss 가 아니라 heming (% error)이지만 logloss는 까다로운 일입니다. 클래스를 추측 할뿐만 아니라 개연성
나는 패키지를 사용하며 로고와 관련이 없는 추정치를 가지고 있습니다. 또한 패킷의 결과는 다른 방법으로 평가할 수 있습니다.... Logloss가 기억나지 않습니다.
그리고 내가 본 패키지의 클래스는 확률, 즉 실제로 확률이 계산된 다음 보정됩니다. 2개의 클래스에 대해 반으로 나누어져 있지만, 당신은 들어가서 조종할 수 있습니다.
나는 아무 말도 할 수 없습니다. 적어도 그러한 결과를 얻은 데이터 세트가 필요합니다. Loglos는 우리의 경우 이것이 올바른 선택이 아니라는 데 동의합니다. 이것은 kaggle에 대한 찬사입니다. 정확도에서 20-30%의 오류를 재교육한 것이 아닙니다. 솔직히 말해서 믿기 어렵습니다. 저에게는 매우 강력합니다.
logloss의 경우 트릭은 예를 들어 두 클래스의 경우 오류가 0%인 경우 답변의 확률이 100% 및 0%, {0,1,0,1....}에 가까울 것이라는 것입니다. , 오류가 10%일 때 이것은 올바르게 정의되지 않은 클래스의 확률뿐만 아니라 CORRECT, 즉 각각 1과 0이었던 정답에도 영향을 미칩니다. 오류가 45%이면 모든 것이 0.5 + - 0.1 주위에서 진동해야 연금술과 같은 로그 손실이 최적이 됩니다....
나는 우연히 lucky_teapot의 프로필을 보았고 포럼에 주제가 있었고 기사에 대한 링크가 포함되어 있습니다. 내가 거의 공부하지 않은 mql4.com 포럼에서 이 모든 것을 옮겨온 것 같습니다. MetaQuotes 덕분에 정말로 거기에서 옮겨온 것입니다. 거의 9년이 된 글인데 지금 시도해보는 것도 죄가 아닌 유용한 것들을 많이 봤습니다. Alexei가 이 스레드에서 이미 두 번 언급한 차원 지연 공간에 대해서도 이해했다고 생각합니다. 기사 자체는 매우 유용합니다 - https://www.mql5.com/ru/articles/1506
나는 그것을 읽었습니다 .., 나는 한 가지에 관심이있었습니다. 저자는 데이터를 약간 수정할 수 있으므로 샘플을 늘리면 모델의 지식 기반이 더 넓어지기 때문에 모델이 더 잘 작동한다고 말합니다 ...
스프레드로 작업하지만 전체에 비해 아직 턴이 적습니다. 견본 추출
나는 수백만 번째 샘플을 무작위로 추출하고 반전을 포착하도록 모델을 훈련시키면 이미 많은 예가 있을 것이라고 생각하지만 시장, 반전 패턴 자체가 거기에서 동일하다고 생각하는 것은 무작위라고 생각합니다 (나는 많은 패턴을 의미)
그리고 나서 또 다른 질문이나 아이디어가 떠오릅니다. 하지만 아직까지는 해결책이 없습니다...
해당 샘플에 수백만 개의 값이 많을수록 계산하기가 더 어려워집니다. 이 수백만 번째 샘플에서 모든 반전을 즉시 분리하고 훈련된 샘플로만 남겨두면 모델이 학습하는 것뿐입니다. 반전 자체는 빠르지만 새 데이터에서 반전과 반전이 없는 것을 구별해야 할 때 모델이 반전이 무엇인지 모를 경우 어떻게 이를 수행할 것입니까 ...??. 문제((
나는 alg tr을 본다. r은 이미 책을 쓰기 시작했습니다)))
allitebooks.com/automated-trading-with-r-2/
유독하지만 스포츠적인 관심을 위해 조금 따라잡았고 여기서 멈출 것입니다. 무료 자원은 거의 없지만 욕망은 전혀 없으며 없었습니다.
"지점 입장권"이라는 아이디어 만 지원했습니다. < 0.69, offhand, 이탈은 특별한 문제가 되지 않습니다. < 0.68 xs, 이미 거기에 대해 생각해야 함)))
https://numer.ai
어떤 모델, 어떻게 가르쳤습니까?
클래스 예측 오류는 30% 미만입니다. 때로는 30%보다 훨씬 적은 경우도 있지만 20% 미만을 달성하는 것은 불가능했습니다. 그러나 모델이 과적합되지 않았다고 주장하는 심각한 이유가 있습니다. 가장 중요한 것은 재교육을 받지 않는 것입니다. 재교육된 모델은 전혀 필요하지 않습니다. 위험한 쓰레기입니다.
모델: 랜덤 포레스트 및 에이다. 일반적으로 모델의 선택은 학습된 경우 결과에 거의 영향을 미치지 않습니다. 내 예측자에서 nnet은 실제로 전혀 배우지 않습니다.
클래스 예측 오류는 30% 미만입니다. 때로는 30%보다 훨씬 적은 경우도 있지만 20% 미만을 달성하는 것은 불가능했습니다. 그러나 모델이 과적합되지 않았다고 주장하는 심각한 이유가 있습니다. 가장 중요한 것은 재교육을 받지 않는 것입니다. 재교육된 모델은 전혀 필요하지 않습니다. 위험한 쓰레기입니다.
모델: 랜덤 포레스트 및 에이다. 일반적으로 모델의 선택은 학습된 경우 결과에 거의 영향을 미치지 않습니다. 내 예측자에서 nnet은 실제로 전혀 학습하지 않습니다.
거기에 당신의 로그 손실은 무엇입니까?
클래스 예측 오류는 30% 미만입니다. 때로는 30%보다 훨씬 적은 경우도 있지만 20% 미만을 달성하는 것은 불가능했습니다. 그러나 모델이 과적합되지 않았다고 주장하는 심각한 이유가 있습니다. 가장 중요한 것은 재교육을 받지 않는 것입니다. 재교육된 모델은 전혀 필요하지 않습니다. 위험한 쓰레기입니다.
모델: 랜덤 포레스트 및 에이다. 일반적으로 모델의 선택은 학습된 경우 결과에 거의 영향을 미치지 않습니다. 내 예측자에서 nnet은 실제로 전혀 배우지 않습니다.
로그로스란?
글쎄, 내가 이해하는 것처럼 당신은 https://numer.ai 에서 당신의 점수에 대해 이야기하고 있지만 logloss 가 아니라 heming (% error)이지만 logloss는 까다로운 일입니다. 클래스를 추측 할뿐만 아니라 개연성
글쎄, 내가 이해하는 것처럼 당신은 https://numer.ai 에서 당신의 점수에 대해 이야기하고 있지만 logloss 가 아니라 heming (% error)이지만 logloss는 까다로운 일입니다. 클래스를 추측 할뿐만 아니라 개연성
나는 나의 고문에 대해 씁니다. 모델이 있습니다.
나는 패키지를 사용하며 로고와 관련이 없는 추정치를 가지고 있습니다. 또한 패킷의 결과는 다른 방법으로 평가할 수 있습니다.... Logloss가 기억나지 않습니다.
그리고 내가 본 패키지의 클래스는 확률, 즉 실제로 확률이 계산된 다음 보정됩니다. 2개의 클래스에 대해 반으로 나누어져 있지만, 당신은 들어가서 조종할 수 있습니다.
나는 나의 고문에 대해 씁니다. 모델이 있습니다.
나는 패키지를 사용하며 로고와 관련이 없는 추정치를 가지고 있습니다. 또한 패킷의 결과는 다른 방법으로 평가할 수 있습니다.... Logloss가 기억나지 않습니다.
그리고 내가 본 패키지의 클래스는 확률, 즉 실제로 확률이 계산된 다음 보정됩니다. 2개의 클래스에 대해 반으로 나누어져 있지만, 당신은 들어가서 조종할 수 있습니다.
나는 아무 말도 할 수 없습니다. 적어도 그러한 결과를 얻은 데이터 세트가 필요합니다. Loglos는 우리의 경우 이것이 올바른 선택이 아니라는 데 동의합니다. 이것은 kaggle에 대한 찬사입니다. 정확도에서 20-30%의 오류를 재교육한 것이 아닙니다. 솔직히 말해서 믿기 어렵습니다. 저에게는 매우 강력합니다.
logloss의 경우 트릭은 예를 들어 두 클래스의 경우 오류가 0%인 경우 답변의 확률이 100% 및 0%, {0,1,0,1....}에 가까울 것이라는 것입니다. , 오류가 10%일 때 이것은 올바르게 정의되지 않은 클래스의 확률뿐만 아니라 CORRECT, 즉 각각 1과 0이었던 정답에도 영향을 미칩니다. 오류가 45%이면 모든 것이 0.5 + - 0.1 주위에서 진동해야 연금술과 같은 로그 손실이 최적이 됩니다....
나는 우연히 lucky_teapot의 프로필을 보았고 포럼에 주제가 있었고 기사에 대한 링크가 포함되어 있습니다. 내가 거의 공부하지 않은 mql4.com 포럼에서 이 모든 것을 옮겨온 것 같습니다. MetaQuotes 덕분에 정말로 거기에서 옮겨온 것입니다.
거의 9년이 된 글인데 지금 시도해보는 것도 죄가 아닌 유용한 것들을 많이 봤습니다. Alexei가 이 스레드에서 이미 두 번 언급한 차원 지연 공간에 대해서도 이해했다고 생각합니다.
기사 자체는 매우 유용합니다 - https://www.mql5.com/ru/articles/1506
나는 그것을 읽었습니다 .., 나는 한 가지에 관심이있었습니다. 저자는 데이터를 약간 수정할 수 있으므로 샘플을 늘리면 모델의 지식 기반이 더 넓어지기 때문에 모델이 더 잘 작동한다고 말합니다 ...
스프레드로 작업하지만 전체에 비해 아직 턴이 적습니다. 견본 추출
나는 수백만 번째 샘플을 무작위로 추출하고 반전을 포착하도록 모델을 훈련시키면 이미 많은 예가 있을 것이라고 생각하지만 시장, 반전 패턴 자체가 거기에서 동일하다고 생각하는 것은 무작위라고 생각합니다 (나는 많은 패턴을 의미)
그리고 나서 또 다른 질문이나 아이디어가 떠오릅니다. 하지만 아직까지는 해결책이 없습니다...
해당 샘플에 수백만 개의 값이 많을수록 계산하기가 더 어려워집니다. 이 수백만 번째 샘플에서 모든 반전을 즉시 분리하고 훈련된 샘플로만 남겨두면 모델이 학습하는 것뿐입니다. 반전 자체는 빠르지만 새 데이터에서 반전과 반전이 없는 것을 구별해야 할 때 모델이 반전이 무엇인지 모를 경우 어떻게 이를 수행할 것입니까 ...??. 문제((
나는 그것을 읽었습니다 .., 나는 한 가지에 관심이있었습니다. 저자는 데이터를 약간 수정할 수 있으므로 샘플을 늘리면 모델의 지식 기반이 더 넓어지기 때문에 모델이 더 잘 작동한다고 말합니다 ...
스프레드로 작업하지만 전체에 비해 아직 턴이 적습니다. 견본 추출
반전이란? ZZ와 같은 하나의 바?
나는 특정 순서의 막대가 반전으로 간주되고 그 후에 미래에 미리 결정된 이익이있을 때 아이디어 (여기에서 포착)를 정말 좋아합니다. 이 접근 방식은 클래스 불균형을 크게 줄입니다. 이 시간. 둘째, 교사 자신이 명확한 예측 속성을 가질 것입니다.