트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1239 1...123212331234123512361237123812391240124112421243124412451246...3399 새 코멘트 Грааль 2018.12.26 19:58 #12381 막심 드미트리예프스키 : 나는 수업이 적다. 오류 0.14\0.4 시험에서 14%에서 40%로? Maxim Dmitrievsky 2018.12.26 20:13 #12382 성배 : 시험에서 14%에서 40%로? 글쎄, 훈련 14 테스트 40 Maxim Dmitrievsky 2018.12.26 20:15 #12383 마법사_ : 정확도와 분류 오류는 별개입니다. 정확도 발표. 및 % 샘플(테스트 트레인). 글쎄요, 원칙적으로는 명확합니다. 기차에서 과적합됩니다... 테스트에서 이 데이터 세트의 0.6 정확도(샘플의 20%)가 작동할 것입니다 ... 지금까지 분류 오류 .. 거기에서 다시 실행해야 함)) 나는 alglib에서 20%, OOB에서 80% 교육을 받았으며 여기에서도 동일하게 수행했습니다. python으로 해보니 이렇게 나오네요. 점수 ( X , 야 , sample_weight=없음 ) [출처] 주어진 테스트 데이터 및 레이블의 평균 정확도를 반환합니다. 요컨대, 나는 nifiga를 이해하지 못했습니다. 오늘은 파이썬으로 이해했습니다. 내일은 데리러 갈 것입니다. 테스트와 훈련이 50%라면 다음과 같습니다. Forester 2018.12.26 20:30 #12384 마법사_ : 나는 이것에 대한 데이터 세트를 가지고 있습니다 (정확도) - tren(샘플의 80%) = 0.619 테스트(20% 샘플) = 0.612 FOS(새 데이터에 대한 조정) 약간 찌르고, 이마에 적습니다. 그렇게하고 20 % 문지르지 마십시오)))) 50%는 충분하지 않으며 300개의 관찰은 아무 의미가 없습니다. 무엇을 가르쳤습니까? Maxim Dmitrievsky 2018.12.26 20:32 #12385 도서관 : 20%에서 가르치는 것은 새로운 것입니다)) 보이쉬하게) 거기는 에러가 크게 달라지지 않은 것 같으니 그렇게 해서 강한 정규화가 더 짧다. Forester 2018.12.26 20:34 #12386 막심 드미트리예프스키 : 보이쉬하게) 거기는 에러가 크게 달라지지 않은 것 같으니 그렇게 해서 강한 정규화가 더 짧다. 글쎄, 어떻게 변하지 않았습니까? 14%와 40%는 큰 차이입니다. 그것은 마법사처럼 60에서 60입니다 - 예! Forester 2018.12.26 20:37 #12387 마법사_ : 나는 Doka와 Toxic과 같은 일을 했습니다. 파이썬과 p에서는 존재하지 않습니다... 말하지 않겠습니다... 글쎄, 적어도 포리스트 또는 네트워크? Maxim Dmitrievsky 2018.12.26 20:40 #12388 도서관 : 글쎄, 왜 변하지 않았니? 14%와 40%는 큰 차이입니다. 그것은 마법사처럼 60에서 60입니다 - 예! 글쎄, 지금 우리는 파이썬에서 사용 가능한 모든 모델을 확인할 것입니다 .. 글쎄, 실행의 의미에서 .. 내일 만 .. 아니, 아니 일부 전처리가 필요할 수 있습니다. forexman77 2018.12.26 21:14 #12389 당신은 Forex에서 돈을 벌 수 없다는 것을 이해하지 못했습니다) 이런 마조히즘에 빠지는 것보다 프로그래머가 되어 보수를 받는 직업을 갖는 것이 더 쉽습니다. Maxim Dmitrievsky 2018.12.26 21:17 #12390 요컨대, alglib에서 분류 오류 및 logloss .. logloss에 따르면 아무 것도 명확하지 않습니다. 숲 근처 기차의 분류 오류는 훈련 샘플> 0.8 및 oob 0.2로 0으로 떨어집니다. 분류를 위한 모든 종류의 rmse는 그다지 좋지 않습니다. 맞다 따라서 훈련 샘플은 적어도 약간의 오류가 있도록 작게 만들어졌지만 여전히 작습니다. 파이썬과 비교하는 방법을 모르겠습니다. 1...123212331234123512361237123812391240124112421243124412451246...3399 새 코멘트 사유: 취소 트레이딩 기회를 놓치고 있어요: 무료 트레이딩 앱 복사용 8,000 이상의 시그널 금융 시장 개척을 위한 경제 뉴스 등록 로그인 공백없는 라틴 문자 비밀번호가 이 이메일로 전송될 것입니다 오류 발생됨 Google으로 로그인 웹사이트 정책 및 이용약관에 동의합니다. 계정이 없으시면, 가입하십시오 MQL5.com 웹사이트에 로그인을 하기 위해 쿠키를 허용하십시오. 브라우저에서 필요한 설정을 활성화하시지 않으면, 로그인할 수 없습니다. 사용자명/비밀번호를 잊으셨습니까? Google으로 로그인
나는 수업이 적다. 오류 0.14\0.4
시험에서 14%에서 40%로?
시험에서 14%에서 40%로?
글쎄, 훈련 14 테스트 40
정확도와 분류 오류는 별개입니다. 정확도 발표. 및 % 샘플(테스트 트레인).
글쎄요, 원칙적으로는 명확합니다. 기차에서 과적합됩니다... 테스트에서 이 데이터 세트의 0.6 정확도(샘플의 20%)가 작동할 것입니다 ...
지금까지 분류 오류 .. 거기에서 다시 실행해야 함))
나는 alglib에서 20%, OOB에서 80% 교육을 받았으며 여기에서도 동일하게 수행했습니다.
python으로 해보니 이렇게 나오네요.
점수 ( X , 야 , sample_weight=없음 ) [출처]주어진 테스트 데이터 및 레이블의 평균 정확도를 반환합니다.
요컨대, 나는 nifiga를 이해하지 못했습니다. 오늘은 파이썬으로 이해했습니다. 내일은 데리러 갈 것입니다. 테스트와 훈련이 50%라면 다음과 같습니다.
나는 이것에 대한 데이터 세트를 가지고 있습니다 (정확도) -
tren(샘플의 80%) = 0.619
테스트(20% 샘플) = 0.612 FOS(새 데이터에 대한 조정)
약간 찌르고, 이마에 적습니다. 그렇게하고 20 % 문지르지 마십시오))))
50%는 충분하지 않으며 300개의 관찰은 아무 의미가 없습니다.
20%에서 가르치는 것은 새로운 것입니다))
보이쉬하게) 거기는 에러가 크게 달라지지 않은 것 같으니 그렇게 해서 강한 정규화가 더 짧다.
보이쉬하게) 거기는 에러가 크게 달라지지 않은 것 같으니 그렇게 해서 강한 정규화가 더 짧다.
글쎄, 어떻게 변하지 않았습니까? 14%와 40%는 큰 차이입니다.
그것은 마법사처럼 60에서 60입니다 - 예!
나는 Doka와 Toxic과 같은 일을 했습니다. 파이썬과 p에서는 존재하지 않습니다... 말하지 않겠습니다...
글쎄, 왜 변하지 않았니? 14%와 40%는 큰 차이입니다.
그것은 마법사처럼 60에서 60입니다 - 예!
글쎄, 지금 우리는 파이썬에서 사용 가능한 모든 모델을 확인할 것입니다 .. 글쎄, 실행의 의미에서 .. 내일 만 .. 아니, 아니
일부 전처리가 필요할 수 있습니다.당신은 Forex에서 돈을 벌 수 없다는 것을 이해하지 못했습니다)
이런 마조히즘에 빠지는 것보다 프로그래머가 되어 보수를 받는 직업을 갖는 것이 더 쉽습니다.
요컨대, alglib에서 분류 오류 및 logloss .. logloss에 따르면 아무 것도 명확하지 않습니다. 숲 근처 기차의 분류 오류는 훈련 샘플> 0.8 및 oob 0.2로 0으로 떨어집니다.
분류를 위한 모든 종류의 rmse는 그다지 좋지 않습니다. 맞다
따라서 훈련 샘플은 적어도 약간의 오류가 있도록 작게 만들어졌지만 여전히 작습니다. 파이썬과 비교하는 방법을 모르겠습니다.