트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1239

 
막심 드미트리예프스키 :

나는 수업이 적다. 오류 0.14\0.4

시험에서 14%에서 40%로?

 
성배 :

시험에서 14%에서 40%로?

글쎄, 훈련 14 테스트 40

 
마법사_ :

정확도와 분류 오류는 별개입니다. 정확도 발표. 및 % 샘플(테스트 트레인).

글쎄요, 원칙적으로는 명확합니다. 기차에서 과적합됩니다... 테스트에서 이 데이터 세트의 0.6 정확도(샘플의 20%)가 작동할 것입니다 ...

지금까지 분류 오류 .. 거기에서 다시 실행해야 함))

나는 alglib에서 20%, OOB에서 80% 교육을 받았으며 여기에서도 동일하게 수행했습니다.

python으로 해보니 이렇게 나오네요.

점수 ( X ,   ,   sample_weight=없음 ) [출처]

주어진 테스트 데이터 및 레이블의 평균 정확도를 반환합니다.


요컨대, 나는 nifiga를 이해하지 못했습니다. 오늘은 파이썬으로 이해했습니다. 내일은 데리러 갈 것입니다. 테스트와 훈련이 50%라면 다음과 같습니다.


 
마법사_ :

나는 이것에 대한 데이터 세트를 가지고 있습니다 (정확도) -
tren(샘플의 80%) = 0.619
테스트(20% 샘플) = 0.612 FOS(새 데이터에 대한 조정)

약간 찌르고, 이마에 적습니다. 그렇게하고 20 % 문지르지 마십시오))))

50%는 충분하지 않으며 300개의 관찰은 아무 의미가 없습니다.

무엇을 가르쳤습니까?
 
도서관 :
20%에서 가르치는 것은 새로운 것입니다))

보이쉬하게) 거기는 에러가 크게 달라지지 않은 것 같으니 그렇게 해서 강한 정규화가 더 짧다.

 
막심 드미트리예프스키 :

보이쉬하게) 거기는 에러가 크게 달라지지 않은 것 같으니 그렇게 해서 강한 정규화가 더 짧다.

글쎄, 어떻게 변하지 않았습니까? 14%와 40%는 큰 차이입니다.
그것은 마법사처럼 60에서 60입니다 - 예!

 
마법사_ :

나는 Doka와 Toxic과 같은 일을 했습니다. 파이썬과 p에서는 존재하지 않습니다... 말하지 않겠습니다...

글쎄, 적어도 포리스트 또는 네트워크?
 
도서관 :

글쎄, 왜 변하지 않았니? 14%와 40%는 큰 차이입니다.
그것은 마법사처럼 60에서 60입니다 - 예!

글쎄, 지금 우리는 파이썬에서 사용 가능한 모든 모델을 확인할 것입니다 .. 글쎄, 실행의 의미에서 .. 내일 만 .. 아니, 아니

일부 전처리가 필요할 수 있습니다.
 

당신은 Forex에서 돈을 벌 수 없다는 것을 이해하지 못했습니다)

이런 마조히즘에 빠지는 것보다 프로그래머가 되어 보수를 받는 직업을 갖는 것이 더 쉽습니다.

 

요컨대, alglib에서 분류 오류 및 logloss .. logloss에 따르면 아무 것도 명확하지 않습니다. 숲 근처 기차의 분류 오류는 훈련 샘플> 0.8 및 oob 0.2로 0으로 떨어집니다.

분류를 위한 모든 종류의 rmse는 그다지 좋지 않습니다. 맞다

따라서 훈련 샘플은 적어도 약간의 오류가 있도록 작게 만들어졌지만 여전히 작습니다. 파이썬과 비교하는 방법을 모르겠습니다.

사유: