안 돼요. 무작위이기 때문에 임의의 열을 학습용으로 사용합니다. 평균화하면 좋은 결과를 얻을 수 있습니다. 열 공유 = 1로 설정할 수 있습니다. 즉 . 모든 열이 트리 구성에 참여하며 전체의 50%가 무작위가 아닙니다. 모든 나무는 같으 므로 숲에도 1그루의 나무를 설정합니다. 전체적으로 우리는 하나의 나무가 있는 하나의 숲을 최대 6까지 훈련하고 다른 하나는 최대 7 깊이 수준으로 훈련합니다. 2개 이상의 나무가 필요한 경우 세트에서 일부 기둥을 독립적으로 버리고 나머지 모든 기둥에서 추가 숲을 훈련합니다.
부록: 교육에 참여하는 라인 수도 1로 설정해야 합니다. 훈련이 동일하도록 모든 것. 저것. 랜덤 포레스트에서 랜덤한 모든 것을 제거합니다.
무작위성이 없는 고정된 분할 규칙이 있다면 아마도 그럴 것입니다. 시도하고 싶지 않으세요? 비계를 만들 수 없습니다 :(
막심 드미트리예프스키 : 15 tf, 각 막대의 신호. 보상도 있지만 조건에 따라 변경될 수 있습니다. 처음에는 훈련을 받지 않은 상태에서 처음부터 즉시 거래를 시작합니다. 저것들. 재교육은 원칙적으로 할 수 없습니다. 각 트랜잭션 후에 다시 학습되고 이전 항목의 메모리를 유지합니다. 재귀 링크를 추가할 수 있습니다. 설명서에 다 나와있으니 참고만 하시면 됩니다. 곧 나는 나 자신을 선택하지 않을 것입니다, 나는 tensorflow에 아날로그를 쓰고 싶습니다
무작위성이 없는 고정된 분할 규칙이 있다면 아마도 그럴 것입니다. 시도하고 싶지 않으세요? 비계를 만들 수 없습니다 :(
나는 그것을 확인했다 - 그것은 적어도 Alglib 숲에서이다. 행과 열만 무작위화되며 계수가 1로 설정되면 모든 트리가 동일합니다. 하나의 나무는 복사본을 계산하는 데 시간을 낭비하지 않는 것으로 충분합니다. 다른 패키지에서는 다른 것이 무작위로 지정될 수 있습니다 ...
시도하고 싶지 않습니다. 나는 깊이가 6이나 7인 나무로 충분하지만 깊이가 6.5인 나무[당신의 생각 유추]는 그다지 흥미롭지 않습니다. 글쎄, 물론 게으름.
나는 그것을 확인했다 - 그것은 적어도 Alglib 숲에서이다. 행과 열만 무작위화되며 계수가 1로 설정되면 모든 트리가 동일합니다. 하나의 나무는 복사본을 계산하는 데 시간을 낭비하지 않는 것으로 충분합니다. 다른 패키지에서는 다른 것이 무작위로 지정될 수 있습니다 ...
시도하고 싶지 않습니다. 나는 깊이가 6이나 7인 나무로 충분하지만 깊이가 6.5인 나무[당신의 생각 유추]는 그다지 흥미롭지 않습니다. 글쎄, 물론 게으름.
이해했다. 나는 끝에서 두 번째 분할을 연구하기 위해 미니 모델을 만들 수 있는 부분 공간으로 생각합니다. 물론 분할은 현명해야 하며 아마도 하위 샘플이 아닌 전체 샘플의 통계에 따라 분할되어야 합니다. 이 프로세스를 시작하기 전에 3-5개의 분할이 있어야 하고 더 이상은 없어야 합니다. 아이디어는 다른 대안에 비해 특정 분할의 무작위 통계적 이점의 영향을 줄이는 것입니다.
시작하고 거래하고 길을 따라 배우십시오.
거래 논리에는 무엇이 있습니까? 1.5개월의 기간 동안 롤링 교육입니까? 얼마나 자주 훈련을 합니까? 무슨 TF에서?
나는 이 데이터에 대한 테스트를 제안합니다. 거기에는 확실히 패턴이 있고 무엇을 위해 노력해야 하는지 분명합니다 .
ps 이름에서 .txt 제거
네트워크: 56.58% 정확, 2.63 예상 값
숲: 55.89% 정확, 2.36 예상 값
산림 누적 증분: 55.89% 정확, 2.36 평균, 동일한 결과
범위 20 5자. 스프레드는 고려되지 않습니다. 평균적으로 결과는 동일하지만 그리드는 2분으로 간주되고 포리스트는 1초 미만입니다.
아직 지그재그를 시도하지 않았지만 흑마법 세션 없이는 할 수 없는 것 같습니다.
네트워크: 56.58% 정확, 2.63 예상 값
숲: 55.89% 정확, 2.36 예상 값
범위 20 5자리. 스프레드는 고려되지 않습니다. 평균적으로 결과는 동일하지만 그리드는 2분으로 간주되고 포리스트는 1초 미만입니다.
아직 지그재그를 시도하지 않았지만 흑마법 세션 없이는 할 수 없는 것 같습니다.
스프레드 없이 학습하는 데 왜 시간을 낭비하고 있습니까? 예쁜 차트만? 진짜에 빠져보세요.
안 돼요. 무작위이기 때문에 임의의 열을 학습용으로 사용합니다. 평균화하면 좋은 결과를 얻을 수 있습니다.
부록: 교육에 참여하는 라인 수도 1로 설정해야 합니다. 훈련이 동일하도록 모든 것. 저것. 랜덤 포레스트에서 랜덤한 모든 것을 제거합니다.열 공유 = 1로 설정할 수 있습니다. 즉 . 모든 열이 트리 구성에 참여하며 전체의 50%가 무작위가 아닙니다. 모든 나무는 같으 므로 숲에도 1그루의 나무를 설정합니다. 전체적으로 우리는 하나의 나무가 있는 하나의 숲을 최대 6까지 훈련하고 다른 하나는 최대 7 깊이 수준으로 훈련합니다.
2개 이상의 나무가 필요한 경우 세트에서 일부 기둥을 독립적으로 버리고 나머지 모든 기둥에서 추가 숲을 훈련합니다.
무작위성이 없는 고정된 분할 규칙이 있다면 아마도 그럴 것입니다. 시도하고 싶지 않으세요? 비계를 만들 수 없습니다 :(
15 tf, 각 막대의 신호. 보상도 있지만 조건에 따라 변경될 수 있습니다. 처음에는 훈련을 받지 않은 상태에서 처음부터 즉시 거래를 시작합니다. 저것들. 재교육은 원칙적으로 할 수 없습니다. 각 트랜잭션 후에 다시 학습되고 이전 항목의 메모리를 유지합니다. 재귀 링크를 추가할 수 있습니다. 설명서에 다 나와있으니 참고만 하시면 됩니다. 곧 나는 나 자신을 선택하지 않을 것입니다, 나는 tensorflow에 아날로그를 쓰고 싶습니다
이 메모리는 어떻게 구현됩니까? 당신은 간단하게 설명할 수 있습니까?
무작위성이 없는 고정된 분할 규칙이 있다면 아마도 그럴 것입니다. 시도하고 싶지 않으세요? 비계를 만들 수 없습니다 :(
나는 그것을 확인했다 - 그것은 적어도 Alglib 숲에서이다. 행과 열만 무작위화되며 계수가 1로 설정되면 모든 트리가 동일합니다. 하나의 나무는 복사본을 계산하는 데 시간을 낭비하지 않는 것으로 충분합니다. 다른 패키지에서는 다른 것이 무작위로 지정될 수 있습니다 ...
시도하고 싶지 않습니다. 나는 깊이가 6이나 7인 나무로 충분하지만 깊이가 6.5인 나무[당신의 생각 유추]는 그다지 흥미롭지 않습니다. 글쎄, 물론 게으름.
이 메모리는 어떻게 구현됩니까? 당신은 간단하게 설명할 수 있습니까?
난 아직 내 자신을 이해하지 못한다
나는 그것을 확인했다 - 그것은 적어도 Alglib 숲에서이다. 행과 열만 무작위화되며 계수가 1로 설정되면 모든 트리가 동일합니다. 하나의 나무는 복사본을 계산하는 데 시간을 낭비하지 않는 것으로 충분합니다. 다른 패키지에서는 다른 것이 무작위로 지정될 수 있습니다 ...
시도하고 싶지 않습니다. 나는 깊이가 6이나 7인 나무로 충분하지만 깊이가 6.5인 나무[당신의 생각 유추]는 그다지 흥미롭지 않습니다. 글쎄, 물론 게으름.
이해했다. 나는 끝에서 두 번째 분할을 연구하기 위해 미니 모델을 만들 수 있는 부분 공간으로 생각합니다. 물론 분할은 현명해야 하며 아마도 하위 샘플이 아닌 전체 샘플의 통계에 따라 분할되어야 합니다. 이 프로세스를 시작하기 전에 3-5개의 분할이 있어야 하고 더 이상은 없어야 합니다. 아이디어는 다른 대안에 비해 특정 분할의 무작위 통계적 이점의 영향을 줄이는 것입니다.
이 메모리는 어떻게 구현됩니까? 당신은 간단하게 설명할 수 있습니까?
python으로 전환하십시오. 예를 들어 드리겠습니다. 사용할 수 있습니다.
포럼에서 토론할 이유가 없습니다. tk. RL 테마는 엔트리 레벨과 거리가 멉니다.