와우, 이 얼마나 작은 나무인가! 나는 놀랐다! 트리에서 추세 반전, 즉 맨 밑에 사세요. 귀하의 시스템에 따르면 나머지 예측 변수는 정보가 없었습니까?
타원의 숫자는 무엇입니까?
트리 매개변수 및 예측자를 선택하는 과정에서 일부 예측자가 제거되었습니다. 일부 예측 변수는 트리 자체에서 거부되었습니다. 일반적으로 정보성에 대해 구체적으로 말할 수는 없지만, 이 경우에는 이러한 정보가 가장 잘 떠올랐습니다.
타원은 나무에 의한 예측입니다. 내 트리는 "노바" 모드, 즉 0 또는 1의 특정 예측이 아니라 확률이 제공됩니다. 0.5보다 크면 클래스 1일 가능성이 가장 높습니다. 0.5보다 작으면 클래스 0일 가능성이 높습니다. 따라서 0 또는 1에 가까울수록 트리가 예측에 더 확신이 있습니다.
트리 매개변수 및 예측자를 선택하는 과정에서 일부 예측자가 제거되었습니다. 일부 예측 변수는 트리 자체에서 거부되었습니다. 일반적으로 정보성에 대해 구체적으로 말할 수는 없지만, 이 경우에는 이러한 정보가 가장 잘 떠올랐습니다.
타원은 나무에 의한 예측입니다. 내 트리는 "노바" 모드, 즉 0 또는 1의 특정 예측이 아니라 확률이 제공됩니다. 0.5보다 크면 클래스 1일 가능성이 가장 높습니다. 0.5보다 작으면 클래스 0일 가능성이 가장 높습니다. 따라서 0 또는 1에 가까울수록 트리가 예측에 더 확신이 있습니다.
프로그래밍 방식으로 트리는 다음과 같이 설명할 수 있습니다.
어제 나는 다른 변형으로 rr_iDelta에 대한 정보를 다시 수정하고 두 가지 추가 유형의 예측자를 추가했으며 H4,MN1,W1에 대한 계산을 더 완벽하게 만들었습니다. 이러한 예측 변수가 중요한 예측 변수라고 생각하므로 예를 들어 이전 아날로그가 제거되고 새 항목이 추가되었습니다.
그건 그렇고, 예측자의 주요 부분은 스크립트에서 계산되고 새로운 것들은 고문을 통해 계산되었습니다. 결과는 수렴되어 엿보는 사람이 없음을 의미합니다.
많은 매개 변수로 플레이했기 때문에 아직 확실하게 말할 수는 없습니다. 개선 사항은 약 0.1입니다. 제가 모르는 방법이 있을수도 있어서 여쭤봅니다.
물론, 할 수 있습니다. 부분적으로 수행해야 합니다(서버에 버그가 있음), 필터 세트 - 구매/판매할 수 없는 위치 결정, MaloVhodov 세트 - 상당한 수익을 위한 추세 항목, MnogoVhodov 세트 - 모두 수익성이 없는 항목을 제외한 항목.
malovhodov를 시작하려고했습니다.
Forest가 2015년부터 arr_Vektor_Week, arr_Vektor_Day 등을 기반으로 arr_Buy를 예측하도록 가르치려고 했습니다.
클래스는 매우 불균형합니다(클래스 1보다 클래스 0에 대한 예제가 10배 더 많음). 이는 많은 어려움을 추가합니다.
2015년 나무가 훈련된 곳입니다.
두 경우 모두 예측 정확도는 낮지만 정확도는 두 경우 모두 최소 50% 이상입니다.
나무는 다음과 같습니다.
왼쪽에는 항상 TRUE가 있고 오른쪽에는 FALSE가 있습니다. 타원에서는 예측값을 반올림해야 합니다(>=0.5 -> 1; <0.5 -> 0). mnogovhodov를 시도하겠습니다. 더 좋을 것입니다. 클래스 0과 1의 수가 더 같을 것입니다.
malovhodov를 시작하려고했습니다.
Forest가 2015년부터 arr_Vektor_Week, arr_Vektor_Day 등을 기반으로 arr_Buy를 예측하도록 가르치려고 했습니다.
클래스는 매우 불균형합니다(클래스 1보다 클래스 0에 대한 예제가 10배 더 많음). 이는 많은 어려움을 추가합니다.
2015년 나무가 훈련된 곳입니다.
두 경우 모두 예측 정확도는 낮지만 정확도는 두 경우 모두 최소 50% 이상입니다.
나무는 다음과 같습니다.
왼쪽에는 항상 TRUE가 있고 오른쪽에는 FALSE가 있습니다. 타원에서는 예측값을 반올림해야 합니다(>=0.5 -> 1; <0.5 -> 0). mnogovhodov를 시도하겠습니다. 더 좋을 것입니다. 클래스 0과 1의 수가 더 같을 것입니다.
와우, 이 얼마나 작은 나무인가! 나는 놀랐다! 트리에서 추세 반전, 즉 맨 밑에 사세요. 귀하의 시스템에 따르면 나머지 예측 변수는 정보가 없었습니까?
타원의 숫자는 무엇입니까?그는 자신의 숲을 참과 거짓으로 몰아갔습니다.
시험에서 원하는 반 이상이 다른 반에 갔지만 훈련에서는 잘 나눴다)
와우, 이 얼마나 작은 나무인가! 나는 놀랐다! 트리에서 추세 반전, 즉 맨 밑에 사세요. 귀하의 시스템에 따르면 나머지 예측 변수는 정보가 없었습니까?
타원의 숫자는 무엇입니까?트리 매개변수 및 예측자를 선택하는 과정에서 일부 예측자가 제거되었습니다. 일부 예측 변수는 트리 자체에서 거부되었습니다. 일반적으로 정보성에 대해 구체적으로 말할 수는 없지만, 이 경우에는 이러한 정보가 가장 잘 떠올랐습니다.
타원은 나무에 의한 예측입니다. 내 트리는 "노바" 모드, 즉 0 또는 1의 특정 예측이 아니라 확률이 제공됩니다. 0.5보다 크면 클래스 1일 가능성이 가장 높습니다. 0.5보다 작으면 클래스 0일 가능성이 높습니다. 따라서 0 또는 1에 가까울수록 트리가 예측에 더 확신이 있습니다.
프로그래밍 방식으로 트리는 다음과 같이 설명할 수 있습니다.
박사 상인 - 트리에 예측자 목록을 작성하세요. 그렇지 않으면 화면에서 이름이 잘립니다.
정확히는 눈치채지 못했다. 딸랑이에서는 어쩐지 목록과 규칙을 쉽게 볼 수 있었습니다. 지금은 딸랑이가 없습니다. 다른 방법을 찾아보겠습니다.
트리 매개변수 및 예측자를 선택하는 과정에서 일부 예측자가 제거되었습니다. 일부 예측 변수는 트리 자체에서 거부되었습니다. 일반적으로 정보성에 대해 구체적으로 말할 수는 없지만, 이 경우에는 이러한 정보가 가장 잘 떠올랐습니다.
타원은 나무에 의한 예측입니다. 내 트리는 "노바" 모드, 즉 0 또는 1의 특정 예측이 아니라 확률이 제공됩니다. 0.5보다 크면 클래스 1일 가능성이 가장 높습니다. 0.5보다 작으면 클래스 0일 가능성이 가장 높습니다. 따라서 0 또는 1에 가까울수록 트리가 예측에 더 확신이 있습니다.
프로그래밍 방식으로 트리는 다음과 같이 설명할 수 있습니다.
어제 나는 다른 변형으로 rr_iDelta에 대한 정보를 다시 수정하고 두 가지 추가 유형의 예측자를 추가했으며 H4,MN1,W1에 대한 계산을 더 완벽하게 만들었습니다. 이러한 예측 변수가 중요한 예측 변수라고 생각하므로 예를 들어 이전 아날로그가 제거되고 새 항목이 추가되었습니다.
그건 그렇고, 예측자의 주요 부분은 스크립트에서 계산되고 새로운 것들은 고문을 통해 계산되었습니다. 결과는 수렴되어 엿보는 사람이 없음을 의미합니다.
코드 해석 감사합니다! 관심이 있으시면 접착 선물 Si에 대한 데이터입니다.
파일을 다시 첨부하겠습니다. 실험해 볼 것을 제안합니다.