트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1193

 
막심 드미트리예프스키 :

mql5도 ...하지만 여기에 좋은 테스터와 기반이 있습니다 :)

이것이 캐치다, 나는 나 자신을 돌고있어, 나는 시간이있을 때 모든 것을 읽는 것이 지겹다

여기에서 목표를 결정해야 합니다 - 큰 소리로 생각하기))) 목표가 시장의 제품이면 아아, 모든 것이 MQL에 있습니다. 목표가 개인 사용 또는 이 포럼 외부의 배포인 경우 작업 .dll을 얻고 MT와 연결할 가능성이 있습니다.

 
이고르 마카누 :

이것이 캐치다, 나는 나 자신을 돌고있어, 나는 시간이있을 때 모든 것을 읽는 것이 지겹다

여기에서 목표를 결정해야 합니다 - 큰 소리로 생각하기))) 목표가 시장의 제품이면 아아, 모든 것이 MQL에 있습니다. 목표가 개인 사용 또는 이 포럼 외부의 배포인 경우 작업 .dll을 얻고 MT와 연결할 가능성이 있습니다.

목표는 MO의 멋진 봇이고 나머지는 모두 쓰레기입니다. 시장을 위해 글을 쓴다면 거래 실적보다 판촉이 더 중요하고 어리석은 구매자는 뇌 전체를 견뎌낼 것입니다(경험 있음). 코드 기반에서 거의 모든 지표 또는 고문을 가져와 시장에서 판매할 수 있습니다. 또는 매일 새로운 Gribachev와 같은 200개의 스택을 게시할 수 있지만 이것은 사무라이의 방식이 아닙니다.

당신은 그들이 고객과 의사 소통을 할 수 있도록 당신의 아내 또는 고용 된 노예를 컴퓨터에 넣어야합니다. 그러면 당신 자신은 이것에 시간을 보내지 않을 것입니다 :)
 
막심 드미트리예프스키 :

목표는 MO의 멋진 봇이고 나머지는 모두 쓰레기입니다. 시장을 위해 글을 쓴다면 거래 실적보다 판촉이 더 중요하고 어리석은 구매자는 뇌 전체를 견뎌낼 것입니다(경험 있음). 코드 기반에서 거의 모든 지표 또는 고문을 가져와 시장에서 판매할 수 있습니다. 또는 매일 새로운 Gribachev와 같은 200개의 스택을 게시할 수 있지만 이것은 사무라이의 방식이 아닙니다.

당신은 그들이 고객과 의사 소통을 할 수 있도록 당신의 아내 또는 고용 된 노예를 컴퓨터에 넣어야합니다. 그러면 당신 자신은 이것에 시간을 보내지 않을 것입니다 :)

나는 이미 이것을 예상했으므로 시장에서 가치 있는 것을 "퍼프"하고 퍼뜨릴 필요가 있다고 생각하지 않습니다. 나는 제품에 대한 지원을 제공할 수 없을 것입니다, tk. 그것은 많은 시간이 걸리고 거기에 쓰레기를 저장합니다. 양심이 허용하지 않는 한 $ 30를주고 싶어하는 사람들이 있기를 바랍니다.)))

추신: 가장 단순한 지표에 대한 주문 그리드... 그것은 영원히, 영원히 작동합니다(때로는 +에서 -로) 및 항상 사용자가 요구함))))))

 
이고르 마카누 :

나는 이미 이것을 예상했으므로 시장에서 가치 있는 것을 "퍼프"하고 퍼뜨릴 필요가 있다고 생각하지 않습니다. 나는 제품에 대한 지원을 제공할 수 없을 것입니다, tk. 그것은 많은 시간이 걸리고 거기에 쓰레기를 저장합니다. 양심이 허용하지 않는 한 $ 30를주고 싶어하는 사람들이 있기를 바랍니다.)))

추신: 가장 단순한 지표에 대한 주문 그리드... 그것은 영원히, 영원히 작동합니다(때로는 +에서 -로) 및 항상 사용자가 요구함))))))

martins, nets yes .. 모든 종류의 zhakhalchiki, 이것은 영원합니다 :)

 

그런 다음 MO를 통해 재교육을 결정하는 아이디어가 떠올랐습니다. 나는 여전히 catboost를 선택하고 있습니다. 거기에서 확률적 용어로 예측을 얻을 수 있습니다. 0에서 9까지의 확률로 그룹으로 흩어져 있습니다. 쉽게 인식하고 추가 분석을 할 수 있습니다. 분포, 표준 편차 , 첨도, 비대칭 등을 분석했습니다. 목표 및 오류 분포로 각 그룹의 정답. 이제 AUC F1 및 기타와 같은 모델 평가를 위한 다양한 표준 지표를 꺼내겠습니다. 거기에서 학습의 역학을 볼 수 있을 것입니다. 하지만 아직 그것을 가장 잘 설명하는 방법을 모르겠습니다.

차트에는 분포 그룹 * 올바른 분류 그룹의 두 가지 모델이 있습니다. 파란색 모델이 시험 샘플에서 더 좋습니다.


모델을 평가하기 위해 어떤 다른 예측 변수를 생각해 낼 수 있습니까?

 
알렉세이 비아즈미킨 :

그런 다음 MO를 통해 재교육 을 결정하는 아이디어가 떠올랐습니다 . 나는 여전히 catboost를 선택하고 있습니다. 거기에서 확률적 용어로 예측을 얻을 수 있습니다. 0에서 9까지의 확률로 그룹으로 흩어져 있습니다. 쉽게 인식하고 추가 분석을 할 수 있습니다. 분포, 표준 편차 , 첨도, 비대칭 등을 분석했습니다. 목표 및 오류 분포로 각 그룹의 정답. 이제 AUC F1 및 기타와 같은 모델 평가를 위한 다양한 표준 지표를 꺼내겠습니다. 거기에서 학습의 역학을 볼 수 있을 것입니다. 하지만 아직 그것을 가장 잘 설명하는 방법을 모르겠습니다.

차트에는 분포 그룹 * 올바른 분류 그룹의 두 가지 모델이 있습니다. 파란색 모델이 시험 샘플에서 더 좋습니다.


모델을 평가하기 위해 어떤 다른 예측 변수를 생각해 낼 수 있습니까?

멋지다, 그것이 그들이 모두 하는 일이다

메트릭은 예측 변수가 아니라 모델을 평가하는 데 사용됩니다. 일반적으로 표준 모델이면 충분하지만 사용자가 직접 만들 수 있습니다.

일반적으로 포리스트의 오류가 클수록 값의 확산(산포)이 작아집니다. 0.5 주변의 백색 잡음, 이런 의미에서 파란색 선은 빨간색 선보다 나쁩니다.
 
막심 드미트리예프스키 :

멋지다, 그것이 그들이 모두 하는 일이다

메트릭은 예측 변수가 아니라 모델을 평가하는 데 사용됩니다. 일반적으로 표준 모델이면 충분하지만 사용자가 직접 만들 수 있습니다.

일반적으로 포리스트의 오류가 클수록 값의 확산(산포)이 작아집니다. 0.5 주변의 백색 잡음, 이런 의미에서 파란색 선은 빨간색 선보다 나쁩니다.

하, 그래서 포인트는 다른 계산 공식을 사용하는 평가가 아니라 평가 기준을 찾는 것입니다! 공식을 사용하는 이러한 모든 접근 방식은 고정된 모델을 평가하지만 추가 작업을 계속할 수 있는 능력에 대해서는 말하지 않습니다. 이것이 바로 제가 달성하고자 하는 것이므로 다음 조합에서 패턴을 찾을 수 있도록 예측자를 생성합니다. ML을 사용하는 다양한 지표.

산란 정보 - 당신이 만든 매우 이상한 진술, 아마도 분류 값과 정답 비율을 고려하지 않고 값이 발견되었다는 사실만을 고려할 것입니다. x 축을 따라 0에서 5까지의 그래프에서 0 클러스터와 올바른 분류의 곱, 반대로 5에서 1.

다음은 차트의 패턴이지만 대상 "1"의 분포가 표시됩니다.

보시다시피 빨간색 모델에서는 분포의 백분율이 5만큼 이동하므로 "단위"는 올바른 분류의 기회가 없고 기회가 있는 것은 파란색 모델의 것보다 적습니다 - 23 각각 % 및 28%입니다.

그리고 분류의 충실도가 어떻게 변경되는지는 다음과 같습니다.

물론 이러한 평면화된 모델을 사용할 수도 있지만 분류 구분을 0.5에서 0.7로 이동해야 합니다. 예를 들어 처리할 재료가 거의 남아 있지 않을 뿐이지만 다른 한편으로는 이러한 고정된 모델을 결합할 수 있습니다. ..

 
알렉세이 비아즈미킨 :

하, 그래서 포인트는 다른 계산 공식을 사용하는 평가가 아니라 평가 기준을 찾는 것입니다! 공식을 사용하는 이러한 모든 접근 방식은 고정된 모델을 평가하지만 추가 작업을 계속할 수 있는 능력에 대해서는 말하지 않습니다. 이것이 바로 제가 달성하고자 하는 것이므로 다음 조합에서 패턴을 찾을 수 있도록 예측자를 생성합니다. ML을 사용하는 다양한 지표.

산란 정보 - 당신이 만든 매우 이상한 진술, 아마도 분류 값과 정답 비율을 고려하지 않고 값이 발견되었다는 사실만을 고려할 것입니다. x 축을 따라 0에서 5까지의 그래프에서 0 클러스터와 올바른 분류의 곱, 반대로 5에서 1.

다음은 차트의 패턴이지만 대상 "1"의 분포가 표시됩니다.

보시다시피 빨간색 모델에서는 분포의 백분율이 5만큼 이동하므로 "단위"는 올바른 분류의 기회가 없고 기회가 있는 것은 파란색 모델의 것보다 적습니다 - 23 각각 % 및 28%입니다.

분류의 충실도가 어떻게 변경되는지는 다음과 같습니다.

물론 이러한 평면화된 모델을 사용할 수도 있지만 분류 구분을 0.5에서 0.7로 이동해야 합니다. 예를 들어 처리할 재료가 거의 남아 있지 않을 뿐이지만 다른 한편으로는 이러한 고정된 모델을 결합할 수 있습니다. ..

편향되어 있다는 사실은 단순히 특정 클래스에 유리하게 작용한다는 사실을 말하며, 트렌드 시장에 있을 수 있습니다. 훈련 샘플(대략).

그리고 파란색을 취하면 확률이 급격히 감소합니다. 이상적으로 신호 확률이 1이어야 하는 경우 최대 0.6-0.7, 즉 두 클래스는 둘 중 하나 또는 다른 클래스로 약간의 편차가 있는 0.5를 중심으로 회전합니다. 실제로 노이즈가 있고 신호가 없거나 모델이 고도로 정규화되어 있습니다.

오류로 테스트 세트 작업을 계속할 수 있는 기능 .. 기차의 오류에 더 가까이 갈 수 있다면 일반적으로 모델이 좋은 것입니다.

 
막심 드미트리예프스키 :

편향되어 있다는 사실은 단순히 특정 클래스에 유리하게 작용한다는 사실을 말하며, 트렌드 시장에 있을 수 있습니다. 훈련 샘플(대략).

우리는 동일한 조건에서 모델을 비교합니다. 여기에 다른 데이터에 대한 동일한 모델이 있습니다. 대상 단위는 분류 1 - 35% 대 39%에 속했습니다.

분류 충실도

모든 값의 누적이 중심에 더 가깝기 때문에 제품을 얻습니다.

막심 드미트리예프스키 :

그리고 파란색을 취하면 확률이 급격히 감소합니다. 이상적으로 신호 확률이 1이어야 하는 경우 최대 0.6-0.7, 즉 두 클래스 모두 0.5를 중심으로 회전하며 하나 또는 다른 클래스로 약간의 편차가 있습니다. 실제로 신호가 아닌 노이즈가 있습니다.

오류로 테스트 세트 작업을 계속할 수 있는 기능.. 기차의 오류에 더 가까이 갈 수 있다면 일반적으로 모델이 좋은 것입니다.

이 확률이 "1"이어야 하는 이유 - 오히려 이것은 자신감입니다. 반대로 올바른 (이상적인) 모델에는 0.1과 0.3, 0.7과 0.9 사이에 두 개의 고비가 있어야 한다고 생각합니다. 안정성과 적합성, 그러나 나는 아직 실제로 그러한 모델을 관찰하지 못했습니다.

추정 계수 값의 근사치에 대해 - 예, 동의합니다 - 델타를 살펴보고 역학에 대해 여러 가지 측정을 할 것입니다. - catbust에서 나무가 추가 될 때 지표가 어떻게 변하는지 볼 수 있습니다 모델.
 
알렉세이 비아즈미킨 :

우리는 동일한 조건에서 모델을 비교합니다. 여기에 다른 데이터에 대한 동일한 모델이 있습니다. 대상 단위는 분류 1 - 35% 대 39%에 속했습니다.

분류 충실도

모든 값의 누적이 중심에 더 가깝기 때문에 제품을 얻습니다.

이 확률이 "1"이어야 하는 이유 - 오히려 이것은 자신감입니다. 반대로 올바른 (이상적인) 모델에는 0.2와 0.4, 0.7과 0.9 사이에 두 개의 고비가 있어야 한다고 생각합니다. 안정성과 적합성, 그러나 나는 아직 실제로 그러한 모델을 관찰하지 못했습니다.

추정 계수 값의 근사치에 대해 - 예, 동의합니다 - 델타를 살펴보고 역학에 대해 여러 가지 측정을 할 것입니다. - catbust에서 나무가 추가 될 때 지표가 어떻게 변하는지 볼 수 있습니다 모델.

사건의 확률이 높을수록 신호가 더 정확하고 정의에서조차 오는 것 같습니다 :) 그녀는 입구에 대해 전혀 확신하지 못합니다.

사유: