트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1396

 
도서관 :
나는 숲에 매료되었습니다. 내가 국회로 돌아간다면 머지 않아. 그래서 나는 그들에게 1년을 보냈다.

확인 )

 
도서관 :

나는 예측의 절대적인 정확성을 열망하지 않습니다. 저에게는 수익을 낸 모든 거래가 맞습니다.
예:

1) 예측 -10 받았습니다 -8 - 이것은 훌륭한 이익이며 전혀 실수가 아닙니다.
2) 예상 -4.8 수신 -13 - 이익이 예상보다 훨씬 더 많습니다. 이것은 더욱이 실수가 아닙니다.
3) 예측 -3.5가 +5를 수신하면 손실이 발생합니다. 이것은 실수입니다. 왼쪽과 0 위의 모든 포인트와 마찬가지로 손실을 가져오고 거래하는 것은 실수입니다.

당신은 모든 것을 절대적으로 이해합니다. 우리에게 필요한 것은 우리의 방향으로 성공적인 거래 의 확률 분포의 편향입니다 . 또한 아무도 중지, 추적 및 기타 거래 추적 방법을 취소하지 않았으며 실제 결과는 5m 후에 어리석게 거래를 종료하는 것보다 나을 것입니다.이 경우는 단지 그림입니다.

견고함은 고양이에 대해 시장에 나와 있는 근거 없는 환상이라고 Maxim은 말합니다. 회귀에서 실제 편차가 있는 경우(훈련 중이든 테스트 중이든) 이러한 편차를 0으로 줄일 수 있는 모델은 없습니다. 어쨌든 편차는 그대로 유지됩니다. 회귀는 항상 분포의 중심으로 이동하며 그 이상은 아닙니다.

Maxim은 불행히도 숲과 RL에 들어가서 모든 외부 정보를 자신의 세계관에 대한 시도로 인식하고 아마도 결과의 중요성을 인식합니다.) 모든 말도 안되는 것, 유치원 등 그에게 모든 것이 잘못되었습니다.

NS에서 숲 나무로의 전환에 관해서. 이들은 거의 동등한 모델이며 새로운 것을 얻지 못하거나 프로필에서만 동일한 계란을 얻을 수 없습니다. 물론 어떤 종류의 동물인지 확인하는 것은 불필요한 일이 아닙니다.

단기간에 MKL에서 Alglib로 전환하면 무언가를 얻을 수 있습니다. 장기적으로는 추진력 상실, 막다른 골목에 불과합니다. 동일한 Maxim이 이미 Python으로 크롤링 중이며 MO가 Alglib-MKL에서 이를 수행하도록 동요하고 있습니다. 재미있다.

 
유리 아사울렌코 :

당신은 모든 것을 절대적으로 이해합니다. 우리에게 필요한 것은 우리의 방향으로 성공적인 거래의 확률 분포의 편향입니다. 또한 아무도 중지, 추적 및 기타 거래 추적 방법을 취소하지 않았으며 실제 결과는 5m 후에 어리석게 거래를 종료하는 것보다 나을 것입니다.이 경우는 단지 그림입니다.

견고함은 고양이에 대해 시장에 나와 있는 근거 없는 환상이라고 Maxim은 말합니다. 회귀에서 실제 편차가 있는 경우(훈련 중이든 테스트 중이든) 이러한 편차를 0으로 줄일 수 있는 모델은 없습니다. 어쨌든, 그것들은 그대로 남아 있을 것입니다. 회귀는 항상 분포의 중심으로 이동하며 그 이상은 아닙니다.

Maxim은 불행히도 숲과 RL에 들어가서 모든 외부 정보를 그의 세계관에 대한 시도로 인식하고 아마도 결과의 중요성을 인식합니다.) 모든 것이 잘못되었습니다. 모든 넌센스, 유치원 등.

NS에서 숲 나무로의 전환에 관해서. 이들은 거의 동등한 모델이며 새로운 것을 얻지 못하거나 프로필에서만 동일한 계란을 얻을 수 없습니다 . 물론 어떤 종류의 동물인지 확인하는 것은 불필요한 일이 아닙니다.

단기적으로 MKL에서 Alglib로 전환하면 무언가를 얻을 수 있습니다. 장기적으로는 추진력 상실, 막다른 골목에 불과합니다. 동일한 Maxim이 이미 Python으로 크롤링 중이며 MO가 Alglib-MKL에서 이를 수행하도록 동요하고 있습니다. 재미있다.

숲에는 모델 매개변수가 더 적습니다. 그리고 NS에는 더 많은 것들이 있고 최적의 조합을 선택하기 어렵고 정규화와 센터링이 필요합니다. 정규화 및 스케일링은 시간이 지남에 따라 유동적이므로 결과적으로 동일한 추가 교육이 올바르지 않습니다. 그리고 숲은 모두 복근입니다. 값이 소화됩니다.

 

적어도 산점도를 올바르게 해석하는 방법을 배웠습니다.

그러면 오류가 증가하고 서로를 보상하지 않는 경향이 있다는 것과 한 점의 왜곡된 확률 분포 로 간주되는 것이 큰 오류를 합산하는 즉각적인 것임을 이해하기 시작할 것입니다.

 
도서관 :

숲에는 모델 매개변수가 더 적습니다. 그리고 NS에는 더 많은 것들이 있고 최적의 조합을 선택하기 어렵고 정규화와 센터링이 필요합니다. 정규화 및 스케일링은 시간이 지남에 따라 유동적이므로 결과적으로 동일한 추가 교육이 올바르지 않습니다. 그리고 숲은 모두 복근입니다. 값이 소화됩니다.

모든 것을 말하지는 않겠지만 같은 방식으로 본 고양이 숲 모델은 스케일링 등이 필요합니다. 그건 그렇고, 나는 입력 신호를 전처리하지 않고이 모든 것이 어떻게 작동하는지 이해하지 못합니다. 대략적으로 동일한 두 개의 신호를 상상해보십시오. 그 중 하나는 다른 것보다 초기 가격이 10% 더 높습니다. 그리고 더 큰 (동일한) 기계의 변동성은 첫 번째 기계의 변동성보다 10% 더 높을 것입니다. NA 또는 Forest에서 이를 어떻게 처리할 수 있습니까? 그리고 결과 db. 동일한.

 
막심 드미트리예프스키 :

적어도 산점도를 올바르게 해석하는 방법을 배웠습니다.

그러면 오류가 증가하고 서로를 보상하지 않는 경향이 있다는 것과 한 점의 왜곡된 확률 분포로 간주되는 것이 큰 오류를 합산하는 즉각적인 것임을 이해하기 시작할 것입니다.

Maxim, 자신의 차트뿐만 아니라 차트를 읽는 법을 배우십시오. 내 차트가 당신에게 아무 것도 말해주지 않는다면, 나는 그것에 대해 아무 것도 할 수 없습니다. 원하지 않으면 처리하지 마십시오. 아무도 포로가 되지 않습니다. 솔직히, 나는 당신에게 지쳤습니다. 나는 당신이 헛소리를 하고 있다고 말하고 싶지는 않지만, 당신은 해야 합니다.

 
유리 아사울렌코 :

Maxim, 자신의 차트뿐만 아니라 차트를 읽는 법을 배우십시오. 솔직히, 나는 당신에게 지쳤습니다. 나는 당신이 헛소리를 하고 있다고 말하고 싶지는 않지만, 당신은 해야 합니다.

차트를 읽는 방법? 일반적으로 통용되는 것과 달리 읽는 특별한 방법이 있습니까? 엘리브라리우스가 있는데 사제를 몰라 제대로 읽지도 못하고

나는이 차트에서 본 것을 썼습니다 .. 위에서 어떤 결론을 이끌어내는 것은 불가능합니다

구체적으로 - 오류는 무작위보다 약간 낫습니다(약 40%).

 
유리 아사울렌코 :

모든 것을 말하지는 않겠지만 같은 방식으로 본 고양이 숲 모델은 스케일링 등이 필요합니다. 그건 그렇고, 나는 입력 신호를 전처리하지 않고이 모든 것이 어떻게 작동하는지 이해하지 못합니다. 대략적으로 동일한 두 개의 신호를 상상해보십시오. 그 중 하나는 다른 것보다 초기 가격이 10% 더 높습니다. 그리고 두 번째 (동일한) 기계의 변동성은 첫 번째 기계의 변동성보다 10% 더 높을 것입니다. NA 또는 Forest에서 이를 어떻게 처리할 수 있습니까? 그리고 결과 db. 동일한.

포리스트는 값의 차이와 규모에 따라 다른 변동성으로 입력을 소화합니다.

그 중 하나는 예를 들어 0.00014로, 두 번째는 41548.3으로 노드로 나뉩니다.

그리고 국회의 경우 모든 투입을 같은 규모로 줄여야 합니다.

 
막심 드미트리예프스키 :

차트를 읽는 방법? 일반적으로 통용되는 것과 달리 읽는 특별한 방법이 있습니까? 엘리브라리우스가 있는데 사제를 몰라 제대로 읽지도 못하고

나는이 차트에서 본 것을 썼습니다 .. 위에서 어떤 결론을 이끌어내는 것은 불가능합니다

구체적으로 - 오류는 무작위보다 약간 낫습니다(약 40%).

그래서 무엇? 왜 나쁜가요? 일반적으로 10분 동안은 모든 것이 인식을 넘어서 퍼질 것이고, 1시간 동안은 상상조차 하기조차 어렵다.))

 
도서관 :

포리스트는 값의 차이와 규모에 따라 다른 변동성으로 입력을 소화합니다.

그 중 하나는 예를 들어 0.00014로, 두 번째는 41548.3으로 노드로 나뉩니다.

그리고 국회의 경우 모든 투입을 같은 규모로 줄여야 합니다.

모르겠어요. 그는 고양이가 본 숲에 대해서만 말했습니다. 오데사 전체를 대변할 수는 없습니다.