트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 937

 

네, 많은 수업이 가능합니다. 그러나 나는 2개 이상의 클래스가 있는 모델과 거의 작업하지 않았으며, 특히 한 클래스가 다른 클래스보다 많을 경우 항상 어려움과 문제가 있습니다. 시도는 할 수 있지만 솔직히 좋은 결과를 바라지는 않습니다.

이제 그것은 어떻게 든 어렵습니다. 한 나무는 당신이 갈 수 없는 곳을 아는 필터이고, 다른 나무는 당신이 오래 갈 수 있는 곳을 알고 있지만 여전히 짧은 2개의 유사한 나무가 없습니다. 이 모든 정보를 하나의 트리로 결합하면 세 가지 클래스를 사용하는 단점을 극복하고 솔리테어가 개발될 것입니다. :)

 
박사 상인 :

네, 많은 수업이 가능합니다. 그러나 나는 2개 이상의 클래스가 있는 모델과 거의 작업하지 않았으며, 특히 한 클래스가 다른 클래스보다 많을 경우 항상 어려움과 문제가 있습니다. 시도는 해볼 수 있지만 솔직히 좋은 결과가 있길 바라지는 않습니다.

이제 그것은 어떻게 든 어렵습니다. 한 나무는 당신이 갈 수 없는 곳을 아는 필터이고, 다른 나무는 당신이 오래 갈 수 있는 곳을 알고 있지만 여전히 짧은 2개의 유사한 나무가 없습니다. 이 모든 정보를 하나의 트리로 결합하면 세 가지 클래스를 사용하는 단점을 극복하고 솔리테어가 개발될 것입니다. :)

결과를 보는 것이 흥미로울 것입니다!

잘 모르겠습니다. 어리석은 이익을 취하여 새로운 대상을 만들 수 있고 더 많은 항목이 있을 수 있습니다. 목표물에 대해 모든 것이 명확하지 않고 이제 많은 목표물(여러 항목이 있는)이 어리석게 반전을 포착하지만 거기에 들어가고 싶지는 않습니다. 반전에 대한 확실성은 없다고 생각하지만, 추세 움직임의 완료에 대한 확실성과 플랫이 예상될 수 있습니다. 노이즈 타겟이 획득됩니다. 적은 수의 항목이 있는 파일이 있는 경우 더 깨끗한 대상이 있어야 하지만 다른 유형의 항목도 발견됩니다. 반전(예: 매시간 TF에 핀바가 형성되는 경우). 또한 "입력 창 열기"와 같은 뉘앙스가 있습니다. 이것은 적절한 수의 연속 막대에 대해 입력이 허용되는 경우입니다. 임의성으로 인한 노이즈도 있을 수 있습니다. 그래서 제 생각에는 그림이 수렴되도록 대상을 나누는 것이 모두 동일할 필요가 있다고 생각합니다.

 
로프필드 :

kfold Alglib을 사용해 보셨습니까? 결과를 개선? 귀하의 이전 메시지 중 하나에서 선택 항목이 혼합되지 않는 것으로 보입니다. 당신은 전혀해야합니까?

재교육을 덜 받는 것(숲 또는 MLP)에 대한 결론이 있습니까? 같은 데이터에. 숲이 회귀 문제에 대해 비뚤어지게 작동하고 규범 분류에 대해 비뚤어진 오류(매우 작은 오류)를 반환한다는 의혹이 있습니다.

2. OpCl에 관심이 있는 걸 봤는데, 국회를 다시 쓸 생각은 없었나? 예를 들어, 나는 일반적으로 GA를 일종의 악몽 같은 넌센스로 포기했습니다. 이제 모든 것이 1코어의 1스레드에서 훈련됩니다. Cl에서 속도를 높이는 것이 가능합니다(매우 빠르긴 하지만). 또는 Spark에서 훈련하는 경우 이미 병렬화되어 있으며 의미가 없습니다.

3. git에 게시한 내용과 사용 방법을 어느 정도 이해했습니다. 훌륭한 흥미로운 작품, 존경합니다! :)

 

여기요)


나는 그 코드의 스캔을 세탁기에 넣고 그것을 가르치기 위해 켰다.

그런 다음 신경망을 심층적으로 훈련시키기 위해 재봉틀에 코드를 세 번 꿰맸습니다.

그리고 결과는 여기까지입니다. 코드가 인식을 초월하여 변경되어 이제 거래에 사용하는 방법에 대해 생각하고 있습니다 ...

 

슈퍼봇은 아직 준비가 되었나요?

저는 지금 2년을 기다리고 있습니다.

 
막심 드미트리예프스키 :

재교육을 덜 받는 것(숲 또는 MLP)에 대한 결론이 있습니까?

패키지 중 하나에는 예측 NN(MLP)의 데모 사본이 있습니다. 그건 그렇고, 비교적 간단한 NS입니다. 따라서 이를 재교육하는 것은 일반적으로 비현실적입니다. 재교육하지 않는 방법 - 모든 것이 작동합니다.

따라서 재교육 가능성은 무엇보다도 국회에 주어진 과제에 달려 있습니다. 글쎄, 그리고 MLP의 복잡성의 적절성에서 작업에 이르기까지.

 
막심 드미트리예프스키 :

나는 특히 alglib와 다른 모델의 동일한 데이터에 대한 테스트에 관한 것입니다.

NS, 아프리카 NS에도 있습니다. 알글립이든 뭐든 상관없습니다. 신경망이 재훈련되면 작업에 부적합하며 작업이나 신경망의 구조를 변경해야 합니다. 그리고 그림에서 고통받지 마십시오.) 한 중위가 말했듯이 - x ... 여기에서 생각해야합니다. 흔들어야합니다.)

나는 숲에 대해 아무 말도 하지 않을 것이고 그들과 함께 일하지 않을 것입니다.

 

그리고 목표가 아닌 예측 변수에서 트리를 훈련한다면? 좋은 학습의 중요하지 않은 예측 변수를 식별할 수 있습니까? 저것들. 테스트 모델이 예측 변수를 잘 인식했다면 다른 예측 변수에 이미 충분한 정보가 포함되어 있고 이 예측 변수는 중복되어 제거될 수 있습니다. 그러나 예측 변수가 아니라 고유한 조합 자체의 중복성에 관한 것이라면 어떻게 될까요?

예를 들어, 목표로 시간의 숫자를 선택하기로 결정했습니다.

훈련된 샘플에 대한 결과


테스트 샘플에 대한 결과


10시간이 잘 예측된 것을 알 수 있습니다. 이때 나머지 샘플과 다른 조건이 있다고 가정할 수 있습니까? 맞는 것 같아요. 나는 나머지 시간을 그룹화하려고 노력할 것입니다. 아마도 이러한 방식으로 이러한 시간 범위에서 가격 행동의 특성을 더 잘 강조할 수 있을 것입니다.

 
알렉세이 비아즈미킨 :

그리고 목표가 아닌 예측 변수에서 트리를 훈련한다면? 좋은 학습의 중요하지 않은 예측 변수를 식별할 수 있습니까? 저것들. 테스트 모델이 예측 변수를 잘 인식했다면 다른 예측 변수에 이미 충분한 정보가 포함되어 있고 이 예측 변수는 중복되어 제거될 수 있습니다. 하지만 예측 변수가 아니라 고유한 조합 자체의 중복성에 관한 것이라면 어떻게 될까요?

예를 들어, 목표로 시간의 숫자를 선택하기로 결정했습니다.

훈련된 샘플에 대한 결과


테스트 샘플에 대한 결과


10시간이 잘 예측된 것을 알 수 있습니다. 이때 나머지 샘플과 다른 조건이 있다고 가정할 수 있습니까? 맞는 것 같아요. 나는 나머지 시간을 그룹화하려고 노력할 것입니다. 아마도 이러한 방식으로 이러한 시간 범위에서 가격 행동의 특성을 더 잘 강조할 수 있을 것입니다.

24시간의 긴 공백 끝에 10시간이 처음이라는 사실 때문일까요? 그래서 예고가 잘 된 걸까요? 낮은 변동성 외에 24시간 안에 특별한 것이 있습니까?
 
유리 아사울렌코 :

아마도 하루로는 충분하지 않을 것입니다.) 사실 이것은 전문입니다.) 그들은 수년간, 심지어는 활동적인 삶 전체를 공부합니다.

NS는 유사하지 않지만 DSP에서 널리 사용됩니다. DSP에서 NS를 사용하는 문제는 NS에 대한 문제의 올바른 공식화입니다. NS의 응용 프로그램 중 하나가 필터링이라고 가정해 보겠습니다. 적응.

그건 그렇고, 국회에 아주 구체적인 일을 맡기고 아무 것도 안 가져오면 잘 될 거에요.

나는 계속 탐구한다.

5년 동안 이 기능을 연구했지만 핸디캡에 사용할 수 있는 것이 무엇인지 상상조차 할 수 없었습니다.

간단히 말해서 NN은 일반적인 적응형 재귀 필터입니다.

많은 종류가 있습니다.

선생님과 함께, 선생님 없이 등등

예측 변수 - 디지털 필터링 계수. Rzhaka, 초등학교지만 여기에서 과학이 짓밟히고 있습니다. 이 모든 것이 펠트 부츠만큼 오래되었습니다. (초기 - 1950)

당신은 나에게 말합니다-당신은 이미 블라인드를 했습니까 아니면 훈련과 함께 입구 / 출구를 사용합니까?

//블라인드는 출력에 무엇이 있는지 모르지만 입력에 핸디캡이 있는 경우입니다. 비교할 것이 없습니다 ... 그들은이 경우 주요 목표가 소음을 없애는 것이라고 말합니다.

//그리고 목격된 경우 필터링된 오류 벡터를 계산하여 예측을 얻은 것으로 가정합니다. 그러나 처리 지연이 있습니다(최소한 1틱).