트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2029

 
도서관 :
그리고 어떤 종류의 데이터입니까?

매수는 100에서 2500까지 5자리씩 100씩 SL 및 TP로 매분 열립니다. 즉, 1분에 625개의 구매가 열립니다. 모든 것이 개장 시간(분)의 가격입니다.

디코딩 후 다음과 같이 표시되어야 합니다.

번호, 진입 가격(*10^5), 유닉스 시간, 년, 월, 일, 분, 초, 요일, 요일, ... , 종료, ... , SL 모두 동일 PP로, SL에서 가격, TP에서 PP, TP에서 가격, 거래 결과.

숲은 이것을 단호하게 받아들여야 합니다. 클러스터로 나누는 것도 흥미롭습니다.

 
로르샤흐 :

매수는 100에서 2500까지 5자리씩 100씩 SL 및 TP로 매분 열립니다. 즉, 1분에 625개의 구매가 열립니다. 모든 것이 개장 시간(분)의 가격입니다.

디코딩 후 다음과 같이 표시되어야 합니다.

번호, 진입 가격(*10^5), 유닉스 시간, 년, 월, 일, 분, 초, 요일, 요일, ... , 종료, ... , SL 모두 동일 PP로, SL에서 가격, TP에서 PP, TP에서 가격, 거래 결과.

숲은 이것을 단호하게 받아들여야 합니다. 클러스터로 나누는 것도 흥미롭습니다.

TP \ SL도 다루었습니다.
저는 10pt 단계를 수행하지 않았지만 그리드 100,200,300,500,700,1000,2000 - 적용하면 분당 49개의 다른 조합이 있게 되는데, 이는 거의 13배 적은 데이터입니다.
높은 TP/SL 값에서 작은 단계가 필요하다고 생각하지 않습니다. 2400과 2500은 약간 다를 것이고 리소스 절약은 13배입니다.
나는 또한 하나의 파일에서 한 번에 모두가 아니라 별도의 패스에서 각 TP / SL 조합을 수행했습니다.
동일한 TP \ SL로 시스템의 수익성을 즉시 평가할 수 있습니다. 예를 들어 TP=SL=50에서. 나는 성공적인 거래의 53-55%를 받았습니다. 테스터에서.

변동성이 커진 3월부터 TP=SL=50으로 작업하는 것이 불가능해졌으며 그 이전에는 수년간 작업 조합이었다. 3월까지는 50pt를 얻는 데 10-20분이 걸리고 3월에는 1-2-5분이 걸립니다.
일반적으로 안정적인 TP / SL을 포기하기로 결정했습니다. 이제 진입점을 찾고 테스터와 즉시 거래 결과를 평가하고 싶습니다. 모든 변동성에 대해 더 보편적일 것이라고 생각합니다.

예를 들어 TP=SL=100의 한 조합을 사용하여 모델을 훈련시키십시오. 충분한 힘이 있어야 한다고 생각합니다. OOS가 55%보다 높으면 데이터가 내 것보다 좋습니다) 그리고 OOS를 확인하지 않는 것이 훨씬 낫습니다(성공할 수 있기 때문에). 그러나 교차 검증 - 이것이 더 안정적입니다.
 
도서관 :
TP \ SL도 다루었습니다.
저는 10pt 단계를 수행하지 않았지만 그리드 100,200,300,500,700,1000,2000 - 적용하면 분당 49개의 다른 조합이 있게 되는데, 이는 거의 13배 적은 데이터입니다.
높은 TP/SL 값에서 작은 단계가 필요하다고 생각하지 않습니다. 2400과 2500은 약간 다를 것이고 리소스 절약은 13배입니다.
나는 또한 하나의 파일에서 한 번에 모두가 아니라 별도의 패스에서 각 TP / SL 조합을 수행했습니다.
동일한 TP \ SL로 시스템의 수익성을 즉시 평가할 수 있습니다. 예를 들어 TP=SL=50에서. 나는 성공적인 거래의 53-55%를 받았습니다. 테스터에서.

변동성이 커진 3월부터 TP=SL=50으로 작업하는 것이 불가능해졌으며 그 이전에는 수년간 작업 조합이었다. 3월까지는 50pt를 얻는 데 10-20분이 걸리고 3월에는 1-2-5분이 걸립니다.
일반적으로 안정적인 TP / SL을 포기하기로 결정했습니다. 이제 진입점을 찾고 테스터와 즉시 거래 결과를 평가하고 싶습니다. 모든 변동성에 대해 더 보편적일 것이라고 생각합니다.

예를 들어 TP=SL=100의 한 조합을 사용하여 모델을 훈련시키십시오. 충분한 힘이 있어야 한다고 생각합니다. OOS가 55%보다 높으면 데이터가 내 것보다 좋습니다) 그리고 OOS를 확인하지 않는 것이 훨씬 낫습니다(성공할 수 있기 때문에). 그러나 교차 검증 - 이것이 더 안정적입니다.

대부분의 경우 데이터를 축소해야 합니다.

 
로르샤흐 :

대부분의 경우 데이터를 축소해야 합니다.

TP \ SL \u003d 50 or 100으로 훈련하면 교차검증 결과를 써보면 55%이상 나오나?
 
도서관 :
TP \ SL \u003d 50 or 100으로 훈련하면 교차검증 결과를 써보면 55%이상 나오나?

10년 동안 나는 테스터에서 하루에 한 번 SL/TP 비율을 다르게 구매하는 시스템을 운영했습니다. 생존자 중 ST와 TP가 동일한 시스템은 없었으며 대부분 TP<SL이었습니다. 스스로 운전할 수 있습니다.

또한 에뮬레이션 을 수행했는데 TP < CL인 시스템이 빠르게 플러스 상태가 되는 것을 보여주었습니다.

 
mytarmailS :

다시 네트워크와 함께 뭔가 더 현명한? 역으로 거래)

마침내 테스터에서 버그를 발견했습니다. 이제 모든 것이 제자리에 있습니다.

아마도 그는 테스터에서 같은 실수를 저질렀을 것입니다.

주제 닫음) 서둘러, 람바 연기

 
로르샤흐 :

날짜를 채굴했는데 이제 어떻게 처리해야 할지 모르겠고 힘이 별로 없어요 ((((

이제 하나의 인덱스 열이 있는 csv이며 무게가 큽니다. "디코딩" 후 바이너리 의 무게는 17배 더 커집니다.

무슨 일이야?

CatBoost는 이 데이터를 삼킬 것입니다. 대용량 파일에서 잘 작동합니다. 타겟이 뭔지도 모르겠고...

대상에서 csv 형식으로 데이터를 준비하면 내가 직접 실행할 수 있습니다.

 
로르샤흐 :

10년 동안 나는 테스터에서 하루에 한 번 SL/TP 비율을 다르게 구매하는 시스템을 운영했습니다. 생존자 중 ST와 TP가 동일한 시스템은 없었으며 대부분 TP<SL이었습니다. 스스로 운전할 수 있습니다.

또한 에뮬레이션 을 수행했는데 TP < CL인 시스템이 빠르게 플러스 상태가 되는 것을 보여주었습니다.

그리고 나는 TP가 SL보다 2~3배 더 큰 시스템을 만들 수 있었지만 또 다른 문제가 있습니다. 이기는 거래의 20% -25%이며, 수익이 나지 않는 항목을 걸러내기 위해 모델을 정상적으로 훈련할 수 없습니다.

 
막심 드미트리예프스키 :

확인하면 테스터에서 더 잘 작동합니다. 다시 알아보도록 하겠습니다)

방금 재발을 위해 앉았습니다 .. 매우 멋진 학습

Z.Y. 옳은 일을 했습니다 - 매우 슬프게도 훈련을 받았습니다.

나는 사랑을 생각했지만 아니 - 다시 경험))

왜 슬픈??? Maxim, 재발에 대한 문서에 대한 링크가 있습니까? 훈련 중 가중치가 정확히 어떻게 업데이트되는지 관심
 
알렉산더 알렉세비치 :
왜 슬픈??? Maxim, 재발에 대한 문서에 대한 링크가 있습니까? 훈련 중 가중치가 정확히 어떻게 업데이트되는지 관심

나머지와 마찬가지로 재교육

구글은 정보로 가득 차 있다

여기 좋은 것이 있습니다

https://towardsdatascience.com/gate-recurrent-units-explained-using-matrices-part-1-3c781469fc18

Gated Recurrent Units explained using Matrices: Part 1
Gated Recurrent Units explained using Matrices: Part 1
  • Sparkle Russell-Puleri
  • towardsdatascience.com
In the first step a dictionary of all of the unique characters is created to map each letter to a unique integer: Character dictionary : {‘h’: 0, ‘a’: 1, ‘t’: 2, ‘M’: 3} Our encoded input now becomes: MathMath = [3, 1, 2, 0, 3, 1, 2, 0] Step 1: Create batches of data This step is achieved by the user specifying how many batches (B), or sequence...
사유: