매수는 100에서 2500까지 5자리씩 100씩 SL 및 TP로 매분 열립니다. 즉, 1분에 625개의 구매가 열립니다. 모든 것이 개장 시간(분)의 가격입니다.
디코딩 후 다음과 같이 표시되어야 합니다.
번호, 진입 가격(*10^5), 유닉스 시간, 년, 월, 일, 분, 초, 요일, 요일, ... , 종료, ... , SL 모두 동일 PP로, SL에서 가격, TP에서 PP, TP에서 가격, 거래 결과.
숲은 이것을 단호하게 받아들여야 합니다. 클러스터로 나누는 것도 흥미롭습니다.
TP \ SL도 다루었습니다. 저는 10pt 단계를 수행하지 않았지만 그리드 100,200,300,500,700,1000,2000 - 적용하면 분당 49개의 다른 조합이 있게 되는데, 이는 거의 13배 적은 데이터입니다. 높은 TP/SL 값에서 작은 단계가 필요하다고 생각하지 않습니다. 2400과 2500은 약간 다를 것이고 리소스 절약은 13배입니다. 나는 또한 하나의 파일에서 한 번에 모두가 아니라 별도의 패스에서 각 TP / SL 조합을 수행했습니다. 동일한 TP \ SL로 시스템의 수익성을 즉시 평가할 수 있습니다. 예를 들어 TP=SL=50에서. 나는 성공적인 거래의 53-55%를 받았습니다. 테스터에서.
변동성이 커진 3월부터 TP=SL=50으로 작업하는 것이 불가능해졌으며 그 이전에는 수년간 작업 조합이었다. 3월까지는 50pt를 얻는 데 10-20분이 걸리고 3월에는 1-2-5분이 걸립니다. 일반적으로 안정적인 TP / SL을 포기하기로 결정했습니다. 이제 진입점을 찾고 테스터와 즉시 거래 결과를 평가하고 싶습니다. 모든 변동성에 대해 더 보편적일 것이라고 생각합니다.
예를 들어 TP=SL=100의 한 조합을 사용하여 모델을 훈련시키십시오. 충분한 힘이 있어야 한다고 생각합니다. OOS가 55%보다 높으면 데이터가 내 것보다 좋습니다) 그리고 OOS를 확인하지 않는 것이 훨씬 낫습니다(성공할 수 있기 때문에). 그러나 교차 검증 - 이것이 더 안정적입니다.
도서관 : TP \ SL도 다루었습니다. 저는 10pt 단계를 수행하지 않았지만 그리드 100,200,300,500,700,1000,2000 - 적용하면 분당 49개의 다른 조합이 있게 되는데, 이는 거의 13배 적은 데이터입니다. 높은 TP/SL 값에서 작은 단계가 필요하다고 생각하지 않습니다. 2400과 2500은 약간 다를 것이고 리소스 절약은 13배입니다. 나는 또한 하나의 파일에서 한 번에 모두가 아니라 별도의 패스에서 각 TP / SL 조합을 수행했습니다. 동일한 TP \ SL로 시스템의 수익성을 즉시 평가할 수 있습니다. 예를 들어 TP=SL=50에서. 나는 성공적인 거래의 53-55%를 받았습니다. 테스터에서.
변동성이 커진 3월부터 TP=SL=50으로 작업하는 것이 불가능해졌으며 그 이전에는 수년간 작업 조합이었다. 3월까지는 50pt를 얻는 데 10-20분이 걸리고 3월에는 1-2-5분이 걸립니다. 일반적으로 안정적인 TP / SL을 포기하기로 결정했습니다. 이제 진입점을 찾고 테스터와 즉시 거래 결과를 평가하고 싶습니다. 모든 변동성에 대해 더 보편적일 것이라고 생각합니다.
예를 들어 TP=SL=100의 한 조합을 사용하여 모델을 훈련시키십시오. 충분한 힘이 있어야 한다고 생각합니다. OOS가 55%보다 높으면 데이터가 내 것보다 좋습니다) 그리고 OOS를 확인하지 않는 것이 훨씬 낫습니다(성공할 수 있기 때문에). 그러나 교차 검증 - 이것이 더 안정적입니다.
In the first step a dictionary of all of the unique characters is created to map each letter to a unique integer: Character dictionary : {‘h’: 0, ‘a’: 1, ‘t’: 2, ‘M’: 3} Our encoded input now becomes: MathMath = [3, 1, 2, 0, 3, 1, 2, 0] Step 1: Create batches of data This step is achieved by the user specifying how many batches (B), or sequence...
그리고 어떤 종류의 데이터입니까?
매수는 100에서 2500까지 5자리씩 100씩 SL 및 TP로 매분 열립니다. 즉, 1분에 625개의 구매가 열립니다. 모든 것이 개장 시간(분)의 가격입니다.
디코딩 후 다음과 같이 표시되어야 합니다.
번호, 진입 가격(*10^5), 유닉스 시간, 년, 월, 일, 분, 초, 요일, 요일, ... , 종료, ... , SL 모두 동일 PP로, SL에서 가격, TP에서 PP, TP에서 가격, 거래 결과.
숲은 이것을 단호하게 받아들여야 합니다. 클러스터로 나누는 것도 흥미롭습니다.
매수는 100에서 2500까지 5자리씩 100씩 SL 및 TP로 매분 열립니다. 즉, 1분에 625개의 구매가 열립니다. 모든 것이 개장 시간(분)의 가격입니다.
디코딩 후 다음과 같이 표시되어야 합니다.
번호, 진입 가격(*10^5), 유닉스 시간, 년, 월, 일, 분, 초, 요일, 요일, ... , 종료, ... , SL 모두 동일 PP로, SL에서 가격, TP에서 PP, TP에서 가격, 거래 결과.
숲은 이것을 단호하게 받아들여야 합니다. 클러스터로 나누는 것도 흥미롭습니다.
저는 10pt 단계를 수행하지 않았지만 그리드 100,200,300,500,700,1000,2000 - 적용하면 분당 49개의 다른 조합이 있게 되는데, 이는 거의 13배 적은 데이터입니다.
높은 TP/SL 값에서 작은 단계가 필요하다고 생각하지 않습니다. 2400과 2500은 약간 다를 것이고 리소스 절약은 13배입니다.
나는 또한 하나의 파일에서 한 번에 모두가 아니라 별도의 패스에서 각 TP / SL 조합을 수행했습니다.
동일한 TP \ SL로 시스템의 수익성을 즉시 평가할 수 있습니다. 예를 들어 TP=SL=50에서. 나는 성공적인 거래의 53-55%를 받았습니다. 테스터에서.
변동성이 커진 3월부터 TP=SL=50으로 작업하는 것이 불가능해졌으며 그 이전에는 수년간 작업 조합이었다. 3월까지는 50pt를 얻는 데 10-20분이 걸리고 3월에는 1-2-5분이 걸립니다.
일반적으로 안정적인 TP / SL을 포기하기로 결정했습니다. 이제 진입점을 찾고 테스터와 즉시 거래 결과를 평가하고 싶습니다. 모든 변동성에 대해 더 보편적일 것이라고 생각합니다.
예를 들어 TP=SL=100의 한 조합을 사용하여 모델을 훈련시키십시오. 충분한 힘이 있어야 한다고 생각합니다. OOS가 55%보다 높으면 데이터가 내 것보다 좋습니다) 그리고 OOS를 확인하지 않는 것이 훨씬 낫습니다(성공할 수 있기 때문에). 그러나 교차 검증 - 이것이 더 안정적입니다.
TP \ SL도 다루었습니다.
저는 10pt 단계를 수행하지 않았지만 그리드 100,200,300,500,700,1000,2000 - 적용하면 분당 49개의 다른 조합이 있게 되는데, 이는 거의 13배 적은 데이터입니다.
높은 TP/SL 값에서 작은 단계가 필요하다고 생각하지 않습니다. 2400과 2500은 약간 다를 것이고 리소스 절약은 13배입니다.
나는 또한 하나의 파일에서 한 번에 모두가 아니라 별도의 패스에서 각 TP / SL 조합을 수행했습니다.
동일한 TP \ SL로 시스템의 수익성을 즉시 평가할 수 있습니다. 예를 들어 TP=SL=50에서. 나는 성공적인 거래의 53-55%를 받았습니다. 테스터에서.
변동성이 커진 3월부터 TP=SL=50으로 작업하는 것이 불가능해졌으며 그 이전에는 수년간 작업 조합이었다. 3월까지는 50pt를 얻는 데 10-20분이 걸리고 3월에는 1-2-5분이 걸립니다.
일반적으로 안정적인 TP / SL을 포기하기로 결정했습니다. 이제 진입점을 찾고 테스터와 즉시 거래 결과를 평가하고 싶습니다. 모든 변동성에 대해 더 보편적일 것이라고 생각합니다.
예를 들어 TP=SL=100의 한 조합을 사용하여 모델을 훈련시키십시오. 충분한 힘이 있어야 한다고 생각합니다. OOS가 55%보다 높으면 데이터가 내 것보다 좋습니다) 그리고 OOS를 확인하지 않는 것이 훨씬 낫습니다(성공할 수 있기 때문에). 그러나 교차 검증 - 이것이 더 안정적입니다.
대부분의 경우 데이터를 축소해야 합니다.
대부분의 경우 데이터를 축소해야 합니다.
TP \ SL \u003d 50 or 100으로 훈련하면 교차검증 결과를 써보면 55%이상 나오나?
10년 동안 나는 테스터에서 하루에 한 번 SL/TP 비율을 다르게 구매하는 시스템을 운영했습니다. 생존자 중 ST와 TP가 동일한 시스템은 없었으며 대부분 TP<SL이었습니다. 스스로 운전할 수 있습니다.
또한 에뮬레이션 을 수행했는데 TP < CL인 시스템이 빠르게 플러스 상태가 되는 것을 보여주었습니다.
다시 네트워크와 함께 뭔가 더 현명한? 역으로 거래)
마침내 테스터에서 버그를 발견했습니다. 이제 모든 것이 제자리에 있습니다.
아마도 그는 테스터에서 같은 실수를 저질렀을 것입니다.
주제 닫음) 서둘러, 람바 연기
날짜를 채굴했는데 이제 어떻게 처리해야 할지 모르겠고 힘이 별로 없어요 ((((
이제 하나의 인덱스 열이 있는 csv이며 무게가 큽니다. "디코딩" 후 바이너리 의 무게는 17배 더 커집니다.
무슨 일이야?
CatBoost는 이 데이터를 삼킬 것입니다. 대용량 파일에서 잘 작동합니다. 타겟이 뭔지도 모르겠고...
대상에서 csv 형식으로 데이터를 준비하면 내가 직접 실행할 수 있습니다.
10년 동안 나는 테스터에서 하루에 한 번 SL/TP 비율을 다르게 구매하는 시스템을 운영했습니다. 생존자 중 ST와 TP가 동일한 시스템은 없었으며 대부분 TP<SL이었습니다. 스스로 운전할 수 있습니다.
또한 에뮬레이션 을 수행했는데 TP < CL인 시스템이 빠르게 플러스 상태가 되는 것을 보여주었습니다.
그리고 나는 TP가 SL보다 2~3배 더 큰 시스템을 만들 수 있었지만 또 다른 문제가 있습니다. 이기는 거래의 20% -25%이며, 수익이 나지 않는 항목을 걸러내기 위해 모델을 정상적으로 훈련할 수 없습니다.
확인하면 테스터에서 더 잘 작동합니다. 다시 알아보도록 하겠습니다)
방금 재발을 위해 앉았습니다 .. 매우 멋진 학습
Z.Y. 옳은 일을 했습니다 - 매우 슬프게도 훈련을 받았습니다.
나는 사랑을 생각했지만 아니 - 다시 경험))
왜 슬픈??? Maxim, 재발에 대한 문서에 대한 링크가 있습니까? 훈련 중 가중치가 정확히 어떻게 업데이트되는지 관심
나머지와 마찬가지로 재교육
구글은 정보로 가득 차 있다
여기 좋은 것이 있습니다
https://towardsdatascience.com/gate-recurrent-units-explained-using-matrices-part-1-3c781469fc18