트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3162

 
Maxim Dmitrievsky #:
예, 노이즈가 많으면 최대 분산이 있는 구성 요소는 아무것도 표시할 수 없습니다. 두 번째 데이터 세트가 어떻게 관련되어 있는지 이해하지 못했지만 kozul의 비디오에서 트리트먼트에 대한 내용이있었습니다.

글쎄요, 두 번째 데이터 세트는 첫 번째 데이터 세트와의 대비를 찾기 위해 필요한 것 같습니다. 두 데이터 세트의 공분산 행렬이 어떻게든 영리하게 비교되는 것 같습니다.

 
Aleksey Nikolayev #:

그것들은 전체적으로 비선형적인 것 같고, 제가 헷갈리지 않는다면 둘 다 PCA와 같은 선형적인 것 같습니다.

네, 비선형적이지만 그게 나쁜 건가요?


이 대비 PCA를 시도해 본 결과 PCA와 거의 동일한 결과를 얻었습니다.

이 비네팅은 모든 다른 유형을 비교한 것입니다.

PCA가 다른 방법보다 "창백하게" 보이지만, 데이터가 정규화되었을 뿐만 아니라 중앙에 있는 경우(별도로 수행했습니다) 일반 PCA는 여기에 표시된 데이터에 대해 동일한 결과를 제공합니다.

 
mytarmailS #:

네, 비선형적이죠. 하지만 그게 나쁜가요?


저는 이 대비 PCA를 사용해 봤는데, PCA와 거의 동일한 결과를 얻었습니다.

이 비네팅은 모든 다른 유형을 비교한 것입니다.

다른 방법보다 PCA가 "창백하게" 보이지만, 데이터가 정규화되었을 뿐만 아니라 중앙에 배치된 경우(별도로 수행한 작업) 일반 PCA는 여기에 표시된 데이터에 대해 동일한 결과를 제공합니다.

아마도 그 테스트 데이터와 비교했을 때 "가난"하고 피질에서 동일한 결과를 얻었습니까?
 
Forester #:
아마도 이러한 테스트 데이터와 비교했을 때 "열악"하고 코트로프키에서 얻은 결과와 동일할까요?

아니요, 자체 데이터에서도 동일합니다.


=============

library(scPCA)
label <- toy_df$label
data <- toy_df[, -31]


pca <- prcomp(data,center = TRUE)
plot(pca$x,col=label,lwd=2,main = "обычный РСА")

cpca <- scPCA(target = data, background = background_df, penalties = 0, n_centers = 4)
plot(cpca$x, col=label, lwd=2,main = "контрасный РСА")

그게 제가 한 일입니다.

npca <- prcomp(data,center = TRUE,scale. = TRUE)
plot(npca$x,col=label,lwd=2,main = "обычный РСА + нормализация")

library(umap)
um <- umap(data)
plot(um$layout,col=label,lwd=2,main = "umap без нормализации данных")

num <- umap( scale(data,center = TRUE,scale = TRUE) )
plot(num$layout,col=label,lwd=2,main = "umap + нормализация")



다음과 같습니다.... 우리는 우리 자신의 결론을 내립니다.

 

목표는 특정 데이터 집합에 무언가를 집중시키는 것이 아니라 데이터를 유연하게 성공적으로 표현하는 방법을 찾는 것입니다. 이 방법을 사용하면 그렇게 할 수 있습니다. yumap으로도 가능하겠지만, 안정성 측면에서는 선형이 비선형보다 거의 항상 더 낫습니다.

좋은 방법이지만 더 좋은 방법이 있습니다.

cPCA는 누군가 연습하고 있다면 논의할 준비가 되어 있습니다.

 


M5 5000회선(3,5주)으로 일주일에 한 번 훈련하는 좋은 변형을 찾았습니다. 그리고 토요일이 아닌 화요일에 훈련하는 것과 같이 모든 데이터를 300 회선으로 이동하기로 결정했습니다.
이 새로운 300 회선 (전체의 약 8 %)은 다른 칩과 다른 분할을 가져와 약간 변경된 데이터에 대해 더 좋아졌습니다.
50000행에 대해 300씩 이동을 반복했습니다. 새로운 행의 0.8%에 불과한 것처럼 보입니다. 그러나 5000행만큼 강하지는 않지만 OOS의 변화도 상당합니다.

일반적으로 창의 크기뿐만 아니라 창의 시작 부분에도 맞춤이 있습니다. 작은 오프셋은 결과에 큰 차이를 만듭니다. 강한 특징은 없으며 모든 것이 50/50 ± 1-2%의 가장자리에 있습니다.
 
인터벌 재교육은 잊어버리겠습니다. RL은 이미 이 문제에서 실패를 보여주었습니다. 마법사도 내가 이런 종류의 일에 빠졌을 때 그것에 대해 썼습니다.거기에 50 개 이상의 기사가 있습니다. 많은 접근 방식과 집중할 수 없음 :)
 

이 스레드의 전문가 및 학자 여러분, 다음 사항에 대해 의견을 제시해 주세요:

외환을 게임으로 본다면 어떨까요? 체스처럼요.
우리는 게임을 500단계씩 일괄적으로 나눕니다. 각 단계는 시간별 종가입니다. 500스텝은 한 달 평균 거래량입니다.
아무거나 + 잔고 상태를 입력합니다.
잔액이 30% 떨어지거나 게임이 마이너스 잔액으로 끝나면 게임이 다시 시작된다는 두 가지 규칙을 설정합니다.
총 N개의 게임(120개, 10년이라고 가정)
목표는 플러스에 상관없이 모든 게임에서 승리하는 것입니다.

에이전트의 행동:
1) 매수 0.01
2) 매수 0.02
3) 매수 0.03
4) 매수 0.04
5) 매수 0.05
6) 매수 0.06
7) 매수 0.07
8) 매수 0.08
9) 매수 0.09
10) 매수 0.1

11) 매도 0.01
12) 매도 0.02
13) 매도 0.03
14) 매도 0.04
15) 매도 0.05
16) 매도 0.06
17) 매도 0.07
18) 매도 0.08
19) 매도 0.09
20) 매도 0.10

21) 종가 0.01
22) 종가 0.02
23) 종가 0.03
24) 종가 0.04
25) 0.05
26) 0.06
27) 0.07
28) 0.08
29) 0.09
30) 0.10

31) 모두 닫기

32) 포지션 개설 안 함
33) 이동 건너뛰기

총 33개 동작

보상은 지연됩니다 - 포지션의 개시 가격과 부분 및 전체 포지션의 종가의 차이와 동일합니다.
입력 잔액은 에이전트가 알고 있는 상태의 일부분을 제공합니다. 결국 규칙에 따라 환경의 상태는 에이전트의 행동에 따라 변경되어야 합니다. 에이전트는 가격 그래프를 변경할 수는 없지만 상태에 입력되는 잔액에는 영향을 줄 수 있습니다. 마치 바둑판 위의 말과 비슷합니다. 에이전트는 몇 백만 단계를 수행 할 수 있는지 모르지만 보드에 남은 조각 수를 알고 있습니다.

따라서 다음 양초 (마이너스를 줄 것인지 플러스를 줄 것인지)를 모두 암기 할 필요는 없지만 마지막에 이익을 얻기 위해 작은 삭감 (게임 보드의 조각)을 희생하는 방법을 배웁니다.

나는 인터넷에서 신경망을 훈련시키는 방법 1 개 이상의 출력이있는 경우, 그들은 DQN에 대해 썼습니다. q- 러닝은 상태를 어리석게 암기하고 새로운 상태의 경우 결과가 비참한 것처럼 DQN은 암기 된 상태를 새로운 상태에 투영하여 결과적으로 over_dofig 동작에서 최적의 상태를 선택하는 것입니다.


결국 체스에는 조건부로 알려지지 않은 상태 수가 있으며 이러한 조건에서 신경망이 인간을 이깁니다. "빌어먹을 외환"이라는 게임에서 비슷한 방법을 시도해보는 건 어떨까요?

 
Ivan Butko #:

여러분,

질문이 뭐죠?
 
mytarmailS #:
그렇다면 질문은 무엇일까요?

에이전트에게 게임을 가르치면서 외환을 가르치는 것에 대한 의견.

이런 식으로 시도해 본 경험이 있나요?