트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 436

 
도서관 :
효과가 있었습니다. 감사합니다! 하셨다니 흥미롭네요...
가장 유사한 1개의 옵션을 찾습니까, 아니면 여러 옵션에 대해 평균을 내고 있습니까? 분명히 1 베스트를 찾습니다. 10개 또는 100개 옵션으로 평균 예측을 찾아야 하는 것 같습니다(옵티마이저가 정확한 수를 결정해야 함).

예, 여기에 1개의 가장 좋은 옵션이 표시됩니다. 많은 옵션을 신경 쓰지 않았습니다. 내 글을 이해하면 다시 시도할 수 있습니다)
 
박사 상인 :

내 뉴런은 가격만으로 수익성 있게 거래하는 방법을 결코 배울 수 없었습니다. 그리고 패턴 모델은 여기에서 선택이 분명했습니다. :)

"패턴"을 찾는 것과 통계적 이점을 갖는 것은 완전히 다른 것입니다. IMHO 나는 그것을 매우 의심합니다. 사실, 평균을 사용하여 역사적 시리즈의 전체 길이에 걸쳐 컨볼루션(곱, 차이)에 의한 패턴 검색은 ONE NEURON으로 NN에서 회귀를 수행하는 것과 같습니다. 즉, 매우 어리석은 기능을 가진 가장 단순한 선형 모델입니다. 있는 그대로의 가격.

 
제냐 :

"패턴"을 찾는 것과 통계적 이점을 갖는 것은 완전히 다른 것입니다. IMHO 나는 그것을 매우 의심합니다. 사실, 평균을 사용하여 역사적 시리즈의 전체 길이에 걸쳐 컨볼루션(곱, 차이)에 의한 패턴 검색은 ONE NEURON으로 NN에서 회귀를 수행하는 것과 같습니다. 즉, 매우 어리석은 기능을 가진 가장 단순한 선형 모델입니다. 있는 그대로의 가격.

이것이 하나의 뉴런인 경우 입력의 수는 패턴의 길이와 같습니다(30개 막대의 패턴 = 500개 막대의 30개 NS 입력 = 500개 NS 입력).

내 생각에 NS의 내부 층에 있는 많은 뉴런은 10 - 50 -100개의 추가 메모리와 유사합니다. 뉴런은 각각 10 - 50 - 100개의 기억된 입력 신호 변형입니다. 그리고 템플릿을 역사의 375,000개 변형(연간 M1)과 비교하면 가장 일반적인 옵션의 10 -50 - 100이 아니라 절대적으로 정확하고 완전한 메모리가 있습니다. 또한, 이 메모리에서 템플릿 파인더는 가장 유사한 N개의 결과를 식별하고 평균 예측을 수신하는 반면, 신경망은 유사한 템플릿을 가진 뉴런 간의 연결 가중치를 증가시킵니다.

컨볼루션을 사용하는 이유는 여전히 불분명합니다. 히스토리의 각 옵션으로 원하는 템플릿을 컨벌루션할 것을 제안한다고 가정합니다. 결과적으로 3번째 시간 시퀀스를 얻습니다. 그리고 이것이 템플릿과 옵션의 유사성을 결정하는 데 어떻게 도움이 될까요? 확인 중?
 
도서관 :

이것이 하나의 뉴런인 경우 입력의 수는 패턴의 길이와 같습니다(30개 막대의 패턴 = 500개 막대의 30개 NS 입력 = 500개 NS 입력).

정확히.
도서관 :
컨볼루션을 사용하는 이유는 여전히 불분명합니다. 히스토리의 각 옵션으로 원하는 템플릿을 컨벌루션할 것을 제안한다고 가정합니다. 결과적으로 3번째 시간 시퀀스를 얻습니다. 그리고 이것이 템플릿과 옵션의 유사성을 결정하는 데 어떻게 도움이 될까요? 확인 중?
템플릿을 접고 극단이있는 행을 접고 가장 유사한 행이 있었고 모든 것이 간단합니다. 예를 들어, 시리즈가 {0,0,0,1,2,3,1,1,1}이고 그 안에서 {1,2,3} 패턴을 찾으려고 할 때 컨볼루션은 {0,0을 제공합니다. ,0,3,8,14,11,8, 6} (눈으로 계산) 14는 템플릿의 "머리"가 있는 최대값입니다. 물론 컨볼루션 전에 벡터(mo=0,length=1)를 정규화하는 것이 바람직합니다.
 
막심 드미트리예프스키 :

예, 여기에 1개의 가장 좋은 옵션이 표시됩니다. 많은 옵션을 신경 쓰지 않았습니다. 내 글을 이해하면 다시 시도할 수 있습니다)

사진보면서 뭔가 안맞아요...
다음은 임의의 예입니다.

파란색 예측선은 유사한 옵션의 약한 움직임과 함께 매우 가파르게 내려갑니다...
방금 Photoshop에서 이 옵션을 설정했는데 이론상으로는 그다지 멋지지 않고 논리적입니다.


 
도서관 :

사진보면서 뭔가 안맞아요...
다음은 임의의 예입니다.

파란색 예측선은 유사한 옵션의 약한 움직임과 함께 매우 가파르게 내려갑니다...
방금 Photoshop에서 이 옵션을 설정했는데 이론상으로는 그다지 멋지지 않고 논리적입니다.


우리는 :) 특정 상황에서 어떤 이유로 각도를 올바르게 계산하지 않는다는 것을 알았습니다. 단일 시간 프레임 버전에서 다중 시간 프레임 버전으로 다시 작성한 후 시작되었으며 잼이 있는 위치를 잡지 못했습니다.

그건 그렇고 제가 아예 생각을 제대로 못했을 수도 있어요.. 포토샵으로 확인해볼 생각을 못했네요. 이전 차트와 예측 사이의 각도는 동일해야 합니다.

 
제냐 :
정확히.
템플릿을 접고 극단이있는 행을 접고 가장 유사한 행이 있었고 모든 것이 간단합니다. 예를 들어, 시리즈가 {0,0,0,1,2,3,1,1,1}이고 그 안에서 {1,2,3} 패턴을 찾으려고 할 때 컨볼루션은 {0,0을 제공합니다. ,0,3,8,14,11,8, 6} (눈으로 계산) 14는 템플릿의 "머리"가 있는 최대값입니다. 물론 컨볼루션 전에 벡터를 정규화하는 것이 바람직합니다.

왜 그렇게 어렵게 만드나요? 특히 {0,0,0,1,2,3,1,1,1} 계열에서 {1,2,3}을 찾을 수 있다면 컨볼루션에서 극값을 찾는 이유는 무엇입니까? 복잡하고 계산 시간이 늘어나는 것 외에 별다른 장점이 보이지 않습니다.

 
도서관 :

왜 그렇게 어렵게 만드나요? 특히 {0,0,0,1,2,3,1,1,1} 계열에서 {1,2,3}을 찾을 수 있다면 컨볼루션에서 극값을 찾는 이유는 무엇입니까? 복잡하고 계산 시간이 늘어나는 것 외에 별다른 장점이 보이지 않습니다.

음... 그리고 "구체적으로 검색"한다는 것은 무엇을 의미합니까? 컨볼루션보다 빠른 알고리즘의 예를 들어 주십시오.

두 연산은 벡터의 차이와 스칼라 곱의 길이를 사용할 수 있습니다. 차이의 길이는 3-10배 더 느립니다. 구성요소별 차이, 제곱, 합, 근 추출 및 컨볼루션 곱하기 그리고 추가

길이가 3인 시리즈의 각 조각을 벡터로 가져와서 {1,2,3}과 "유사성"으로 비교해야 합니다.

 
제냐 :

음... 그리고 "구체적으로 검색"한다는 것은 무엇을 의미합니까? 컨볼루션보다 빠른 알고리즘의 예를 들어 주십시오.

가장 간단한 단계 - 시퀀스 전체에서 창 너비를 원하는 예제로 이동하고 abs의 합을 찾습니다. 델타 값:

0,0,0 및 1,2,3 오류 = (1-0)+(2-0)+(3-0)=6

0,0,1 및 1,2,3 오류 = (1-0)+(2-0)+(3-1)=5

0,1,2 및 1,2,3 오류 = (1-0)+(2-1)+(3-2)=3

1,2,3 및 1,2,3 오류 = (1-1)+(2-2)+ (3-3) = 0

2,3,1 및 1,2,3 오류 = (2-1)+(3-2)+Abs(1-3) = 4

최소 오류가 있는 곳에 최대 유사성이 있습니다.


 
막심 드미트리예프스키 :

우리는 :) 특정 상황에서 어떤 이유로 각도를 올바르게 계산하지 않는다는 것을 알았습니다. 단일 시간 프레임 버전에서 다중 시간 프레임 버전으로 다시 작성한 후 시작되었으며 잼이 있는 위치를 잡지 못했습니다.

그건 그렇고 제가 아예 생각을 제대로 못했을 수도 있어요.. 포토샵으로 확인해볼 생각을 못했네요. 이전 차트와 예측 사이의 각도는 동일해야 합니다.

경사각이 이렇게 큰 차이가 나는 유사한 그래프를 고려하는 것이 옳은 것인지는 아직 잘 모르겠습니다. 같은 예에서:

발견된 옵션은 추세의 상단 또는 추세 끝에서 롤백하여 템플릿 차트로 전송하고 반전이 아닌 하락 추세의 지속에 대한 예측을 제공합니다. 실제로는 반대 신호 . 여기에 뭔가 잘못되었습니다 .... 아마도 이러한 아핀 변환이 필요하지 않습니다 ....? 그리고 단순 상관관계(최소 오차)로 충분합니까?

사유: