트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3304

 
MetaQuotes #:
Scikit-learn 라이브러리의 분류 모델 및 ONNX로 내보내기 문서가 게시되었습니다.

다음은 사이트 자체에서 지원되는 목록입니다.

https://onnx.ai/sklearn-onnx/supported.html

기사에서 준비된 예제를 제공해 주셔서 감사합니다.

Supported scikit-learn Models#
  • onnx.ai
, # This version of the operator has been available since version 13. Absolute takes one input data (Tensor ) and produces one output data (Tensor ) where absolute value, y = abs(x), is applied to the tensor elementwise. T tensor(uint8), tensor(uint16), tensor(uint32), tensor(uint64), tensor(int8), tensor(int16), tensor(int32), tensor(int64...
 
Petros Shatakhtsyan #:


당시 브로커는 아직 틱 값을 수집하지 않았습니다. 제가 직접 했죠. 실제 틱을 수집하여 약 6개월 동안 파일에 부분적으로 저장했습니다. 이를 테스터에 적용했더니 완전히 다른 그림이 나타났습니다.


한 번 현명한 사업을하기로 결정한 것은 운이 좋았습니다... 이제 브로커는 더 이상 진드기 견적을 수집하지 않고 어딘가에서 가져 오거나 공급하며 MT 서버 업데이트와 관련이있을 수 있습니다.

때로는 육안으로 볼 수 있습니다-여기에는 신선한 진드기가 있고 여기에는 일반적인 헛소리가 있습니다. 그리고 몇 분만 있어도

사실, 실제 진드기의 아카이브는 매우 비싼 상품 인 특정 DC에서 가져온 것입니다. (밑줄을 통해서도)

 
Petros Shatakhtsyan #:

놀랐다니 놀랍네요.

설명할 수 없는 게 더 정확하죠. 생성 된 틱 스캘퍼를 작성하여 성배를 만드는 것은 한 가지입니다. 다른 하나는 미리 설정된 SL을 통한 청산으로 전혀 스캘퍼가 아닙니다. 생성된 틱에서 SL은 마이너스 슬리피지로 실행됩니다. 하지만 여전히 성배입니다.
 
Maxim Kuznetsov #:

한 번 현명한 사업을 하기로 결정한 것은 행운입니다... 이제 브로커는 더 이상 틱 호가를 수집하지 않고 다른 곳에서 가져 오거나 공급합니다; MT 서버 업데이트와 관련이있을 수 있습니다.

때로는 육안으로 볼 수 있습니다-여기에는 신선한 진드기가 있고 여기에는 일반적인 헛소리가 있습니다. 그리고 몇 분만 있어도

사실, 실제 진드기의 아카이브는 매우 비싼 상품 인 특정 DC에서 가져온 것입니다. (밑줄을 통해서도)

당신은 틀렸습니다. 각 브로커 자체에서 실제 틱을 수집하고 다음날 테스터에서 전날의 실제 틱을 얻을 수 있습니다.

그리고 정확히 그 틱은 필터링 후 브로커가 MT5에 제출합니다. "실제 틱을 기반으로 한 모든 틱" 모드에서 확인하거나 복사할 수 있습니다.

 

신경망에서 BP 표현을 올바르게 수행하는 방법에 대한 좋은 논문입니다. 물론 FFT는 제거할 수 있습니다. 그리고 다른 모델에 대한 추가 비교.

근본적인 차이점은 전처리가 네트워크 아키텍처에 내장되어 있다는 것입니다. 하지만 전처리는 별도로 수행할 수도 있습니다.

LSTM은 주기 간 변화를 고려하지 않기 때문에 백그라운드에서 연기가납니다.

또한 부스팅은 테스트에 따르면 순위에서 최하위권에 머물러 있습니다.
 
Maxim Dmitrievsky #:

신경망에서 BP 표현을 올바르게 수행하는 방법에 대한 좋은 논문입니다. 물론 FFT는 제거할 수 있습니다. 그리고 다른 모델에 대한 추가 비교.

근본적인 차이점은 전처리가 네트워크 아키텍처에 내장되어 있다는 것입니다. 하지만 전처리는 별도로 수행할 수도 있습니다.

LSTM은 주기 간 변화를 고려하지 않기 때문에 백그라운드에서 연기합니다.

부스팅은 테스트 결과 순위에서도 최하위권에 머물러 있습니다.
텍스트의 수준은 상당히 높지만 다중 주기성을 가진 시리즈에 과학을 적용하며 이는 분명히 가격이 아닙니다. 물론 지역 라디오 아마추어들은 다음과 같이 주장할 것입니다.)
 
얼마 전 포럼에서 누군가가 SB에 가까운 시리즈에 기간이있는 것처럼 보이기 때문에 효과의 이름을 지정했습니다 (아직 찾지 못했습니다). 이 효과는 과학의 많은 수치스러운 순간과 관련이 있으며, 푸리에가 프로세스에서 주기성을 "발견"하고 포럼에서 라디오 아마추어가 결코 오래 가지 않을 것입니다).
 
다중 테스트의 문제를 설명해 주실 수 있나요?
최적화 중에 반복 횟수가 많을수록 오버트레이닝 확률이 높아지는 이유


아니요, 검색(반복)을 많이 할수록 무작위가 아닌 것처럼 보이는 것을 찾을 확률이 높아진다는 것을 알고 있습니다.....

하지만 어떤 아이디어를 떠올린 다음 10000번이 아닌 10번의 반복으로 파라미터를 일치시킨다면 학습되지 않은 모델로 간주할 수 있나요?

결국,"우리가 생각해냈다"라는 문구 자체에는 일종의 사고 과정(반복)이 내포되어 있습니다.


최종 모델은 두뇌 반복인지 컴퓨터 반복인지, 그리고 둘 사이에 차이가 있는지 어떻게 알 수 있을까요?


프라도의 글을 읽고 나서 의문이 생겼습니다.

Pseudo-Mathematics and Financial Charlatanism: The Effects of Backtest Overfitting on Out-of-Sample Performance
  • papers.ssrn.com
We prove that high simulated performance is easily achievable after backtesting a relatively small number of alternative strategy configurations, a practice we
 
Aleksey Nikolayev #:
얼마 전 포럼에서 누군가가 SB에 가까운 시리즈에 기간이있는 것처럼 보이기 때문에 효과의 이름을 지정했습니다 (아직 찾지 못했습니다). 이 효과는 푸리에가 프로세스에서 주기성을 "발견"하고 포럼에서 라디오 아마추어가 결코 살아남지 못할 때 과학에서 많은 부끄러운 순간과 관련이 있습니다).

그 반대를 증명하는 방법은 무엇입니까?

제 생각에는 시간과 관련된 이벤트가 있습니다-같은 뉴스입니다. 예상, 악화, 개선의 세 가지 하위 샘플로 나누고 맥락을 고려하면 시장 참여자들의 유사한 행동을 발견 할 수 있다고 생각합니다.

또 다른 옵션은 상품의 계절성입니다.

 
mytarmailS 파라미터를 일치시킨다면 학습되지 않은 모델로 간주할 수 있나요?

결국,"우리가 생각해냈다"라는 문구 자체에는 일종의 사고 과정(반복)이 내포되어 있습니다.


최종 모델은 두뇌 반복인지 컴퓨터 반복인지, 그리고 둘 사이에 차이가 있는지 어떻게 알 수 있을까요?


프라도의 글을 읽고 나서 의문이 생겼습니다.

과잉학습은 희귀한 현상을 암기할 때 발생합니다. 이러한 현상은 원인과 결과를 설명하는 모델이 없기 때문에 순전히 통계적으로 분리되어 있습니다.

즉, 손실이 발생한다고 해서 항상 모델이 과도하게 학습되었다는 의미는 아닙니다.

사유: