트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 353

 
유리 아사울렌코 :
일반적으로 분에 대해 이야기하면 시장은 통계적으로 동질적입니다. 통계는 매주, 매월, 거의 변하지 않습니다. 대규모 TF에서는 이 문제를 연구한 적이 없습니다. 내가 기억하는 한 당신은 1분 동안 일합니다.


15분 메인 TF, 또는 OHLC에 의한 분이지만 작업자는 여전히 15분입니다. 나는 그것을 진드기로 원하지만 매우 느리게 최적화됩니다. 이제 한 사람이 C ++로 테스터를 작성하고 있습니다. 여기서 선택하는 것이 훨씬 빠를 것입니다.

원칙적으로 짧은 시간 동안 자주 다시 최적화하면 몇 분 동안 할 수 있습니다. 물론 Grail은 아니지만 무언가를 얻을 수 있습니다.


 
Q 학습이나 다른 강화 알고리즘을 구현하려고 시도한 사람이 있습니까? 아마도 그러한 지인이 있습니까? 통계에 관심이 있는데 예금 관리 업무에 얼마나 잘 대처하고 있습니까? 이 주제에 대한 몇 가지 기사를 찾았지만 거기에 있는 결론은 다소 혼란스럽고 모호합니다.
 
블로그에 MA- NEURAL NETWORK AND MOVING AVERAGE INTERCEPTION 의 NA 교차 인식 문제에 대한 간략한 보고서를 약속한 대로 게시했습니다.
 
유리 아사울렌코 :
블로그에 MA- NEURAL NETWORK AND MOVING AVERAGE INTERCEPTION 의 NN 교집합 인식 문제에 대한 간략한 보고서를 약속한 대로 게시했습니다.

뉴스, 기사 등에서 예를 들어 새끼 고양이와 강아지를 구별하는 신경망의 업적에 대해 이야기합니다. 하지만 분명히 거기에 있습니다. 일반 거래자가 감당할 수 없고 개발할 수 없는 값비싼 상업 또는 실험 네트워크.

그러나 우리가 사용할 수 있는 NN(예: R 또는 ALGLIB)은 삼각형, 사각형 및 원과 같은 원시적인 것들을 서로 구별할 수 있습니까? 마치 2-3세 어린이를 위한 교육용 게임에서처럼.

이 주제에 대한 자료는 https://www.mql5.com/ru/forum/192779 새 스레드에 정리할 수 있으므로 (결과가 있고 실험을 반복할 기회가 있는 경우) 발견하고 반복했고 여기 350페이지에서 이미 무언가를 찾기가 어렵습니다...
Насколько доступные трейдерам нейросети умны?
Насколько доступные трейдерам нейросети умны?
  • 2017.05.16
  • www.mql5.com
В новостях, статьях и т.д. говорят о достижениях нейросетей, например, что они котят от щенят отличают и т.д. Но очевидно там оч...
 
도서관 :

뉴스, 기사 등에서 예를 들어 새끼 고양이와 강아지를 구별하는 신경망의 업적에 대해 이야기합니다. 하지만 분명히 거기에 있습니다. 일반 거래자가 감당할 수 없고 개발할 수 없는 값비싼 상업 또는 실험 네트워크.

그러나 우리가 사용할 수 있는 NN(예: R 또는 ALGLIB)은 삼각형, 사각형 및 원과 같은 원시적인 것들을 서로 구별할 수 있습니까? 마치 2-3세 어린이를 위한 교육용 게임에서처럼.

글쎄, 매우 복잡한 옵션 - 방대한 수치 ...

Alglib은 계정을 인식하지 못하지만 R에서는 가능합니다. 이를 위해서는 크기가 약 16x16인 입력 행렬이 필요합니다. 이것은 256개의 입력 뉴런입니다.) 글쎄요. 엠.비. 약간 부족. 인터넷에서 유사한 작업에 대한 준비된 구현을 찾을 수 있습니다.

턴으로도 가능하지만 국회는 더 깊어지고 어려워질 것이다. 개인적으로는 합격입니다.))

그러나 TS 구성을 위해 이 양식에서 귀하의 작업을 사용하는 것을 볼 수 없습니다.

 
유리 아사울렌코 :

그러나 TS 구성을 위해 이 양식에서 귀하의 작업을 사용하는 것을 볼 수 없습니다.

나는 단지 우리가 사용할 수 있는 네트워크가 더 복잡한 거래 작업에 적용하기 전에 간단한 작업을 처리할 수 있는지 확인하고 싶습니다.
 
도서관 :
나는 단지 우리가 사용할 수 있는 네트워크가 더 복잡한 거래 작업에 적용하기 전에 간단한 작업을 처리할 수 있는지 확인하고 싶습니다.
MA로 실험한 후 이 단계에서 NS의 입력에 공급되는 데이터를 준비할 때 TS에서 NN을 사용하는 주요 문제를 봅니다. 원시 데이터는 대부분의 NS에서 먹을 수 없습니다.
 
도서관 :
나는 단지 우리가 사용할 수 있는 네트워크가 더 복잡한 거래 작업에 적용하기 전에 간단한 작업을 처리할 수 있는지 확인하고 싶습니다.

사각형   그리고 가장 고전적인 MLP 는 문제 없이 원을 인식하는 법을 쉽게 배울 것입니다. 주제에 조금 더 깊이 들어가면 손으로 쓴 숫자를 인식하는 고전적인 작업 MNIST 를 만날 수 있습니다. 일반적인 MLP 는 산들 바람으로 최대 97%, 그런 다음 삐걱 거리는 소리와 함께 또 다른 반 퍼센트, 탬버린으로 춤이 이미 시작됩니다. 실제로 이러한 상황 패턴은 많은 ML 작업에서 인식되며, 전투는 주로 충분한 결과가 아니라 점수의 소수점 이하 3-5자리 자리를 위한 것입니다.

 
유리 아사울렌코 :
MA로 실험한 후 이 단계에서 NS의 입력에 공급되는 데이터를 준비할 때 TS에서 NN을 사용하는 주요 문제를 봅니다. 원시 데이터는 대부분의 NS에서 먹을 수 없습니다.

이 스레드는 주로 이 문제를 해결하기 위해 시작되었습니다. 그러나 자신의 경험에서 이 문제의 중요성을 확인하는 것이 훨씬 더 유용합니다. 당신은 어렵지만 흥미로운 여정의 시작에 있습니다.

행운을 빕니다

추신. R에서는 Python을 통해 현재 알려진 모든 가장 복잡한 신경망을 사용할 수 있습니다. 그것들을 사용하는 방법을 배우기만 하면 됩니다.

 
산산이치 포멘코 :


예, 그리고 그와 농담하십시오.

어리석게도 우리는 가장 단순한 것, 즉 랜덤 포레스트를 취합니다. 일반적으로 교육의 결과로 수업을 받습니다. 실제로 알고리즘은 클래스의 확률을 제공하며 여기서 클래스를 얻습니다. 일반적으로 두 클래스에서 확률을 반으로 나눕니다.

그리고 다음과 같이 클래스로 나누면 0 - 0.1이 하나의 클래스이고 0.9 - 1.0이 다른 클래스인가요? 그리고 0.1 - 0.9 사이의 간격은 시장에서 벗어 났습니까?

다음은 기사에서 본 내용입니다.

보다 정확하고 우아하게 이것은 calibration::CORELearn/ 에서 해결됩니다.

그리고 꽤 오랫동안.

행운을 빕니다

사유: