도서관 : 나는 단지 우리가 사용할 수 있는 네트워크가 더 복잡한 거래 작업에 적용하기 전에 간단한 작업을 처리할 수 있는지 확인하고 싶습니다.
사각형 그리고 가장 고전적인 MLP 는 문제 없이 원을 인식하는 법을 쉽게 배울 것입니다. 주제에 조금 더 깊이 들어가면 손으로 쓴 숫자를 인식하는 고전적인 작업 MNIST 를 만날 수 있습니다. 일반적인 MLP 는 산들 바람으로 최대 97%, 그런 다음 삐걱 거리는 소리와 함께 또 다른 반 퍼센트, 탬버린으로 춤이 이미 시작됩니다. 실제로 이러한 상황 패턴은 많은 ML 작업에서 인식되며, 전투는 주로 충분한 결과가 아니라 점수의 소수점 이하 3-5자리 자리를 위한 것입니다.
일반적으로 분에 대해 이야기하면 시장은 통계적으로 동질적입니다. 통계는 매주, 매월, 거의 변하지 않습니다. 대규모 TF에서는 이 문제를 연구한 적이 없습니다. 내가 기억하는 한 당신은 1분 동안 일합니다.
15분 메인 TF, 또는 OHLC에 의한 분이지만 작업자는 여전히 15분입니다. 나는 그것을 진드기로 원하지만 매우 느리게 최적화됩니다. 이제 한 사람이 C ++로 테스터를 작성하고 있습니다. 여기서 선택하는 것이 훨씬 빠를 것입니다.
원칙적으로 짧은 시간 동안 자주 다시 최적화하면 몇 분 동안 할 수 있습니다. 물론 Grail은 아니지만 무언가를 얻을 수 있습니다.
블로그에 MA- NEURAL NETWORK AND MOVING AVERAGE INTERCEPTION 의 NN 교집합 인식 문제에 대한 간략한 보고서를 약속한 대로 게시했습니다.
뉴스, 기사 등에서 예를 들어 새끼 고양이와 강아지를 구별하는 신경망의 업적에 대해 이야기합니다. 하지만 분명히 거기에 있습니다. 일반 거래자가 감당할 수 없고 개발할 수 없는 값비싼 상업 또는 실험 네트워크.
그러나 우리가 사용할 수 있는 NN(예: R 또는 ALGLIB)은 삼각형, 사각형 및 원과 같은 원시적인 것들을 서로 구별할 수 있습니까? 마치 2-3세 어린이를 위한 교육용 게임에서처럼.
이 주제에 대한 자료는 https://www.mql5.com/ru/forum/192779 새 스레드에 정리할 수 있으므로 (결과가 있고 실험을 반복할 기회가 있는 경우) 발견하고 반복했고 여기 350페이지에서 이미 무언가를 찾기가 어렵습니다...뉴스, 기사 등에서 예를 들어 새끼 고양이와 강아지를 구별하는 신경망의 업적에 대해 이야기합니다. 하지만 분명히 거기에 있습니다. 일반 거래자가 감당할 수 없고 개발할 수 없는 값비싼 상업 또는 실험 네트워크.
그러나 우리가 사용할 수 있는 NN(예: R 또는 ALGLIB)은 삼각형, 사각형 및 원과 같은 원시적인 것들을 서로 구별할 수 있습니까? 마치 2-3세 어린이를 위한 교육용 게임에서처럼.
글쎄, 매우 복잡한 옵션 - 방대한 수치 ...
Alglib은 계정을 인식하지 못하지만 R에서는 가능합니다. 이를 위해서는 크기가 약 16x16인 입력 행렬이 필요합니다. 이것은 256개의 입력 뉴런입니다.) 글쎄요. 엠.비. 약간 부족. 인터넷에서 유사한 작업에 대한 준비된 구현을 찾을 수 있습니다.
턴으로도 가능하지만 국회는 더 깊어지고 어려워질 것이다. 개인적으로는 합격입니다.))
그러나 TS 구성을 위해 이 양식에서 귀하의 작업을 사용하는 것을 볼 수 없습니다.
그러나 TS 구성을 위해 이 양식에서 귀하의 작업을 사용하는 것을 볼 수 없습니다.
나는 단지 우리가 사용할 수 있는 네트워크가 더 복잡한 거래 작업에 적용하기 전에 간단한 작업을 처리할 수 있는지 확인하고 싶습니다.
나는 단지 우리가 사용할 수 있는 네트워크가 더 복잡한 거래 작업에 적용하기 전에 간단한 작업을 처리할 수 있는지 확인하고 싶습니다.
사각형 그리고 가장 고전적인 MLP 는 문제 없이 원을 인식하는 법을 쉽게 배울 것입니다. 주제에 조금 더 깊이 들어가면 손으로 쓴 숫자를 인식하는 고전적인 작업 MNIST 를 만날 수 있습니다. 일반적인 MLP 는 산들 바람으로 최대 97%, 그런 다음 삐걱 거리는 소리와 함께 또 다른 반 퍼센트, 탬버린으로 춤이 이미 시작됩니다. 실제로 이러한 상황 패턴은 많은 ML 작업에서 인식되며, 전투는 주로 충분한 결과가 아니라 점수의 소수점 이하 3-5자리 자리를 위한 것입니다.
MA로 실험한 후 이 단계에서 NS의 입력에 공급되는 데이터를 준비할 때 TS에서 NN을 사용하는 주요 문제를 봅니다. 원시 데이터는 대부분의 NS에서 먹을 수 없습니다.
이 스레드는 주로 이 문제를 해결하기 위해 시작되었습니다. 그러나 자신의 경험에서 이 문제의 중요성을 확인하는 것이 훨씬 더 유용합니다. 당신은 어렵지만 흥미로운 여정의 시작에 있습니다.
행운을 빕니다
추신. R에서는 Python을 통해 현재 알려진 모든 가장 복잡한 신경망을 사용할 수 있습니다. 그것들을 사용하는 방법을 배우기만 하면 됩니다.
예, 그리고 그와 농담하십시오.
어리석게도 우리는 가장 단순한 것, 즉 랜덤 포레스트를 취합니다. 일반적으로 교육의 결과로 수업을 받습니다. 실제로 알고리즘은 클래스의 확률을 제공하며 여기서 클래스를 얻습니다. 일반적으로 두 클래스에서 확률을 반으로 나눕니다.
그리고 다음과 같이 클래스로 나누면 0 - 0.1이 하나의 클래스이고 0.9 - 1.0이 다른 클래스인가요? 그리고 0.1 - 0.9 사이의 간격은 시장에서 벗어 났습니까?
다음은 기사에서 본 내용입니다.
보다 정확하고 우아하게 이것은 calibration::CORELearn/ 에서 해결됩니다.
그리고 꽤 오랫동안.
행운을 빕니다