트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 427

 
마이클 마르쿠카이테스 :

기본적으로는 중요하지 않습니다. 예측력 제로.

그래서 예측이 그것과 무슨 관련이 있는지, 이것은 결과에 대한 평가입니다. 눈으로 주식을 보고 이익을 드로다운으로 나눈 것과 동일하며, 대략 SR을 깨웁니다.

음, 예측이 가파를수록 SR이 높아집니다.

 
알료샤 :

그래서 예측이 그것과 무슨 관련이 있는지, 이것은 결과에 대한 평가입니다. 눈으로 주식을 보고 이익을 드로다운으로 나눈 것과 동일하며, 대략 SR을 깨웁니다.

음, 예측이 가파를수록 SR이 높아집니다.


그리고 이 경우. 그럼 네. 완전 공감....

 
산산이치 포멘코 :

여기 https://www.mql5.com/ru/blogs/post/160258에서 RF가 제안된 것 중 최고의 분류기라고 썼습니다. 이에 동의합니다. 그리고 3세대 디플러닝(오토인코더 사용)은 어떻습니까? 비교 테스트가 있었습니까?

Нужны ли нам сотни классификаторов для решения проблем классификации реального мира?
  • 2014.11.13
  • СанСаныч Фоменко
  • www.mql5.com
В статье оценивается доступные сегодня 179 классификаторов, принадлежащих к 17 семействам (дискриминантный анализ, Байес, нейронные сети, машины векторов поддержки SVM , деревья решений, основанные на...
 
알료샤 :



가르치 소개 내가 아는 한, 이것은 변동성을 예측하기 위한 선형 모델이며 시장의 방향을 예측하지 않는 것입니까, 아니면 제가 틀렸습니까?

GARCH는 변동성 모델로 다음 캔들의 방향과 크기를 예측합니다. TF는 M5, M30, D1 등 다를 수 있습니다. 그러나 일반적으로 이들은 고주파 거래에 이르기까지 소규모 TF입니다.

GARCH는 그 적용을 위해 역사적으로 훈련된 GARCH가 미래에 정확히 동일하게 행동할 것이라는 증거를 얻는 방식으로 원래 인용문을 분석할 필요가 있기 때문에 저를 매료시킵니다.

이는 향후 Expert Advisor의 자의적인 운영에 가장 큰 악으로 작용할 비정상성(가변평균 및 평균 편차 편차)과의 싸움에서 출발한 아이디어다.

모델 자체에는 세 가지 구성 요소가 있습니다.

초기 단계에서 가격 증분이 계산됩니다. 그런 다음 이 증분에 대해 공식이 작성됩니다.

1. 평균의 행동에 대해

2. 평균으로부터의 행동 편차(변동성). 지수 및 임계값 옵션을 포함하여 여기에는 수많은 옵션이 있습니다(모델의 선형성에 대해 말하는 것입니다).

3. 평균의 분포 법칙.


이러한 모든 부분 의 매개변수를 "정확하게" 선택할 수 있다면 나머지는 정규 분포를 따라야 하며 이는 과거 데이터와 유사하게 미래에 모델의 동작을 보장합니다.


어떻게 보면 매우 무례합니다.

 
막심 드미트리예프스키 :

여기 https://www.mql5.com/ru/blogs/post/160258에서 RF가 제안된 것 중 최고의 분류기라고 썼습니다. 이에 동의합니다. 그리고 3세대 디플러닝(오토인코더 사용)은 어떻습니까? 비교 테스트가 있었습니까?

diplerning은 약간 다른 오페라라고 들었습니다. 전체 주제는 그림이나 텍스트와 같은 계층 구조에서 단순 기능에 대한 자동 검색에 관한 것입니다. 모서리의 모서리와 선이 단순한 모양인 경우 더 복잡하다 등등. 시계열 의 경우 이것은 완전히 동일하지 않습니다. 따라서 딥 컨볼루션 신경망이 사진에서 고양이와 얼굴을 쿨하게 찾는다고 해서 시장을 쿨하게 예측한다는 의미는 아니며, 게다가 "딥"이라고 하는 모든 것이 사용자에게는 야생 출혈이고, C++, 많은 매개변수, 모든 것이 매우 불안정하고 결과는 무작위로 전체 네트워크를 처음부터 10번 재구축했습니다. 이것은 몇 년 동안 수행해야 합니다. 그러나 이것은 내 IMHO가 아니며 내 피부에서 경험하지 않았으며 아마도 경험하지 않을 것입니다.

 
알료샤 :

이것은 나쁜 결과는 아니지만 환상적인 결과입니다. 르네상스 시대에도 하루에 테라바이트의 데이터로 그러한 것은 없고 가깝습니다. 숫자 의 라이브 스코어보십시오 . 일체 포함 그리고 왜 그들이 적어도 45%의 오류( logloss ~ 0.69)를 가지고 있고 당신은 30%를 가지고 있는지 생각해 보십시오.

하지만 당신의 말은 사실입니다   기능과 관련하여 교활한 방식으로(분명히 명확하지 않음) 고유한 합성 대상 기능을 만들었습니다. 학습자와 테스트에서는 놀라운 속도를 가졌고 모든 것이 마치 ... 그러나, 어떤 이유로 당신은 아직 억만장자가 아닙니다. 그들이 다음 촛불의 색깔을 예측하는 데 30%의 오차가 있었다면 그리고 모두 당신이 미래를 예측하지 않았기 때문에 약 1년 안에 억만장자가 되었을 것이지만, 미래와 뒤섞인 과거, 지표를 통해. 깨끗한 미래 수익을 예측하려고 노력하면 모든 것이 제자리에 들어갈 것입니다.

당신은 많은 말을했지만 본질적으로 아무 말도하지 않았으며 ZZ에 무엇이 잘못되었고 무엇이 필요한지 모든 사람에게 소리 지르지 않고 즉시 보여 주겠다고 제안했습니다.

 
기계 학습 및 수학에 관한 책, 비디오 및 코스 목록이 모두 러시아어로 제공됩니다. 대규모 고품질 컬렉션. 책의 거의 모든 pdf'ki는 구글링됩니다.
https://ru.stackoverflow.com/a/683632/1084
Книги и учебные ресурсы по машинному обучению
Книги и учебные ресурсы по машинному обучению
  • ru.stackoverflow.com
Для тех, кто хочет на русском языке почитать: Хараламбос Марманис, Дмитрий Бабенко Алгоритмы интеллектуального Интернета. Передовые методики сбора, анализа и обработки данных источник К. В. Воронцов. Математические методы обучения по прецедентам (теория обучения машин) источник Мерков А.Б. Введение в методы статистического обучения...
 
제냐 :

diplerning은 약간 다른 오페라라고 들었습니다. 전체 주제는 그림이나 텍스트와 같은 계층 구조에서 단순 기능에 대한 자동 검색에 관한 것입니다. 모서리의 모서리와 선이 단순한 모양인 경우 더 복잡하다 등등. 시계열의 경우 이것은 완전히 동일하지 않습니다. 따라서 딥 컨볼루션 신경망이 사진에서 고양이와 얼굴을 쿨하게 찾는다고 해서 시장을 쿨하게 예측한다는 의미는 아니며, 게다가 "딥"이라고 하는 모든 것이 사용자에게는 야생 출혈이고, C++, 많은 매개변수, 모든 것이 매우 불안정하고 결과는 무작위로 전체 네트워크를 처음부터 10번 재구축했습니다. 이것은 몇 년 동안 수행해야 합니다. 그러나 이것은 내 IMHO가 아니며 내 피부에서 경험하지 않았으며 아마도 경험하지 않을 것입니다.

악마는 그가 그린 것만큼 무섭지 않습니다 ..

별로 어렵지 않습니다. 이 몇 가지 기사( 1 , 2 , 3 , 4 )부터 시작하세요. 모든 것이 즉시 작동하는 것은 아니며 분명할 것이지만 이점이 있을 것입니다.

행운을 빕니다

 
제냐 :

diplerning은 약간 다른 오페라라고 들었습니다. 전체 주제는 그림이나 텍스트와 같은 계층 구조에서 단순 기능에 대한 자동 검색에 관한 것입니다. 모서리의 모서리와 선이 단순한 모양인 경우 더 복잡하다 등등. 시계열의 경우 이것은 완전히 동일하지 않습니다. 따라서 딥 컨볼루션 신경망이 사진에서 고양이와 얼굴을 쿨하게 찾는다고 해서 시장을 쿨하게 예측한다는 의미는 아니며, 게다가 "딥"이라고 하는 모든 것이 사용자에게는 야생 출혈이고, C++, 많은 매개변수, 모든 것이 매우 불안정하고 결과는 무작위로 전체 네트워크를 처음부터 10번 재구축했습니다. 이것은 몇 년 동안 수행해야 합니다. 그러나 이것은 내 IMHO가 아니며 내 피부에서 경험하지 않았으며 아마도 경험하지 않을 것입니다.

그것은 분명합니다. 실제로 아무도 여기에서 비교하지 않았다고 생각합니다. :) Diplerning이 숲에 비해 이점을 제공하지 않는 것으로 판명되면 결국 나는 속지 않기 위해 정보를 찾을 것입니다. 그리고 거기에 있는 컴포넌트는 MLP라서 안줄수도 있고..

그건 그렇고, 2개 이상의 레이어가 있는 모든 것을 디플러닝이라고 하고, 2개의 은닉 레이어가 있는 MLP도 디플러닝입니다. 나는 Vladimir가 위 링크의 기사에서 설명한 심층 네트워크를 의미했습니다.

모델이 거의 동일하게 작동하기 때문에 예측 변수가 가장 중요하다고 쓰지만 .. 이것은 이론이지만 실제로는 속도와 품질 사이의 절충안과 같이 모델 선택도 매우 중요하다는 것이 밝혀졌습니다. , NN은 일반적으로 길기 때문에 ...

글쎄, 리바를 통한 P - MT5의 무리는 속도와 편의성 면에서 실제로 결함이 있습니다. 왼쪽 소프트웨어가 없는 네이티브가 필요하거나 MT5에서 P 서버로 직접 연결이 필요하지만 네이티브가 더 좋습니다. 1 μl당 필요한 신경망을 C++에서 다시 작성하는 데 1번이 소요됩니다.

아, IMHO를 추가하는 것을 잊었습니다.

 

흠... 흠... 나는 모든 것에 대해 생각하고, 생각하고...

ARMA \ GARCH 와 같은 클래식 모델의 무리가 있습니다. CNN \ LSTM 과 같은 완전한 휴식으로 모든 사람이 가장 좋아하는 MLP \ RF \ XGB 중간 어딘가에 등. 그러나 이것이 어떻게 통일될 수 있습니까? 예를 들어 특별한 라이브러리와 교육 없이 어디에서나 읽을 수 있는 보편적인 형식으로 훈련된 모델을 교환/판매할 수 있습니다. 누군가에게 중요하지 않은 모델을 전송하려고 시도한 사람은 아마 제 말을 이해할 것입니다)))

그리고 그 숫자 를 깨달았습니다. 일체 포함 - 이 문제를 해결했습니다! 그들에게 전송되는 것은 실제로 예측만 하는 것이 아니라, 충분히 정확하게 샘플링된 어리석게 완성된 모델입니다. 사실 그래야 하고, 그렇지 않으면 어떻게 미래의 기능을 미리 얻어서 답을 줄 수 있겠습니까? 기능은 실시간이고, 미리 알 수 없습니다. 그러나 N 차원 공간을 포인트 그리드로 채우면 새 포인트의 예측은 그리드에서 가장 가까운 포인트가 될 것이며 인덱스별로 배열 요소 로 즉시 검색됩니다. 그리고 이러한 모델에서는 간단하고 정교한 모델을 돌릴 수 있으며 전송 및 사용이 쉽고 비밀을 공개하지 않습니다.

존경 번호 . 아이고 , 좋은 생각이야!

나는 그것이 우리의 비참한 공동체에서 어떻게 사용될 수 있는지 생각해 볼 것을 제안합니다)))

사유: