트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1050

 
Alexander_K :

Alyoshenka와 Sorcerer(신경망 거래에 성공한 유일한 사람)

증거가 있습니까?

Alexander_K :

입력 데이터를 준비하는 데 많은 시간이 소요됩니다.

뭐, MO의 초보자라도 출구에 쓰레기를 입구에 쓰레기라고 하는 것이 기준인 것 같습니다

Alexander_K :

일부러, 내 게시물로 피드백을 유도합니다 :))) 아아, 그들은 이 비밀을 지킵니다...

))) 재미있는

 
mytarmailS :

증거가 있습니까?

그들은 거의 항상 자신의 게시물을 삭제합니다. 당신은 그들과 온라인으로 소통하기만 하면 됩니다.

 
Alexander_K :

그들은 거의 항상 자신의 게시물을 삭제합니다. 당신은 그들과 온라인으로 소통하기만 하면 됩니다.

아, 이해가 되는군요...

 
Alexander_K :

그들은 거의 항상 자신의 게시물을 삭제합니다. 당신은 그들과 온라인으로 소통하기만 하면 됩니다.

불명예를 피하기 위해 삭제) 그리고 당신은 그들에 대한 신화를 지지합니다

 
막심 드미트리예프스키 :

불명예를 피하기 위해 삭제) 그리고 당신은 그들에 대한 신화를 지지합니다

아마도 그렇게 될 것입니다. Max - 나는 논쟁하지 않습니다 :))

 
mytarmails :

그리고 레셰토프? , 글쎄요, 그는 "MGUA"에 대해 잘 알고 있습니다. 그는 그렇게 말했습니다.

내 생각에는 예측자를 반복하고 모델을 만든 다음 복잡성이 증가하는 모델에서 모델을 만드는 아이디어가 매우 정확합니다.

그러나 아마도 실수는 예측 변수가 아니라 거래 시스템의 솔루션을 분류해야 한다는 것입니다. 환경에서? 아니면 다른 감염...

여기에서 모델을 서로 겹쳐 쌓거나 다른 것을 쌓기 위해 IMHO는 이미 너무 많습니다. 그들이 정말로 쓰레기를 배운다면 이것은 도움이 되지 않을 것입니다. 이것들은 개선의 일부일 뿐이며 아무 것도 아닙니다.

오류가 없으며 일정한 패턴이 없을뿐입니다)

그건 그렇고, 내가 Reshetov의 소프트웨어를 고를 때 프로그램 라이브러리의 하위 디렉토리 이름이나 내가 만난 곳에서

http://www.gmdh.net/gmdh.htm

그래서 하나였습니다. Java 및 해당 프로그램에도 libs가 있습니다.

그런 다음 그는 변환된 기능에 대해 반복적으로 훈련되는 SVM 및 MLP의 2가지 분류기를 탠덤으로 가지고 있습니다. 그래서 시간이 오래 걸리고 모든 것이 작동합니다.

Метод МГУА для социально экономического прогнозирования, математического моделирования, статистического анализа данных, аналитической оценки систем и программирования.
  • Григорий Ивахненко
  • www.gmdh.net
Метод Группового Учета Аргументов применяется в самых различных областях для анализа данных и отыскания знаний, прогнозирования и моделирования систем, оптимизации и распознавания образов. Индуктивные алгоритмы МГУА дают уникальную возможность автоматически находить взаимозависимости в данных, выбрать оптимальную структуру модели или сети, и...
 
막심 드미트리예프스키 :

여기에서 모델을 서로 겹쳐 쌓거나 다른 것을 쌓기 위해 IMHO는 이미 너무 많습니다. 그들이 정말로 쓰레기를 배운다면 이것은 도움이 되지 않을 것입니다. 이것들은 개선의 일부일 뿐이며 아무 것도 아닙니다.

울타리가 아니라 더 원시적 인 것에서 더 복잡한 것을 만드는 것이 자연 자체의 원리입니다. 당신과 나는 정자에서 얻었습니다)) 또는 더 멀리 보면 생각에서 ..) 그리고 이제 그들은 자랐습니다. )

그래서 모델의 컴플리케이션에는 문제가 없으며, 게다가 컴플리케이션은 외부 및 내부 기준으로 확인하고, 샘플 내부와 샘플 외부에서 오차를 측정하고, 컴플리케이션 중에 오차가 커지기 시작하면 알고리즘이 멈춥니다.. . 아직 직접 적용해보진 않았지만 인상깊은 방법이 너무 마음에 들어요

 
mytarmailS :

울타리가 아니라 더 원시적 인 것에서 더 복잡한 것을 만드는 것이 자연 자체의 원리입니다. 당신과 나는 정자에서 얻었습니다)) 또는 생각에서 더 멀리 보면 ..)

그래서 모델의 컴플리케이션에는 이상이 없고, 게다가 컴플리케이션은 내외부 기준으로 체크하고, 오차는 샘플 내부와 샘플 외부에서 측정하는데... 아직 직접 적용해보진 않았지만 방법은 나에게 정말로 호소한다

우리는 기능이 있는 일반 행렬을 사용합니다. 각 반복에서 모든 기능에서 새로운 복합 기능을 추가하고, 재학습하고, 이 Kolmogorov 다항식을 통해 이 기능을 더 복잡한 기능으로 변경하고, 오류가 떨어질 때까지 5개를 재학습합니다.

그러나 실제로는 시끄러운 데이터에서 그런 지옥 같은 일이 일어날 것입니다.

오류가 여전히 나쁘면 이러한 모든 다항식 기능을 가져와서 새로운 기능을 만듭니다. :) 매우 빠른 신경망이나 선형 모델만 있으면 됩니다. 그렇지 않으면 1년을 기다려야 합니다.

더 간단하게 - 커널화된 SVM 또는 심층 NN을 사용하여 동일한 결과를 얻습니다(신경망에 레이어를 추가하기만 하면 기능을 변환할 때와 정확히 동일한 결과를 얻을 수 있음). 기적은 일어나지 않는다

또한 GMDH가 deep NS의 첫 번째 유사체라고 쓰여 있습니다.

 
막심 드미트리예프스키 :

우리는 기능이 있는 일반 행렬을 취하고, 각 반복에서 모든 기능에서 새로운 복합 기능을 추가하고, 다시 학습하고, 이 Kolmogorov 다항식을 통해 이 기능을 더 복잡한 것으로 변경하고, 오류가 떨어질 때까지 5개를 다시 학습시킵니다.

하지만 실제로는 시끄러운 데이터에서 그런 지옥 같은 일이 일어날 것입니다.

오류가 여전히 나쁘면 이러한 모든 다항식 기능을 가져와서 새로운 기능을 만듭니다. :) 매우 빠른 신경망이나 선형 모델만 있으면 됩니다. 그렇지 않으면 1년을 기다려야 합니다.

더 간단하게 - 커널화된 SVM 또는 심층 NN을 사용하여 동일한 결과를 얻습니다(신경망에 레이어를 추가하기만 하면 기능을 변환할 때와 정확히 동일한 결과를 얻을 수 있음). 기적은 일어나지 않는다

또한 GMDH가 deep NS의 첫 번째 유사체라고 쓰여 있습니다.

아마도 나는 그렇게 주장하지 않을 수도 있고 아닐 수도 있습니다)) GMDH를 사용하는 슈퍼 로봇을 가진 이 거래자는 검색에 다항식이 아니라 푸리에 급수(고조파)를 사용했으며 우리가 알고 있듯이 푸리에 스펙트럼 분석은 핀에 적용할 수 없습니다. 시장, 주기적인 기능을 위한 것이기 때문에, 그럼에도 불구하고 그것은 사람을 위해 일했고 어떻게) 그래서, 지옥은 알고 있습니다.

 
mytarmailS :

그럼에도 불구하고 그것은 사람과 어떻게

이야기의 연속이 있습니까?

내 관찰에 따르면 거래 시스템이 긍정적 인 결과 만 제공하면 일정한 배수가 발생합니다. 고정 로트와 손절매가있는 TS에 대해 이야기하고 있습니다.

사유: