트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 372

 
막심 드미트리예프스키 :


http://sci.alnam.ru/book_dsp.php

126 페이지에 사진이 없습니다.


사진이 아니라...

예제를 이미지로 저장하고 여기에 붙여넣으세요.

 
올렉 자동판매기 :


사진이 아니라...

예제를 이미지로 저장하고 여기에 붙여넣으세요.


그것?

 
막심 드미트리예프스키 :


그것?



그 책.

126페이지

예 5.4.

 
올렉 자동판매기 :


그 책.

126페이지

예 5.4.


예, 바로 이해하지 못했습니다 ..., 여기


 
막심 드미트리예프스키 :


예, 바로 이해하지 못했습니다 ..., 여기



지금은 괜찮아 ;)
 
드미트리 :


상관관계가 없는 곳에는 의존성이 있을 수 없습니다. 상관 관계는 선형 또는 비선형일 수 있지만 종속성이 있는 경우 상관 관계가 있습니다.

의존성이 없을 때 상관관계가 있을 수 있습니다 - 잘못된 상관관계.

이 스레드에서 게시물을 삭제하지 않았습니다.

Bendat J., Peirsol A.

무작위 데이터의 응용 분석: Per. 영어로부터. - M.: 1989년 미르.

126페이지

예 5.4. 상관없는 종속 무작위 변수.


 
RNN이 어떻게 작동하는지 설명하는 Reshetov의 기사에서 발췌.

"이 글은 신경망 재훈련 문제에 대해 자세히 논의하고, 발생 원인을 파악하고, 이 문제를 해결하는 방법을 제안합니다.

1. 신경망이 재교육되는 이유는 무엇입니까?

신경망을 다시 훈련시키는 이유는 무엇입니까? 사실 여기에는 몇 가지 이유가 있을 수 있습니다.
  1. 훈련 샘플의 예제 수가 샘플 외부의 문제를 해결하기에 충분하지 않습니다.
  2. 입력 데이터는 비정상 데이터 처리의 경우 매우 자주 발생하는 다양한 샘플의 출력 데이터와의 상관 정도 측면에서 고르지 않게 분포됩니다. 예를 들어, 훈련 샘플에서 출력 값에 대한 입력 매개변수 또는 여러 입력 매개변수의 상관 관계는 테스트 샘플보다 훨씬 높거나 더 나쁜 경우 서로 다른 샘플의 상관 계수의 부호가 다릅니다. 이것은 다른 샘플의 모든 매개변수에 대한 상관 계수를 계산하고 심지어 신경망을 훈련시키기 전에도 쉽게 확인할 수 있습니다. 그리고 이 단점을 없애는 것도 매우 간단합니다. 즉, 훈련 예제가 무작위로 샘플로 분해됩니다.
  3. 입력 매개변수는 출력 매개변수와 관련이 없습니다. 그들 사이에는 인과 관계가 없습니다. 그들은 대표성이 아니므로 신경망을 훈련시킬 것이 없습니다. 입력과 출력 간의 상관 관계를 확인하면 상관 관계가 0에 가까운 것으로 나타납니다. 이 경우 신경망을 훈련할 다른 입력 데이터를 찾아야 합니다.
  4. 입력 데이터는 서로 높은 상관 관계가 있습니다. 이 경우 입력 데이터는 출력과 관련하여 최대 상관 관계를 유지하고 나머지 데이터와 상관 관계가 좋은 나머지 데이터는 제거해야 합니다.
오버 트레이닝에 대한 위의 모든 이유와 제거 방법은 잘 알려져 있습니다. 이전에 신경망 기술에 대한 다양한 문헌이나 기사에서 설명했습니다. "
    파일:
    RNN_MT5.zip  223 kb
     
    알료샤 :

    Dmitry, 당신은 저를 용서할 것입니다. 그러나 당신이 나를 트롤하려는 것 같거나, 장난을 치거나, 아니면 그저 어리석은 것뿐입니다. 모든 존경심을 가지고 ... 사소한 예에서 두 기능이 모두 상관 관계가 0이라는 것을 볼 수 없습니까? 대상과 함께, 하지만 둘 다 중요하고, 아무 것도 버릴 수 없으며, 선형 종속성은 선형이 아닌 0 입니다. 즉, 상관 관계는 0일 수 있고 데이터 세트는 완전히 예측 가능합니다.

    완전히 반박합니다.


    물론 나는 장난을 하고 있다!

    나는 이 스레드에 분명히 여러 번 썼습니다. " 솔직히 말해서, 나는 몇 년 전에 스스로 NS 진단을 내리고 이 방법을 포기했습니다. 따라서 NS가 얼마나 정확하게 NS에 대해 허용하는지 말하기는 어렵습니다. 손에 있는 모든 것을 사전 선택 없이 네트워크에 밀어 넣으십시오. 모든 DM 방법에 대해 접근 방식을 설명했습니다." (와 함께)

    국회가 이해가 안되고 어떨지 모르겠다는 글을 몇 번이나 썼는데 국회에서 소리지르고 고함을 지르고 본보기를 보이기 시작하는 무언가가 나온다면 저를 향한 주장은 무엇입니까?


    그는 명확하고 솔직하게 다음과 같이 썼습니다.

    1. 치수가 감소합니다.

    2. 모델의 정확도에 대해 잘 모르겠습니다!


    그러나 여전히 무딘 시작하는 사람이있을 것입니다 ....

     
    마이클 마르쿠카이테스 :
    변수의 상관 관계는 예측 가능성을 의미하지 않습니다. 쌍은 상관될 수 있습니다. 즉, 걷기는 상호 연결되어 있지만 다른 하나를 통해 예측하는 것은 작동하지 않습니다. 왜냐하면 동시에 변경되고 일정보다 앞서지 않기 때문입니다. 상관관계라고 하면!!!!


    멍청하지 마.

    당신이 정말로 무뚝뚝하고 싶다면 - 구글, 예를 들어 페어 트레이딩.

     
    알료샤 :
    또 다른 거짓말은 없어 비선형 상관 상관 관계는 덧셈이나 코사인과 같이 엄격하게 정의된 수학적 구조입니다. 말도 안되는 얘기를 하기 전에 Wikipedia를 최소한 연구하십시오.


    우리는 학교에서와 같이 기본에서 통과 할 것입니다. "비선형 상관 관계"란 무엇이며 어떻게 계산됩니까?

    http://metr-ekon.ru/index.php?request=full&id=412

    사유: