트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 628

 
니콜라이 뎀코 :

아니요, 시장 데이터와 네트워크 성능을 혼동하지 말라고 했습니다.

다시 말해, 네트워크는 견적을 처리하고 마지막 트랜잭션이 성공했는지 여부에 대한 데이터를 여기에 밀어넣습니다. 이것은 이질적인 데이터이며 혼합할 수 없습니다.

그리고 일반적으로 네트워크가 잘 작동하는지 여부는 별도의 블록의 문제입니다(GA에서는 피트니스 함수라고 부르는 데 익숙하고 NN에서는 오류 함수 이름을 사용하지만 본질은 같은).

backprop으로 네트워크를 훈련한다고 가정하면 오류가 데이터의 일부인 버터 오일이 되는 것으로 나타났습니다. 내 말을 이해하기를 바랍니다.

예, 이해합니다. 처음에는 MT5 옵티마이저에서 간단하게 교육하고 싶습니다. 이렇게 하면 탬버린과 함께 춤을 추지 않고도 트랜잭션 및 에퀴티의 결과를 즉시 수신하고 그리드로 되돌릴 수 있습니다.

글쎄, 아키텍처에 관해서는 - 그것을 다시 할 수는 있지만 아직 다른 옵션이 없습니다. 왜냐하면 이것도 아직 "느끼지"않았기 때문입니다. 어느 정도 결과를 보여줄 것이라는 점은 당연하지만, 과연 어떤 것들이 있을까? :)

 
막심 드미트리예프스키 :

나는 이것에 대해 모든 것을 알고 교차 검증도 적합하지만 더 정교합니다.

재발은 또한 스스로 순환하며 때로는 배울 수 없습니다.

그리고 나는 잘 이해하지 못했습니다. 당신은 입력에 네트워크 출력을 공급할 수 없다고 말하고 반복을 사용하기 위해 작성합니다. :) 그리고 그녀는 이렇게만 합니다. 그녀는 그녀의 출력을 먹습니다.

recurrent는 가장 간단한 경우 자체를 먹는 일반 MLP입니다.

교차 검증에 동의하지만 더 정교한 방법이 있습니다. 동시에 교차 검증은 방법의 단순성에도 불구하고 허용 가능한 결과를 제공합니다.

전체적으로 따지면 국회가 맞다. 보편적인 근사기이며 우리가 신경망 과학의 발전 단계에 있는 동안 신경망이 종속성을 학습했다고 주장할 수 있는 분야에서 지점을 찾는 방법이 안정적으로 확립되지 않았습니다 데이터에 맞지 않습니다.

여러 변수의 단순 함수 집합으로 한 변수의 복잡한 함수를 나타내는 문제입니다.

그리고 이 문제를 해결하면 실제로 AI를 구축하게 됩니다.

 
니콜라이 뎀코 :

교차 검증에 대해서는 동의하지만 더 정교한 방법이 있습니다.

전체적으로 따지면 국회가 맞다. 보편적인 근사기이며 우리가 신경망 과학의 발전 단계에 있는 동안 신경망이 종속성을 학습했다고 주장할 수 있는 분야에서 지점을 찾는 방법이 안정적으로 확립되지 않았습니다 데이터에 맞지 않습니다.

여러 변수의 단순 함수 집합으로 한 변수의 복잡한 함수를 나타내는 문제입니다.

그리고 이 문제를 해결하면 실제로 AI를 구축하게 됩니다.

동시에 상상하기, 특히 국회의 모든 연결과 그것이 서로 어떻게 상호 작용할지 상상하기에는 너무 복잡합니다.

우리는 AI가 필요하지 않지만 시장 변화에 대한 어떤 종류의 반응은 약간의 "기억"이 있으면 해를 끼치 지 않을 것입니다.

 
막심 드미트리예프스키 :

동시에 상상하기, 특히 국회의 모든 연결과 그것이 서로 어떻게 상호 작용할지 상상하기에는 너무 복잡합니다.

우리는 AI가 필요하지 않지만 시장 변화에 대한 어떤 종류의 반응은 약간의 "기억"이 있으면 해를 끼치 지 않을 것입니다.

새끼 고양이를 좋아하지 않는다면 요리하는 법을 모를 수도 있습니다))

신경망은 모든 데이터를 근사화하고 일반화하기까지 합니다. 가장 중요한 것은 데이터에 사용자가 찾고 있는 것이 포함되어 있다는 것입니다.

따라서 NS 유형을 선택하는 것 외에도 데이터를 올바르게 준비하는 것이 똑같이 중요합니다.

보시다시피 작업은 상호 의존적이며 제출해야 하는 데이터는 NS의 유형에 따라 다르며 선택할 NS는 준비한 데이터에 따라 다릅니다.

그러나 이 문제는 닫혀 있지만 해결할 수 있습니다. 예를 들어 GA에서 동일한 것이 사용되며 처음에는 알고리즘이 데이터에 대해 아무 것도 알지 못하다가 점차 문제를 분리하여 강력한 솔루션으로 수렴합니다.

따라서 여기에서 연구를 체계화하고 일기를 작성하면 성공할 것입니다.

 
막심 드미트리예프스키 :

예, 이해합니다. 처음에는 MT5 옵티마이저에서 간단하게 교육하고 싶습니다. 이렇게 하면 탬버린과 함께 춤을 추지 않고도 트랜잭션 및 에퀴티의 결과를 즉시 수신하고 그리드로 되돌릴 수 있습니다.

글쎄, 아키텍처에 관해서는 - 그것을 다시 할 수는 있지만 아직 다른 옵션이 없습니다. 왜냐하면 이것도 아직 "느끼지"않았기 때문입니다. 어느 정도 결과를 보여줄 것이라는 점은 당연하지만, 과연 어떤 것들이 있을까? :)

Maxim은 MT 옵티마이저에서 네트워크를 훈련할 필요가 없습니다. NN 트레이너와 옵티마이저는 완전히 다른 최적성 기준을 가진 완전히 다른 알고리즘입니다.

이전에 그린 NN 구조를 계속 사용한다면 너무 단순하고 시장에 너무 취약합니다. 이미 15-20-15-10-5-1 구조에 도달했을 때만 성공했다고 썼습니다. 그리고 그것은 한 가지 유형의 거래를 위한 것입니다. 그러나 그는 Khaikin이 설명한 방법, 즉 새로운 것이없고 종소리와 휘파람이없는 방법으로 모든 것을 절대적으로 수행했습니다.

단순한 구조 는 잘 훈련되지 않았습니다.

 
유리 아사울렌코 :

Maxim은 MT 옵티마이저에서 네트워크를 훈련할 필요가 없습니다. NN 트레이너와 옵티마이저는 완전히 다른 최적성 기준을 가진 완전히 다른 알고리즘입니다.

이전에 그린 NN 구조를 계속 사용한다면 너무 단순하고 시장에 너무 취약합니다. 이미 15-20-15-10-5-1 구조에 도달했을 때만 성공했다고 썼습니다. 그리고 그것은 한 가지 유형의 거래를 위한 것입니다. 그러나 그는 Khaikin이 설명한 방법, 즉 새로운 것이없고 종소리와 휘파람이없는 방법으로 모든 것을 절대적으로 수행했습니다.

단순한 구조 는 잘 훈련되지 않았습니다.

그리고 이것에 다른 것을 추가하는 것을 막는 것은 없습니다. 요점은 그리드의 깊이가 아니라 피드백을 통해 만드는 것입니다. 이것은 예술가처럼 지금 내 변덕입니다. 그래서 나는 고전에 따르면 흥미롭지 않습니다.

등받이로 모든 것을 그리드에 나사로 고정하려면 끝에서 주저해야합니다. 빔은 간단합니다. :)

이 그리드는 단계별로 학습되기 때문입니다.

더 작은 기록을 가져오면 모든 것이 잘 될 것입니다. 그런 다음 확장할 수 있습니다.

 
막심 드미트리예프스키 :

그리고 이것에 다른 것을 추가하는 것을 막는 것은 없습니다. 요점은 그리드의 깊이가 아니라 피드백을 통해 만드는 것입니다. 이것은 예술가처럼 지금 내 변덕이며 그래서 나는 고전에 따르면 흥미롭지 않습니다.

등받이로 모든 것을 그리드에 나사로 고정하려면 끝에서 주저해야합니다. 빔은 간단합니다. :)

이 그리드는 단계별로 학습되기 때문입니다.

그래서 N epoch마다 BP를 중지하고 테스트를 실행하고 BP를 계속해서 훈련했다고 썼습니다. 훈련의 하루가 긴 시간이라는 것을 이해하지만, 이 대화는 몇 달 전의 일입니다.

그러나 그것은 물론 아티스트에게 달려 있습니다.) 피아니스트를 쏘지 마십시오. 그는 가능한 한 최선을 다해 연주합니다.

추신: 사실 훈련할 데이터는 많지 않지만 많습니다. 작은 표본 크기에서 국회는 합리적인 어떤 것도 강조하지 않을 것입니다.

 
유리 아사울렌코 :

그래서 N epoch마다 BP를 중지하고 테스트를 실행하고 BP를 계속해서 훈련했다고 썼습니다. 훈련의 하루가 긴 시간이라는 것을 이해하지만, 이 대화는 몇 달 전의 일입니다.

그러나 그것은 물론 아티스트에게 달려 있습니다.) 피아니스트를 쏘지 마십시오. 그는 가능한 한 최선을 다해 연주합니다.

예, 더 많은 단어가 있습니다. 거기에 2 시간 후에 다시 작성됩니다)) 저녁에 오늘 할 것입니다 mb

달성해야 할 모든 것은 앞으로 조금 더 안정적이고 이해할 수 있는 결과입니다. 그렇지 않으면 모든 것이 작동합니다.

 
막심 드미트리예프스키 :

예, 더 많은 단어가 있습니다. 거기에서 2 시간 후에 다시 작성합니다)) 저녁에 오늘 할 것입니다 mb

달성해야 할 모든 것은 앞으로 조금 더 안정적이고 이해할 수 있는 결과입니다. 그렇지 않으면 모든 것이 작동합니다.

거기에 사전 포스트를 추가했지만, 페이지가 변경되었습니다. 복제하겠습니다.

추신: 사실 훈련할 데이터는 많지 않지만 많습니다. 작은 표본 크기에서 국회는 합리적인 어떤 것도 강조하지 않을 것입니다.

 
니콜라이 뎀코 :

물론 공격에 대해 사과하지만 당신은 당신의 메시지를 다시 읽었습니다. 다소 모호해 보입니다.
일반적으로 당신이 옳지만 신경망의 첫 번째 계층에 대해서만 그렇습니다. 피드백이 두 번째 및 후속 계층으로 이동하거나 네트워크의 병렬 계층으로 이동하면 진술이 힘을 잃게 됩니다.
이 경우 Maxim 은 네트워크를 심화하고 은닉층에 피드백을 제공하는 것에 대해 생각해야 합니다.

그리고 다음과 같이:

보시다시피 작업은 상호 의존적이며 제출해야 하는 데이터는 NS의 유형에 따라 다르며 선택할 NS는 준비한 데이터에 따라 다릅니다.
똑같다. MLP는 오랫동안 관련성이 없었고 딥 러닝은 오랫동안 트렌드였습니다. 그리고 하나의 네트워크는 이기종 데이터를 처리할 수 있습니다. 가장 중요한 것은 아키텍처입니다.
사유: