MT4를 위한 빠르고 무료 라이브러리인 신경망 전문가의 기쁨을 위해 - 페이지 4

 
Figar0 писал(а) >>

Z.Y. 내 Expert Advisor가 그렇게 강력하게 다른 결과를 생성하지는 않았지만 이것은 많은 조건에 따라 달라질 수 있습니다.

귀하의 EA는 다른 지표를 사용하여 입력합니까?

초기 가중치는 다를 수 있지만 결국 동일한 입력 데이터에서 거의 동일한 훈련 결과를 얻어야 합니다.

그렇지 않으면 훈련이 아닌 하드 랜덤입니다.

 
mgribachev >> :

두 번째 최적화 실행은 동일한 매개변수를 사용하여 동일한 데이터에 대해 "0"으로 수행되었습니다.

"내 공부를 마칠" 것이 없기 때문입니다. 이것은 새로운 훈련이지만 완전히 다른 결과를 제공합니다.

그리드가 재학습되면 초기 가중치는 난수로 초기화됩니다. 초기 가중치가 다르기 때문에 메쉬에 대한 훈련도 달라지고 최종 결과도 달라집니다.


그리고 이미 만들어진 훈련된 메쉬를 삭제하고 다시 훈련시키는 요점은 무엇입니까?


나는 거래를 잃은 후에야 최적화 - 메쉬 훈련을 수행합니다. 대부분의 경우 StopLoss는 동일하게 유지되며 EA가 새로운 그리드를 로드하려면 파일에서 로드가 init()에 있기 때문에 터미널을 다시 시작하기만 하면 됩니다. StopLoss가 변경된 경우 거래 고문의 설정에서 변경해야 합니다.


재최적화는 이동 중에 수행할 수 있습니다. 이때 Expert Advisors가 거래 중이면 옵티마이저가 이를 방해하지 않습니다.

 
mgribachev писал(а) >>

귀하의 EA는 다른 지표를 사용하여 입력합니까?

입구는 다르지만 더 중요한 것은 훈련 기간이 훨씬 길다는 것입니다..

 
mgribachev >> :

안녕하세요 유리입니다.

업무에 사용하지 마십시오. 왜 Expert Advisor의 두 가지 개별 최적화가 있는지 설명하십시오.

...

x: 1 ~ 5000 1단계

...

초기 가중치는 다를 수 있지만 결국 동일한 입력 데이터에서 거의 동일한 훈련 결과를 얻어야 합니다.

그렇지 않으면 훈련이 아닌 하드 랜덤입니다.


최적화할 때 x의 값이 어떠해야 하는지에 대한 조언자를 주의 깊게 읽으려고 애쓰지 말고 더 어리석은 질문을 하지 마십시오.


개그를 하고 있다면:


얼굴이 비뚤어진 경우 거울에 책임이 없습니다. (c) Kozma Prutkov

 
Reshetov писал(а) >>

그리드가 재학습되면 초기 가중치는 난수로 초기화됩니다.

초기 가중치가 다르기 때문에 메쉬에 대한 훈련도 달라지고 최종 결과도 달라집니다.

그리고 이미 만들어진 훈련된 메쉬를 삭제하고 다시 훈련시키는 요점은 무엇입니까?

나는 거래를 잃은 후에야 최적화 - 메쉬 훈련을 수행합니다. 대부분의 경우 StopLoss는 동일하게 유지되며 EA가 새로운 그리드를 로드하려면 파일에서 로드가 init()에 있기 때문에 터미널을 다시 시작하기만 하면 됩니다. StopLoss가 변경된 경우 거래 고문의 설정에서 변경해야 합니다.

재최적화는 이동 중에 수행할 수 있습니다. 이때 Expert Advisors가 거래 중이면 옵티마이저가 이를 방해하지 않습니다.

이 예는 동일한 Expert Advisor를 사용하여 동일한 교육 매개변수를 사용하여 동일한 데이터, 동일한 기간에 대해 교육된 2개의 다른 단계의 초기 매개변수를 보여줍니다.

통과하다 이익 총 거래 수익성 우승 기대 드로다운 $ 드로다운 %
54 1036.25 38 1.86 27.27 300.99 48.67
통과하다 이익 총 거래 수익성 우승 기대 드로다운 $ 드로다운 %
24 880.85 168 1.26 5.24 287.04 30.80

이 예에서 2개의 동등하게 훈련된 네트워크의 초기 매개변수가 다르면 후속 훈련(개선)이 달라집니다.

내가 올바르게 이해했다면 ANN 카탈로그에서 데이터를 삭제하지 않고 모든 후속 교육(최적화)을 수행해야 합니다. 즉, 새 기간(하루 또는 일주일)을 추가하여 최적화 간격을 확장하기만 하면 됩니다. 간격의 시작 날짜는 새 최적화를 위해 변경되지 않은 상태로 유지되어야 합니까?

 
Reshetov писал(а) >>

최적화할 때 x의 값이 어떠해야 하는지에 대한 조언자를 주의 깊게 읽으려고 애쓰지 말고 더 어리석은 질문을 하지 마십시오.

개그를 하고 있다면:

얼굴이 비뚤어진 경우 거울에 책임이 없습니다. (c) Kozma Prutkov

죄송합니다. 0에서 1000000 사이의 x가 힘든 조건이라는 것을 이해하지 못했습니다.

 
mgribachev >> :

죄송합니다. 0에서 1000000 사이의 x가 힘든 조건이라는 것을 이해하지 못했습니다.

아무것도 묻거나 물어볼 필요가 없습니다.


정상적인 사람들은 먼저 지시에 따라 모든 것을 한 다음, 충분한 능력이 있으면 자신의 위험과 위험을 무릅쓰고 실험합니다.

비정상적인 사람들은 모든 것을 즉시 수행하고 ... 즉시 청구하기 시작합니다.

 

mgribachev писал(а) >>


내가 올바르게 이해했다면 ANN 카탈로그에서 데이터를 삭제하지 않고 모든 후속 교육(최적화)을 수행해야 합니다. 즉, 새 기간(하루 또는 일주일)을 추가하여 최적화 간격을 확장하기만 하면 됩니다. 간격의 시작 날짜는 새 최적화를 위해 변경되지 않은 상태로 유지되어야 합니까?

글쎄, 나는 당신에게 더 적절하게 대답하는 방법조차 모릅니다. 먼저 다음 질문에 답하십시오.


TV에서 다른 프로그램을 시청하려면 다음 단계를 따르세요.


1. 오래된 TV로 시청하십니까?

2. 오래된 TV를 버리고 새 TV를 사서 시청하시겠습니까?


그리드 삭제에 대한 언급이 있는지 확인하기 위해 어드바이저에 대한 지침을 다시 주의 깊게 읽으십시오.

 
marketeer >> :

누군가 FANN의 몇 가지 예를 설명할 수 있습니까? 특히 cascade_train.c 파일에는 다음과 같은 쓰레기가 기록됩니다.

아마도 나는 뭔가를 이해하지 못하지만 훈련 및 테스트 파일의 각 후속 다운로드 쌍은 이전 파일을 덮어쓰는 것 같습니다. 왜 이런거야? 또한 메모리 누수가 발생하기 때문에 fann_destroy_train(data)는 로드 사이에 호출되지 않습니다.

그런 다음 다시:

점은 무엇인가?

누군가가 모든 옵션을 주석 처리했습니다. CVS 코드에는 이러한 오류가 없습니다.

 
젠장, Expert Advisor와 FANN을 시도하기로 결정했지만 최적화 할 때 터미널이 오류와 함께 충돌합니다. 무엇이 그렇게 흥미롭지 않습니까 ???