"New Neural"은 MetaTrader 5 플랫폼용 신경망 엔진의 오픈 소스 프로젝트입니다. - 페이지 75

 
her.human :

요점은 방법이 아닙니다. GA가 그렇게 약한 철판으로 당길까?

더 가벼운 버전의 joo 알고리즘.

뭐 대충 짐작할 수 있습니다. 이렇게 하려면 FF의 기록을 한 번 실행하면서 시간을 측정한 다음 10000을 곱합니다. 훈련을 운전하면 어떻게 되는지 매우 현실적인 결과를 얻을 수 있습니다.


그리고 이것은 .. 이미 더 쉽게 만드는 것이 무엇입니까? :)

 
:

뭐 대충 짐작할 수 있습니다. 이렇게 하려면 FF의 기록을 한 번 실행하면서 시간을 측정한 다음 10000을 곱합니다. 훈련을 운전하면 어떻게 되는지 매우 현실적인 결과를 얻을 수 있습니다.


그리고 이것은 .. 이미 더 쉽게 만드는 것이 무엇입니까? :)

충분하지 않지만 알고리즘 실행의 순수한 값을 얻으려면 총 FF 시간을 별도로 측정하고 빼야 합니다.

그런 다음 매개변수의 수를 곱할 수 있습니다.

커틀릿은 별도로 날아갑니다.

 
우크라이나 :
어떻게든 위에서 그린 것과 같은 Tester GA로 작은 그리드를 훈련하기 위한 테스트를 작성하는 방법을 생각했습니다. 6개의 가중치 3개의 뉴런, XOR 작업이지만 모든 손이 닿지 않습니다. :)
나는 그것에 대해 이야기하고 있습니다 :
네트워크 100x1000x1 - 완전히 연결됨
 
her.human :
나는 그것에 대해 이야기하고 있습니다 :
her.human :

1) 무엇을 가르칠 것인가

2) 얼마나 많은 예,

3) 오류 등?

1) 실험을 위해 - 예를 들어 기사의 스레드와 같이 함수의 스레드를 근사화하십시오.

2) 글쎄, 적어도 1000은 생각합니다.

3) FFF - 테스트 기능의 표면에서 가장 작은 오류.

 
:

그리고 이것은 .. 이미 더 쉽게 만드는 것이 무엇입니까? :)

UGA - 보편적이며 많은 작업에 적합합니다. 특히 네트워크 교육 을 위해 선명하게 하고 밝게 할 수 있습니다.
 
:

3) FFF - 테스트 기능의 표면에서 가장 작은 오류.

ZFF - 이해할 수 없습니다. ?
 
her.human :
ZFF - 이해할 수 없습니다. ?
기사의 용어를 따르는 경우 FF 또는 - VFF의 값.
 
:
기사의 용어를 따르는 경우 FF 또는 - VFF의 값.

가장 작은 실수는 느슨한 개념입니다 ...

그게 다야, 나는 떠날거야. 이미 많은 사람들이 여기에있다. 더 많은 오해가 있을 텐데, 함부로 버리지 않기 위해 개인적으로 여쭤봅니다. 결과가 어떻게 되는지 보여드리겠습니다.

나는 Urain & yu-sha가 네트워크의 구조와 설명을 결정하기를 바랍니다.

 

표준 테스터 GA에 의해 해결된 XOR 문제, 100개의 예제당 14개의 개별 오류.

코드에는 캐스케이드에 있는 두 개의 뉴런에 대한 두 개의 그리드가 있고 클래식 MLP에서와 같이 세 개의 뉴런에 대한 그리드가 있습니다.

주석의 위 단계, 7개의 매개변수에 대해 단계 0.005, 9개의 매개변수에 대해 0.2-03 입력 가중치 0.2, 독립 03.

너무 장난감이지만 예쁘다.

추신: 여기에서 저는 멍청이입니다. 그러나 예제에서는 모서리에 1을, 중간에 0을 부여했습니다. 그리고 그리드가 입력에서 두 개의 0에서 어떻게 꼬여도 1을 줄 수는 없습니다.

지금은 그리드의 출력을 반전하고 있습니다. 오류는 이산 형식에서 0과 같아야 하고 실제 형식에서는 0이 되는 경향이 있습니다.

ZY는 이상하게 출력을 반전시켰고 오류는 사라지지 않았고 16도 조금 늘어났습니다. 알겠습니다. GA에서 그와 함께 무화과를 기록할 것입니다.

파일:
NN_GA.mq5  9 kb
NN_GA.mq5  9 kb
 

오늘은 어버이날입니다 :)

완전한 침묵, 모두가 인터뷰를 담배를 피우고 있습니다.