"New Neural"은 MetaTrader 5 플랫폼용 신경망 엔진의 오픈 소스 프로젝트입니다. - 페이지 71

 
:

뉴런 훈련을 미시적 수준(GA의 독립 어레이 처리 주기, 개별 네트워크 뉴런 계산 등)과 거시적 수준(전체 FF)으로 생각하면 첫 번째 문제나 문제가 없습니다. 모든 것이 완벽하게 병렬이며 GPU에서 훌륭하게 작동합니다.

그러나 매크로 수준에는 문제가 있습니다. 첫째, GPU에서 처리되는 정보량의 제한으로 인해 이것이 불가능하다고 생각합니다. 풀타임 테스터와 클라우드를 사용하여 이 문제를 해결할 수 있습니다(각 매크로 수준은 별도의 에이전트로 전송되며 호스트가 허용하는 경우 이미 미시 수준에서 처리됩니다). 그러나 외부 GA를 사용하기 위해 외부에서 테스터를 제어할 수 있는 도구가 없습니다.

따라서 우리는 미시적 수준의 가속에 자신을 제한해야 합니다. 그리드 자체와 GA가 서로 독립적인 계산으로 가득 차 있기 때문에 가속도 매우 적절할 것입니다.

UGA 자체에 관해서는 - OpenCL에서 개선 사항을 다루지 않으면 실질적으로 개선할 것이 없습니다(코드의 일부 섹션을 제외하고는 토론 참가자 덕분에 날씨가 좋지 않을 것입니다. 기사의 알고리즘 스레드). 훈련 네트워크에 대해서만 UGA 설정을 선택하려고 할 수 있습니다.


최신 GPU에는 최소 1GB의 RAM이 있습니다.

더 큰 훈련 샘플에 대한 아이디어가 거의 없습니다.

모든 것이 매크로 수준에 맞춰져 있습니다 - 선택됨)

GA의 경우 다음 아키텍처를 사용하는 것이 합리적입니다. CPU의 GA 자체 및 GPU의 FF 계산

 
her.human :

MT5에 대한 간단한 사용 예를 들어도 될까요?


무엇의 예? 신경망 지표, 신경망 전략, ... ?
 
유샤 :

최신 GPU에는 최소 1GB의 RAM이 있습니다.

더 큰 훈련 샘플에 대한 아이디어가 거의 없습니다.

내가 틀리지 않았다면 최신 비디오 카드에는 두 가지 유형의 운영 메모리가 있습니다. 하나는 몇 GB가 될 수 있고 상당히 느릴 수 있고, 다른 하나는 각 개별 GPU 프로세서가 가지고 있는 빠르지만 적은 양입니다. 수백 KB. 여기서 문제가 발생할 수 있다고 추론했습니다.

유샤 :

모든 것이 매크로 수준에서 순서대로 이루어집니다 - 선택됨)

그런데 그렇게 말씀하시면 말씀을 믿고 지금은 평안합니다. :)

유샤 :

GA의 경우 다음 아키텍처를 사용하는 것이 합리적입니다. CPU의 GA 자체 및 GPU의 FF 계산

글쎄, 이것은 그들이 말하는 것처럼 기술의 문제입니다. 그렇게 될 수 있습니다. 내가 아는 한, OpenCL을 사용하면 CPU 또는 GPU에서 계산을 수행할 코어를 코드에서 선택할 수 있습니다.

 
유샤 :
무엇의 예? 신경망 지표, 신경망 전략, ... ?
무료(완전히 연결되지 않은) 네트워크 아키텍처를 설정하는 방법, 입력을 적용할 위치, 출력을 선택할 위치, 가중치는 어디에 있습니까?
 
:

내가 틀리지 않았다면 최신 비디오 카드에는 두 가지 유형의 운영 메모리가 있습니다. 하나는 몇 GB가 될 수 있고 상당히 느릴 수 있고, 다른 하나는 각 개별 GPU 프로세서가 가지고 있는 빠르지만 적은 양입니다. 수백 KB. 여기서 문제가 발생할 수 있다고 추론했습니다.

일반적인 "느림"은 CPU용 DDR의 전체 아날로그입니다(~ 0.75 - 1.00GHz - 그다지 느리지 않음).

Fast는 CPU 캐시 메모리와 유사합니다.

GPU를 사용하면 CPU와 달리 매우 온칩(캐시) 메모리를 관리할 수 있습니다(제가 틀릴 수도 있지만 어떻게든 그런 질문을 처리할 필요가 없었습니다)

그러나이 모든 것은 추가 최적화의 문제이며, 그들 없이는 살 수 있습니다.

 

her.human :

유샤 :
무엇의 예? 신경망 지표, 신경망 전략, ... ?
무료(완전히 연결되지 않은) 네트워크 아키텍처를 설정하는 방법, 입력을 적용할 위치, 출력을 선택할 위치, 가중치는 어디에 있습니까?

예, 예, 우리는 그러한 푸시 예제를 가지고 그것을 알아낼 것입니다.

표준 GA와 클라우드는 FF 계산을 병렬화하는 데 도움이 됩니다. 또한 Renat는 다음과 같이 약속했습니다.

작동하지 않고 테스터 GA는 64비트 검색으로 제한되며 각 가중치에 대한 가중치를 훈련하려면 16-64비트(검색 정확도에 따라 다름)가 필요하며 가중치는 최대 . .... 수천, 아니면 수만, 수십만 . UGA는 이것을 잘 처리할 수 있지만 테스터는 할 수 없습니다.

따라서 MQ를 실행하여 GA를 업그레이드하거나(2년 동안 성공적으로 수행하지 못했습니다) UGA를 포함하지만 클러스터보다 훨씬 느립니다.

 
유샤 :

일반적인 "느림"은 CPU용 DDR의 전체 아날로그입니다(~ 0.75 - 1.00GHz - 그다지 느리지 않음).

Fast는 CPU 캐시 메모리와 유사합니다.

GPU를 사용하면 CPU와 달리 매우 온칩(캐시) 메모리를 관리할 수 있습니다(제가 틀릴 수도 있지만 어떻게든 그런 질문을 처리할 필요가 없었습니다)

그러나이 모든 것은 추가 최적화의 문제이며, 그들 없이는 살 수 있습니다.

그것은 요점이 아닙니다. 메모리는 메모리이지만 GPU에서는 개체 논리의 트릭을 구현하기 어려울 것입니다. GPU 계산 기능이 있는 개체의 복잡한 상호 작용으로 NN을 구현하는 방법을 꽤 잘 상상합니다. 마이크로 레벨에 관한 것입니다), 하지만 이 복잡한 오브젝트 코드가 다른 가중치 세트(매크로 레벨)를 갖는 여러 FF로 GPU의 전체 NS를 미끄러지게 하는 것이 얼마나 복잡한지 상상할 수 없습니다.

질문은 수사학적이지만 누군가가 기꺼이 들어준다.

 

바로 지금, 미친 작은 생각 샷:

어쩌면 MQ에게 물어봐   클러스터 작업 API ???

테스터를 우회하는 작업을 MQL5에서 직접 배포합니다. 작업은 확실히 어렵습니다. 많은 검사를 설치해야 하지만 해결할 수 있습니다.

추신: 형제들, 그리 높이 휘두르지 않은 것은 어떻게 생각하십니까? 클러스터는 물론 신성한 암소이지만 쟁기질해야 합니다.

 
우크라이나 :

예, 예, 우리는 그러한 푸시 예제를 가지고 그것을 알아낼 것입니다.

예 #1:

문제의 공식화:

- 소스를 사용할 수 없는 표시기의 알고리즘을 복원해야 하지만(또는 "다시 그리기" 표시기입니다. 그런데 NN에 대한 좋은 교사임) 각 막대의 값은 알려져 있습니다.

- 표시기 값은 (-1;+1) 범위에 있습니다.

입력 데이터:

- 우리는 이 지표가 마지막 10개의 종가 를 사용한다는 것을 알고 있습니다(의심?)


예 #2:

문제의 공식화:

- 히스토리 세그먼트에서 가장 잘(Profit/MaxDD 최대화) 거래되는 신경망 거래 전략을 선택해야 합니다.

입력 데이터:

- MACD(13.35), MACD(50.100), RSI(8), RSI(13)의 정규화된 값

예 #3:

문제의 공식화:

- 신경망에 구구단 학습

입력 데이터:

- (-1;+1) 범위의 승수 x,y

당신은 당신의 예를 제공할 수 있으며, 가능하다면 XML로 네트워크 아키텍처를 보여줄 것입니다.

 
유샤 :

당신은 당신의 예를 제공할 수 있으며, 가능하다면 XML로 네트워크 아키텍처를 보여줄 것입니다.

그리고 가장 중요한 것은 이 아키텍처가 어떻게 만들어졌는지, XML 파일이 어떻게 생성되었는지입니다.