뉴런 훈련을 미시적 수준(GA의 독립 어레이 처리 주기, 개별 네트워크 뉴런 계산 등)과 거시적 수준(전체 FF)으로 생각하면 첫 번째 문제나 문제가 없습니다. 모든 것이 완벽하게 병렬이며 GPU에서 훌륭하게 작동합니다.
그러나 매크로 수준에는 문제가 있습니다. 첫째, GPU에서 처리되는 정보량의 제한으로 인해 이것이 불가능하다고 생각합니다. 풀타임 테스터와 클라우드를 사용하여 이 문제를 해결할 수 있습니다(각 매크로 수준은 별도의 에이전트로 전송되며 호스트가 허용하는 경우 이미 미시 수준에서 처리됩니다). 그러나 외부 GA를 사용하기 위해 외부에서 테스터를 제어할 수 있는 도구가 없습니다.
따라서 우리는 미시적 수준의 가속에 자신을 제한해야 합니다. 그리드 자체와 GA가 서로 독립적인 계산으로 가득 차 있기 때문에 가속도 매우 적절할 것입니다.
UGA 자체에 관해서는 - OpenCL에서 개선 사항을 다루지 않으면 실질적으로 개선할 것이 없습니다(코드의 일부 섹션을 제외하고는 토론 참가자 덕분에 날씨가 좋지 않을 것입니다. 기사의 알고리즘 스레드). 훈련 네트워크에 대해서만 UGA 설정을 선택하려고 할 수 있습니다.
최신 GPU에는 최소 1GB의 RAM이 있습니다.
더 큰 훈련 샘플에 대한 아이디어가 거의 없습니다.
모든 것이 매크로 수준에 맞춰져 있습니다 - 선택됨)
GA의 경우 다음 아키텍처를 사용하는 것이 합리적입니다. CPU의 GA 자체 및 GPU의 FF 계산
내가 틀리지 않았다면 최신 비디오 카드에는 두 가지 유형의 운영 메모리가 있습니다. 하나는 몇 GB가 될 수 있고 상당히 느릴 수 있고, 다른 하나는 각 개별 GPU 프로세서가 가지고 있는 빠르지만 적은 양입니다. 수백 KB. 여기서 문제가 발생할 수 있다고 추론했습니다.
유샤 :
모든 것이 매크로 수준에서 순서대로 이루어집니다 - 선택됨)
그런데 그렇게 말씀하시면 말씀을 믿고 지금은 평안합니다. :)
유샤 :
GA의 경우 다음 아키텍처를 사용하는 것이 합리적입니다. CPU의 GA 자체 및 GPU의 FF 계산
글쎄, 이것은 그들이 말하는 것처럼 기술의 문제입니다. 그렇게 될 수 있습니다. 내가 아는 한, OpenCL을 사용하면 CPU 또는 GPU에서 계산을 수행할 코어를 코드에서 선택할 수 있습니다.
내가 틀리지 않았다면 최신 비디오 카드에는 두 가지 유형의 운영 메모리가 있습니다. 하나는 몇 GB가 될 수 있고 상당히 느릴 수 있고, 다른 하나는 각 개별 GPU 프로세서가 가지고 있는 빠르지만 적은 양입니다. 수백 KB. 여기서 문제가 발생할 수 있다고 추론했습니다.
일반적인 "느림"은 CPU용 DDR의 전체 아날로그입니다(~ 0.75 - 1.00GHz - 그다지 느리지 않음).
Fast는 CPU 캐시 메모리와 유사합니다.
GPU를 사용하면 CPU와 달리 매우 온칩(캐시) 메모리를 관리할 수 있습니다(제가 틀릴 수도 있지만 어떻게든 그런 질문을 처리할 필요가 없었습니다)
일반적인 "느림"은 CPU용 DDR의 전체 아날로그입니다(~ 0.75 - 1.00GHz - 그다지 느리지 않음).
Fast는 CPU 캐시 메모리와 유사합니다.
GPU를 사용하면 CPU와 달리 매우 온칩(캐시) 메모리를 관리할 수 있습니다(제가 틀릴 수도 있지만 어떻게든 그런 질문을 처리할 필요가 없었습니다)
그러나이 모든 것은 추가 최적화의 문제이며, 그들 없이는 살 수 있습니다.
그것은 요점이 아닙니다. 메모리는 메모리이지만 GPU에서는 개체 논리의 트릭을 구현하기 어려울 것입니다. GPU 계산 기능이 있는 개체의 복잡한 상호 작용으로 NN을 구현하는 방법을 꽤 잘 상상합니다. 마이크로 레벨에 관한 것입니다), 하지만 이 복잡한 오브젝트 코드가 다른 가중치 세트(매크로 레벨)를 갖는 여러 FF로 GPU의 전체 NS를 미끄러지게 하는 것이 얼마나 복잡한지 상상할 수 없습니다.
뉴런 훈련을 미시적 수준(GA의 독립 어레이 처리 주기, 개별 네트워크 뉴런 계산 등)과 거시적 수준(전체 FF)으로 생각하면 첫 번째 문제나 문제가 없습니다. 모든 것이 완벽하게 병렬이며 GPU에서 훌륭하게 작동합니다.
그러나 매크로 수준에는 문제가 있습니다. 첫째, GPU에서 처리되는 정보량의 제한으로 인해 이것이 불가능하다고 생각합니다. 풀타임 테스터와 클라우드를 사용하여 이 문제를 해결할 수 있습니다(각 매크로 수준은 별도의 에이전트로 전송되며 호스트가 허용하는 경우 이미 미시 수준에서 처리됩니다). 그러나 외부 GA를 사용하기 위해 외부에서 테스터를 제어할 수 있는 도구가 없습니다.
따라서 우리는 미시적 수준의 가속에 자신을 제한해야 합니다. 그리드 자체와 GA가 서로 독립적인 계산으로 가득 차 있기 때문에 가속도 매우 적절할 것입니다.
UGA 자체에 관해서는 - OpenCL에서 개선 사항을 다루지 않으면 실질적으로 개선할 것이 없습니다(코드의 일부 섹션을 제외하고는 토론 참가자 덕분에 날씨가 좋지 않을 것입니다. 기사의 알고리즘 스레드). 훈련 네트워크에 대해서만 UGA 설정을 선택하려고 할 수 있습니다.
최신 GPU에는 최소 1GB의 RAM이 있습니다.
더 큰 훈련 샘플에 대한 아이디어가 거의 없습니다.
모든 것이 매크로 수준에 맞춰져 있습니다 - 선택됨)
GA의 경우 다음 아키텍처를 사용하는 것이 합리적입니다. CPU의 GA 자체 및 GPU의 FF 계산
MT5에 대한 간단한 사용 예를 들어도 될까요?
최신 GPU에는 최소 1GB의 RAM이 있습니다.
더 큰 훈련 샘플에 대한 아이디어가 거의 없습니다.
내가 틀리지 않았다면 최신 비디오 카드에는 두 가지 유형의 운영 메모리가 있습니다. 하나는 몇 GB가 될 수 있고 상당히 느릴 수 있고, 다른 하나는 각 개별 GPU 프로세서가 가지고 있는 빠르지만 적은 양입니다. 수백 KB. 여기서 문제가 발생할 수 있다고 추론했습니다.
모든 것이 매크로 수준에서 순서대로 이루어집니다 - 선택됨)
그런데 그렇게 말씀하시면 말씀을 믿고 지금은 평안합니다. :)
GA의 경우 다음 아키텍처를 사용하는 것이 합리적입니다. CPU의 GA 자체 및 GPU의 FF 계산
글쎄, 이것은 그들이 말하는 것처럼 기술의 문제입니다. 그렇게 될 수 있습니다. 내가 아는 한, OpenCL을 사용하면 CPU 또는 GPU에서 계산을 수행할 코어를 코드에서 선택할 수 있습니다.
무엇의 예? 신경망 지표, 신경망 전략, ... ?
내가 틀리지 않았다면 최신 비디오 카드에는 두 가지 유형의 운영 메모리가 있습니다. 하나는 몇 GB가 될 수 있고 상당히 느릴 수 있고, 다른 하나는 각 개별 GPU 프로세서가 가지고 있는 빠르지만 적은 양입니다. 수백 KB. 여기서 문제가 발생할 수 있다고 추론했습니다.
일반적인 "느림"은 CPU용 DDR의 전체 아날로그입니다(~ 0.75 - 1.00GHz - 그다지 느리지 않음).
Fast는 CPU 캐시 메모리와 유사합니다.
GPU를 사용하면 CPU와 달리 매우 온칩(캐시) 메모리를 관리할 수 있습니다(제가 틀릴 수도 있지만 어떻게든 그런 질문을 처리할 필요가 없었습니다)
그러나이 모든 것은 추가 최적화의 문제이며, 그들 없이는 살 수 있습니다.
her.human :
무엇의 예? 신경망 지표, 신경망 전략, ... ?
예, 예, 우리는 그러한 푸시 예제를 가지고 그것을 알아낼 것입니다.
작동하지 않고 테스터 GA는 64비트 검색으로 제한되며 각 가중치에 대한 가중치를 훈련하려면 16-64비트(검색 정확도에 따라 다름)가 필요하며 가중치는 최대 . .... 수천, 아니면 수만, 수십만 . UGA는 이것을 잘 처리할 수 있지만 테스터는 할 수 없습니다.
따라서 MQ를 실행하여 GA를 업그레이드하거나(2년 동안 성공적으로 수행하지 못했습니다) UGA를 포함하지만 클러스터보다 훨씬 느립니다.
일반적인 "느림"은 CPU용 DDR의 전체 아날로그입니다(~ 0.75 - 1.00GHz - 그다지 느리지 않음).
Fast는 CPU 캐시 메모리와 유사합니다.
GPU를 사용하면 CPU와 달리 매우 온칩(캐시) 메모리를 관리할 수 있습니다(제가 틀릴 수도 있지만 어떻게든 그런 질문을 처리할 필요가 없었습니다)
그러나이 모든 것은 추가 최적화의 문제이며, 그들 없이는 살 수 있습니다.
그것은 요점이 아닙니다. 메모리는 메모리이지만 GPU에서는 개체 논리의 트릭을 구현하기 어려울 것입니다. GPU 계산 기능이 있는 개체의 복잡한 상호 작용으로 NN을 구현하는 방법을 꽤 잘 상상합니다. 마이크로 레벨에 관한 것입니다), 하지만 이 복잡한 오브젝트 코드가 다른 가중치 세트(매크로 레벨)를 갖는 여러 FF로 GPU의 전체 NS를 미끄러지게 하는 것이 얼마나 복잡한지 상상할 수 없습니다.
질문은 수사학적이지만 누군가가 기꺼이 들어준다.
바로 지금, 미친 작은 생각 샷:
어쩌면 MQ에게 물어봐 클러스터 작업 API ???
테스터를 우회하는 작업을 MQL5에서 직접 배포합니다. 작업은 확실히 어렵습니다. 많은 검사를 설치해야 하지만 해결할 수 있습니다.
추신: 형제들, 그리 높이 휘두르지 않은 것은 어떻게 생각하십니까? 클러스터는 물론 신성한 암소이지만 쟁기질해야 합니다.
예, 예, 우리는 그러한 푸시 예제를 가지고 그것을 알아낼 것입니다.
예 #1:
문제의 공식화:
- 소스를 사용할 수 없는 표시기의 알고리즘을 복원해야 하지만(또는 "다시 그리기" 표시기입니다. 그런데 NN에 대한 좋은 교사임) 각 막대의 값은 알려져 있습니다.
- 표시기 값은 (-1;+1) 범위에 있습니다.
입력 데이터:
- 우리는 이 지표가 마지막 10개의 종가 를 사용한다는 것을 알고 있습니다(의심?)
예 #2:
문제의 공식화:
- 히스토리 세그먼트에서 가장 잘(Profit/MaxDD 최대화) 거래되는 신경망 거래 전략을 선택해야 합니다.
입력 데이터:
- MACD(13.35), MACD(50.100), RSI(8), RSI(13)의 정규화된 값
예 #3:
문제의 공식화:
- 신경망에 구구단 학습
입력 데이터:
- (-1;+1) 범위의 승수 x,y
당신은 당신의 예를 제공할 수 있으며, 가능하다면 XML로 네트워크 아키텍처를 보여줄 것입니다.
당신은 당신의 예를 제공할 수 있으며, 가능하다면 XML로 네트워크 아키텍처를 보여줄 것입니다.
그리고 가장 중요한 것은 이 아키텍처가 어떻게 만들어졌는지, XML 파일이 어떻게 생성되었는지입니다.