"New Neural"은 MetaTrader 5 플랫폼용 신경망 엔진의 오픈 소스 프로젝트입니다. - 페이지 21

 
세르게예프 :

이 사업의 유토피아적 성격에 대한 Andrey(TheExpert)의 감정은 고용된 전문가, 프로젝트 관리자 및 참가자의 최종 위원회가 이 평결을 발표할 때까지 연기되어야 합니다. 현재로서는 테마가 남아 있습니다.

결과적으로 최소한 유사성을 달성하기 위해 목표를 조정해야 합니다.

젠장, 당신은 나를 완전히 이해하지 못하는 것 같습니다. 지금은 일반적으로 세속적인 비관적인 면을 취합니다.

예, 라이브러리는 레고 생성자처럼 보편적이어야 합니다. 마음이 원하는 것은 무엇이든 조립할 수 있습니다.

그래서 질문이 아닙니다! 그러나 각각 따로 가르친다. 기능, 합동 훈련을 위해 설계할 수 있습니다. XOR에서 한 시간 동안 공부할 지옥이나 소름 끼치는 서투른 괴물이 될 것입니다.

예, 라이브러리는 템플릿 전문가와 함께 사용하기 쉬워야 합니다. 프로그래머가 아닌 사람도 사용할 수 있을 만큼 사용하기 쉽습니다.

네, 이론적으로 두 개의 템플릿 Expert Advisors에게 데이터 제출을 자동화하는 것이 가능합니다. 이는 프로그래머가 아닌 사람들도 단순화하기 위한 것입니다. 그러나 데이터는 모두 동일하게 준비해야 합니다.

예, 라이브러리에는 표시기 값에서 ...에 이르기까지 모든 것이 연결할 수 있도록 입력과 출력 모두에 범용 인터페이스가 있어야 합니다.

그래서 다재다능합니다! 복식 배열 - 훨씬 더 다양합니까? 그리고 위원회에서 가장 중요한 것은 도킹할 때 치수가 일치한다는 것입니다.

 
우크라이나 :
우리는 같은 것에 대해 이야기하고 있습니까? 목적 함수는 네트워크 출력에서 오류를 계산하는 함수입니다.
목적 함수는 우리가 목표로 하는 것입니다. 표준에서 표준과 비교하여 출력의 평균 제곱근 오차를 최소화합니다.
 
더엑스퍼트 :
....

그래서 다재다능해요! 복식 배열 - 훨씬 더 다양합니까? 그리고 위원회에서 가장 중요한 것은 도킹할 때 치수가 일치한다는 것입니다.

에! 그래서 내가 무슨 말을 하는 거지? 다용도 GA가 적합합니다.

엔진 알고리즘은 다음과 같이 명확성을 위해 단순화되었습니다.

MLP 그리드를 추가하고 싶습니다. 입력에 20개의 값, 첫 번째 은닉층에 10개의 뉴런, 두 번째에 10개, 출력에 1개의 값이 있으면 몇 개의 가중치를 갖게 될까요?

그녀는 우리에게 244라고 말합니다.

우리는 다른 그리드(어떤 스레드)를 추가하고 싶습니다. 다시 요청합니다. ..... 그녀는 우리에게 542로 응답합니다.

244+542=786입니다.

우리는 또한 SL과 TP를 동시에 최적화하고 2개의 추가 매개변수와 786+2=788을 최적화하려고 합니다.

우리는 동시에 makdi를 최적화하기를 원합니다. 두 개의 매개변수가 있고 788+2=790입니다.

좋아, 배열의 크기를 790으로 조정합니다.

그리고 짜잔! GA에서 790개 매개변수를 최적화합니다. 이 경우 시각적 블록 생성자를 추가해야 하며 모든 것이 작동합니다.

그래야만 네트워크 유형 등을 원하는 만큼 추가할 수 있으며 균일한 인터페이스 표준(미리 개발됨)을 준수할 수 있습니다.

이 같은.

 
우크라이나 :

그래프 엔진을 만들고 범용 네트워크(몇 가지 옵션)를 만든 다음 전문가를 초대하여 설명하고 이러한 네트워크 알고리즘에 따라 학습 알고리즘을 통합할 수 있습니다.

더 쉽게 만들 수 있습니다.

이 상황에서 우리는 보편적인 모델로 추상화하려는 시도와 함께 특정에서 일반으로 이동합니다.

1. 우리는 우리가 구현할 수 있는 네트워크(위상 및 학습 방법)를 그립니다(종이 + 수학적 모델의 언어 알고리즘).
2. 추상 엔진 클래스를 생성하기 위해 그려진 모델에서 공통 도킹 포인트를 찾습니다.

기본 벽돌을 그리기 위해 더 많은 모델을 고려해야 합니다.

이 추상화는 인간 언어의 개념("우리가 창조하다", "가르치다", "실수를 수정하다")의 관점에서 고려되어야 합니다. 이것은 먼저 단순한 사용자를 위해 모델을 시각적으로 만들기 때문입니다. 둘째, 이러한 개념 기능은 새로운 토폴로지 및 방법으로 확장하기 쉽습니다.

 
더 많은 IMHO. 귀하의 요구 사항을 충족하는 전문 컨설턴트를 외부에서 찾을 가능성은 거의 없습니다. 기껏해야 동급의 전문가들과 교섭에 얽매이게 되지만, 협상 단계에서 요구하는 수준에 그들의 수준을 과대평가하여 그들의 지식을 팔려고 할 것입니다. 메타쿼터의 주관적인 평가를 기반으로 동등하게 또는 동등하지 않게 프로젝트 가 끝날 때 당신에게 그것을 나눕니다.
 
세르게예프 :

더 쉽게 만들 수 있습니다.

이 상황에서 우리는 보편적인 모델로 추상화하려는 시도와 함께 특정에서 일반으로 이동합니다.

1. 우리는 우리가 구현할 수 있는 네트워크(위상 및 학습 방법)를 그립니다(종이 + 수학적 모델의 언어 알고리즘).
2. 추상 엔진 클래스를 생성하기 위해 그려진 모델에서 공통 도킹 포인트를 찾습니다.

기본 벽돌을 그리기 위해 더 많은 모델을 고려해야 합니다.

이 추상화는 인간 언어의 개념("우리가 창조하다", "가르치다", "실수를 수정하다")의 관점에서 고려되어야 합니다. 이것은 먼저 단순한 사용자를 위해 모델을 시각적으로 만들기 때문입니다. 둘째, 이러한 개념 기능은 새로운 토폴로지 및 방법으로 확장하기 쉽습니다.


나는 12페이지에 보편적인 뉴런을 그렸지만 거기에 빠진 것이 있습니다.

즉, 활성제의 메모리 수용 세포.

그러나 교수법으로 나는 수학자들이 생각하게합니다. o)

 
미첵 :
더 많은 IMHO. 귀하의 요구 사항을 충족하는 전문 컨설턴트를 외부에서 찾을 가능성은 거의 없습니다. 기껏해야 같은 수준의 전문가와 협상에 얽매이게 되지만 협상 단계에서 요구하는 수준에 자신의 수준을 과대평가하여 지식을 팔려고 하는 전문가들. 메타쿼터에 대한 주관적인 평가를 기반으로 동등하게 또는 동등하지 않게 프로젝트 종료 시 이를 나누는 것이 효율적입니다.

예산으로 잠시만 기다려 주십시오. 저는 개인적으로 설문 조사의 첫 번째 항목을 선택했으며 여기의 두뇌는 땅 위에 있지 않습니다.

그리고 외부의 전문가에 관해서는 어디를 봐야하는지에 따라 다르며 적어도 교육을 받은 수학자여야 합니다.

수학자, 즉 수학자 근처에 있지 않습니다.

 
우크라이나 :

예산으로 잠시만 기다려 주십시오. 저는 개인적으로 설문조사의 첫 번째 항목을 선택했으며 여기의 두뇌는 땅 위에 있지 않습니다.

그리고 외부에서 온 전문가에 대해서는 어디를 보느냐에 따라 다르며 적어도 교육을 받은 수학자여야 합니다.

수학자, 즉 수학자 근처에 있지 않습니다.

먼저 전문가의 요구 사항에 대한 일반적 또는 거의 일반적인 의견을 공식화하려고 시도합니다.
 

세르게예프 :

2. 추상 엔진 클래스를 생성하기 위해 그려진 모델에서 공통 도킹 포인트를 찾습니다.

샘플 코드를 그려서 게시했습니다. 모든 단순 모델은 이러한 엔티티에 속합니다.
 
더엑스퍼트 :
그건 그렇고, Vladimir, 당신은 당신의 시야와 그물을 더 넓게 만들고 싶습니까?

제 생각에 그리드는 모델링과 분류로 나뉩니다. 모델러는 과거 가격과 같은 일부 입력을 기반으로 다음 가격을 예측하려고 합니다. 이러한 네트워크 모델은 IMHO 시장에 적용할 수 없습니다. 네트워크 분류는 입력을 분류하려고 시도합니다(예: 매수/매도/보유 또는 추세/고정 등) 이것이 내가 관심을 갖는 것입니다. 내 생각에 가장 유망한 분류 네트워크는 올바른 입력 데이터 변환이 포함된 SVM입니다. 네트워크 자체는 입력 데이터의 변환만큼 중요하지 않습니다. 즉, SVM 대신 RBN과 같은 다른 것을 사용할 수 있습니다. 지난 2년 동안 저는 뇌의 원리에 기반한 네트워크에 대해 작업해 왔습니다(참고로 MLP와 대부분의 다른 네트워크는 뇌와 관련이 없습니다). 뇌에는 SVM과 같은 일종의 분류 엔진을 사용하여 입력 데이터(음향, 이미지 등)를 변환하는 여러 계층이 있습니다. 두뇌 의 데이터 변환은 평소와 같이 차원을 필터링하고 축소하여 발생합니다. 필터 특성은 감독 없이 Hebbian 경쟁 학습 또는 기타 자가 학습 방법을 사용하여 학습됩니다. 샘플링된 데이터의 분류는 교사(피드백)와 함께 발생합니다. 나중에 더 자세히 쓰겠습니다.

MLP
일반화된 MLP
모듈식 네트워크
자체 구성 지도
신경 가스
경쟁 학습 - 관점
헤비안 - 유망한
FFCPA
방사형 기저 네트워크
LSTM
시간 지연 반복
부분적으로 재발
웨이블릿 네트워크
완전 재발
신경 퍼지
서포트 벡터 머신 - 원근감
맞춤형 아키텍처 - 관점