하이브리드 신경망. - 페이지 4

 
joo >> :

치과에

MQL4

일리아에게

있다. 또한 약 200-300권의 책을 저술한 다양한 작가들이 있습니다. 이 라이브러리를 읽는 것보다 NN과 GA를 스스로 마스터하는 것이 더 빠를 것이라고 생각했습니다. 그리고 그렇게 되었습니다. 더 빠르게.

숙달이란 용어의 숙달이 아니라 실제 적용을 의미합니다.


그런 다음 Khaikin S. 330, 4,19장 나는 이 일을 잘한다. 금방 감을 잡을 수 있을 것입니다.
 
joo >> :

한 가지 더 추천하고 싶습니다. 각 시대의 최고의 개인을 포함하는 추가 인구를 얻으십시오(저는 이것을 "시대 유전자 풀" 또는 GE라고 부릅니다). 건널 때 현재 인구와 GE에서 개인을 가져옵니다. 따라서 ff 발사 횟수가 대폭 줄어듭니다. 이 기술을 엘리트 선택과 혼동하지 마십시오.


십자가의 본질을 밝히겠습니다. 나는 이 퍼셉트론이 다른 퍼셉트론보다 작업에 얼마나 잘 대처했는지를 반영하는 확률로 내 것을 선택합니다. 따라서 최고는 각 페어에 참여할 확률이 80%, 최악의 경우 20%입니다. 이것이 그들이 사는 방식입니다. 당신의 방법은 무엇을 의미합니까? 인구.
 
IlyaA >> :
고맙습니다. 매우 상세합니다. 원칙적으로 예, 이미 다른 매개변수로 알고리즘을 여러 번 실행한 경우 결과를 사용합니다. 그래서 200... 글쎄, 그렇게 하자. 그럼 다음 순간. 우리는 수익성있는 "fenki"(양초와 지표의 조합)를 찾아야하며 눈이 아니라 퍼셉트론으로 찾고 있습니다. 우리를 위해 선형으로 분리 가능한 그룹을 만들게 하십시오. 검색 기준 이익 => 최대. 사용자의 요청에 따라 중지합니다. 그런 다음 저울을 분석하고 "fenki"를 식별합니다. 그런 다음 일반 지표와 거래 시스템. 꽤 어렵지만 언뜻보기에는. 저울을 샅샅이 뒤지는 것은 매우 흥미롭습니다(적어도 저에게는). Question :) 양초+지표(옵션)로 5년동안 개인별로 히스토리를 운영해야 하고, 인구당 200개씩 있습니다. 이것은 엄청난 자원 소비이며 언제 멈출지 알 수 없습니다. 문제를 재구성하거나 다른 방법으로 이 구성의 가장 중요한 속성인 기계에 의한 "재미있는" 감지를 보존해 보겠습니다.

무슨 TF에 5년? M1이라면 오랜 시간 동안 그렇습니다. W1이면 매우 빠르게.

네트워크에서 원더카인드를 만들고 모든 역사적 순간(수익성 있는 Fennecs)을 네트워크에 가르치려고 할 필요가 없습니다. 그들 중 대부분은 적어도 99% 이상 다시는 일어나지 않을 것입니다.

1000-3000바의 역사가 최적이라고 생각합니다. 런타임 오류가 주어진 수준 이상으로 상승하면 재학습합니다. 예시(막대)의 수에 대해 다양한 의견이 있지만 아마도 이제 이 문제에 반대하는 사람들이 있을 것입니다.

 
joo >> :

무슨 TF에 5년? M1이라면 오랜 시간 동안 그렇습니다. W1이면 매우 빠르게.

네트워크에서 원더카인드를 만들고 모든 역사적 순간(수익성 있는 Fennecs)을 네트워크에 가르치려고 할 필요가 없습니다. 그들 중 대부분은 적어도 99% 이상 다시는 일어나지 않을 것입니다.

1000-3000바의 역사가 최적이라고 생각합니다. 런타임 오류가 주어진 수준 이상으로 상승할 때 다시 학습합니다. 예시(막대)의 수에 대해 다양한 의견이 있지만 아마도 이제 이 문제에 반대하는 사람들이 있을 것입니다.


글쎄요, 시작하겠습니다. 많은 바를 제안하는 이유는 무엇입니까? 왜냐하면 (그가 묻고 스스로 대답했기 때문입니다) 올바르게 언급된 대로 대부분의 페넥 여우는 일회용이며 네트워크가 이를 "학습"할 수 있습니다. 그리고 항상 그렇듯이 테스트 된 간격과 나머지 모든 음식에서 초콜릿이 나옵니다. 나는 일회성 순간의 최고의 필터를 사용하는 것이 그들의 통합이라고 제안합니다. 메쉬는 반복되는 회향을 분리할 가능성이 더 높습니다. 어떤 아이디어가 있습니까?
 
gumgum >> :

어제 나는 그리드 10-15-10-1을 썼습니다.

계속...


퍼셉트론의 과도한 훈련(재훈련, 벼락치기)은 확인하셨나요?
 
IlyaA >> :


그런 다음 Khaikin S. 330, 4,19장 나는 이 일을 잘한다. 금방 감을 잡을 수 있을 것입니다.

읽을 시간이 없지만 아마도 읽을 것입니다. 고맙습니다.

IlyaA 작성 >>

십자가의 본질을 밝히겠습니다. 나는 이 퍼셉트론이 다른 퍼셉트론보다 작업에 얼마나 잘 대처했는지를 반영하는 확률로 내 것을 선택합니다. 따라서 최고는 각 페어에 참여할 확률이 80%, 최악의 경우 20%입니다. 이것이 그들이 사는 방식입니다. 당신의 방법은 무엇을 의미합니까? 인구.

네. 이 부모의 자손은 새로운 인구로 유입됩니다. 나머지 사람들은 사랑을 경험하지 못한 채 불명예스럽게 죽습니다. :)

그게 바로 캐치입니다! 우리는 모릅니다. 아마도 이 죽은 사람들 중에 합당한 사람들이 있었을까요? 그래서 그들이 괴물처럼 보인다면 새롭고 강력한 세대를 줄 수 있습니다.

마치 초파리에서 백조를 번식시키려는 것처럼 GA의 문제에 접근하십시오.

알고리즘은 다음과 같습니다.

1 임의의 개인 집단을 생성함(대부분 - 모두 못생김)

2 체력을 결정합니다.

3 모집단을 유전자 풀에 복사

4 개체군과 유전자 풀의 교차 개체(거기서 선택)

5 새 인구에 새 개인 배치

6 각 개인의 적합성을 결정

7 그들은 오래된 집단과 새로운 집단에서 가장 좋은 개체를 취하여 유전자 풀보다 더 나은 경우 유전자 풀에 배치했습니다(대체됨)

8 Old 인구를 새로운 인구의 개인으로 대체했습니다.

9 n4로 반복

유전자 풀에서 최고보다 나은 개인이 더 이상 없을 때까지 계속됩니다.

 
믈린 제가 글을 쓰는 동안 3개를 쓰고 계시네요!, 진정하세요 :)
 
joo >> :

읽을 시간이 없지만 아마도 읽을 것입니다. 고맙습니다.

네. 이 부모의 자손은 새로운 인구로 유입됩니다. 나머지 사람들은 사랑을 경험하지 못한 채 불명예스럽게 죽습니다. :)

그게 바로 캐치입니다! 우리는 모릅니다. 아마도 이 죽은 사람들 중에 합당한 사람들이 있었을까요? 그래서 그들이 괴물처럼 보인다면 새롭고 강력한 세대를 줄 수 있습니다.

마치 초파리에서 백조를 번식시키려는 것처럼 GA의 문제에 접근하십시오.

알고리즘은 다음과 같습니다.

1 임의의 개인 집단을 생성함(대부분 - 모두 못생김)

2 체력을 결정합니다.

3 모집단을 유전자 풀에 복사

4 개체군과 유전자 풀의 교차 개체(거기서 선택)

5 새 인구에 새 개인 배치

6 각 개인의 적합성을 결정

7 그들은 오래된 집단과 새로운 집단에서 가장 좋은 개체를 취하여 유전자 풀보다 더 나은 경우 유전자 풀에 배치했습니다(대체됨)

8 Old 인구를 새로운 인구의 개인으로 대체했습니다.

9 n4로 반복

유전자 풀에서 최고보다 나은 개인이 더 이상 없을 때까지 계속됩니다.




확인. 기다리겠습니다 :) 빔서치 하면 생각나는군요. 빔 탐색 알고리즘의 동작을 확률적 크로스오버와 비교했다. 결과는 확률적 교차에 대해 더 좋았습니다(더 적은 모집단). 하지만 잘 활용하면 잘 될 확률이 높다. 실험을 해야 합니다. 그것에 대해 어떻게 생각하세요? XOR이라고 할까요?
 
IlyaA >> :


글쎄요, 시작하겠습니다. 많은 바를 제안하는 이유는 무엇입니까? 왜냐하면 (그가 묻고 스스로 대답했기 때문입니다) 올바르게 언급된 대로 대부분의 페넥 여우는 일회용이며 네트워크는 이를 "학습"할 수 있습니다. 그리고 항상 그렇듯이 테스트 된 간격과 나머지 모든 음식에서 초콜릿이 나옵니다. 나는 일회성 순간의 최고의 필터를 사용하는 것이 그들의 통합이라고 제안합니다. 메쉬는 반복되는 회향을 분리할 가능성이 더 높습니다. 어떤 아이디어가 있습니까?

뇌에 대해 생각하는 것과 같은 방식으로 NN을 생각하십시오. 어떻게 "통합"하시겠습니까? 당신이 그림을 잘 그린다고 상상해보세요. 어쩌면 당신은 실제로 이해하고 있습니다.

그래서 당신은 유명한 마스터의 특징적인 트릭 (유익한 기능)을 알고 있습니다. 이제 Photoshop의 모든 유명 마스터의 작업을 하나의 레이어에 붙입니다. 한 명 이상의 유명 작가에 대해 알고 있는 기능을 하나 이상 찾을 수 있습니까? 나는 의심한다. NN도 마찬가지입니다.

 
joo >> :

뇌에 대해 생각하는 것과 같은 방식으로 NN을 생각하십시오. 어떻게 "통합"하시겠습니까? 당신이 그림을 잘 그린다고 상상해보세요. 어쩌면 당신은 실제로 이해하고 있습니다.

그래서 당신은 유명한 마스터의 특징적인 트릭 (유익한 기능)을 알고 있습니다. 이제 Photoshop의 모든 유명 마스터의 작업을 하나의 레이어에 붙입니다. 한 명 이상의 유명 작가에 대해 알고 있는 기능을 하나 이상 찾을 수 있습니까? 나는 의심한다. NN도 마찬가지입니다.


노이즈 통합이란 무엇입니까? (다시 그는 스스로에게 대답했습니다.) 우리는 간격 [-1; 하나]. 이에 따라 매트. 기대 = 0. 훌륭합니다. 복잡한 구성의 신호 s(t)도 있습니다. 신호의 진폭과 노이즈는 비슷한 값을 가집니다. 작업은 s(t) + m(t)를 무제한으로 반복할 수 있는 경우 s(t) + m(t)에서 s(t)를 선택하는 것입니다. 간섭은 매번 새로운 것이고 신호 곡선은 이전 곡선과 매우 다를 것입니다. 그들은 놀랍도록 간단합니다. 1000회 반복에 걸쳐 신호 s(t) + m(t)의 평균 값을 찾습니다. 이 경우 수학적 기대치가 0인 간섭을 통합하여 제거했습니다. 신호 s(t) + m(t)의 평균을 낼 수 있는 횟수가 많을수록 노이즈가 덜 남습니다. 여기 내 아이디어가 더 자세히 나와 있습니다.

네트워크가 한 번에 모든 fennecs를 찾는 것을 제한하기 위해(추상 효과라고 합시다 :) 뉴런의 수를 줄입니다. 우리는 네트워크의 일반화 능력과 퍼셉트론으로 많은 양의 자료를 학습하는 것이 불가능하다는 점에서 이득을 얻습니다. 우리는 네트워크가 데이터에서 가장 수익성이 높은 회향 하나만 검색하도록 지시할 것입니다. 어떻게 생각하나요?