트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 604

 
마법사_ :

농담이었다. 농담없이 - 경사를 돌리고 그것이 어떻게 영향을 미치는지보십시오.
입력이 작업에 적합하면 "1개의 뉴런"에서 가능합니다.
mo의 맥락에서 유독하다는 것은 이념적으로 정확합니다.
--------------
심층 네트워크 교수 - youtu.be/qx3iM2aa2yU
31분 "아직 과학은 적지만 부두 마법은 많다"



높은 변화율을 특징으로 하는 개발 단계에는 도약이라는 특별한 이름이 있습니다.

활성화 함수(sigmoid, tankh 등)는 변화율에 대한 제한을 도입하여 수정된 점프입니다.

지역 '구도자들'이 이 사실의 의미를 깨닫기까지 얼마나 더 시간이 걸릴까…

 
막심 드미트리예프스키 :

글쎄요, Forex에서는 작동하지 않습니다.

외환은 작동하지 않습니다. 글쎄, 나는 아직 그것을 시도하지 않았다고 말해야합니다.
 
올렉 자동판매기 :

높은 변화율을 특징으로 하는 개발 단계에는 도약이라는 특별한 이름이 있습니다.

활성화 함수(sigmoid, tankh 등)는 변화율에 대한 제한을 도입하여 수정된 점프입니다.

지역 '구도자들'이 이 사실의 의미를 깨닫기까지 얼마나 더 시간이 걸릴까…


실제로 견고성을 확인하지 않고 무언가를 인식하는 요점이 무엇입니까?

나는 그러한 진술을 선호합니다. 여기에 예금의 성장에 대한 곡선이 있습니다 (적어도 테스트에서) .. 그리고 당신은 모두 m ... ki 이제 azazaz .. 네, 질문이 없습니다.

 
막심 드미트리예프스키 :

실제로 견고성을 확인하지 않고 무언가를 인식하는 요점이 무엇입니까?


무슨 말을 했는지 이해가 되시나요?...

 
올렉 자동판매기 :

무슨 말을 했는지 이해가 되시나요?...


난 그럼 네

 
막심 드미트리예프스키 :

그리고 학습 과정에서 기울기 최적화를 포함할 수 있습니다. 제가 직접 했지만 퍼지 논리에만 해당됩니다. 가파름은 큰 영향을 미칠 수 있습니다. 그렇습니다.

당신은 기사에 대한 링크를 제공했습니다 https://habrahabr.ru/post/322438/

신경망 오류 함수의 그래프가 실제로 다음과 같이 구축된 경우(여기에서는 접선으로 배치됨):


그러면 분명히 sigmoid로 비슷한 것을 만드는 것이 가능하지만 개별 섹션의 가파름은 줄어들 것입니다.

Sigmoid가 더 작은 경사를 가지고 있다면 분명히 접선으로 동일한 작업을 수행할 수 있으며 3-5배만 더 취하면 됩니다. 저것들. 뉴런의 수를 증가시킵니다.

아마도 내 시그모이드는 더 작은 오류를 주었을 것입니다. 접선에서 네트워크의 뉴런 수가 충분하지 않았습니다.

Нейронные сети в картинках: от одного нейрона до глубоких архитектур
Нейронные сети в картинках: от одного нейрона до глубоких архитектур
  • 2022.02.17
  • habrahabr.ru
Многие материалы по нейронным сетям сразу начинаются с демонстрации довольно сложных архитектур. При этом самые базовые вещи, касающиеся функций активаций, инициализации весов, выбора количества слоёв в сети и т.д. если и рассматриваются, то вскользь. Получается начинающему практику нейронных сетей приходится брать типовые конфигурации и...
 

누구의 의견입니까? 거래를 배우고 돈을 지불하는 것이 가장 좋습니까 아니면 무료입니까? 그리고 또 다른 질문은 유료 코스에 돈을 쓸 가치가 있습니까?

 

활성화 함수의 기울기가 변경되고 네트워크 자체가 원하는 기울기를 선택한다는 결론에 도달한 https://www.mql5.com/ru/articles/497 기사에 대해 생각한 것:

공식을 살펴보겠습니다.

 for ( int n= 0 ; n< 10 ; n++) 
  {
   NET+=Xn*Wn;
  }
NET*= 0.4 ; // - умножением меняем крутизну ф-ии активации 

훈련하는 동안 네트워크 는 Wn 요소를 선택해야 합니다. 총계가 *0.4인 것이 네트워크에 더 유리하다면, 각 가중치 Wn은 이미 *0.4가 될 모든 가중치 Wn을 간단히 선택합니다. 저것들. 우리는 단순히 최소 오차에 의해 결정되는 공통 요소를 대괄호 안에 넣습니다.

동의하지 않는 사람이 있으면 저를 수정하십시오.

Нейронные сети - от теории к практике
Нейронные сети - от теории к практике
  • 2012.10.06
  • Dmitriy Parfenovich
  • www.mql5.com
В наше время, наверное, каждый трейдер слышал о нейронных сетях и знает, как это круто. В представлении большинства те, которые в них разбираются, это какие-то чуть ли не сверхчеловеки. В этой статье я постараюсь рассказать, как устроена нейросеть, что с ней можно делать и покажу практические примеры её использования. Понятие о нейронных сетях...
 
도서관 :

나는 뭔가를 생각했고 ... 네트워크 자체가 원하는 경사를 선택한다는 결론에 도달했습니다.

바로 그거죠. NN은 필요한 양(가파름이 됨)만큼 모든 가중치를 비례적으로 늘리거나 줄이며 원하는 오프셋도 선택합니다.

어쨌든 대부분의 작업에서는 중요하지 않습니다.

 
네트워크의 뉴런 수를 자동으로 결정하고 싶습니다. 계산 공식은 무엇입니까?
사유: