트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 608

 
박사 상인 :

국회의 앙상블 같다.

내가 틀리지 않는 경우

 
박사 상인 :

그런 다음 이 모든 단계(5개 모델 학습, 각 모델에 고유한 5개 조각 예측, 병합, R2)를 수행할 때마다 모델 매개변수(활성화 함수, 레이어 수 및 크기 등)를 선택하여 훨씬 더 나은 결과를 얻습니다. 추정.

수백 개의 네트워크를 구축하고 훈련해야 합니다! 하지만 아직까지는 다른 선택지가 없다

 
독성 :

그에게 편지를 쓰고 시간당 한 푼의 돈을 제시하면 Perchik에서 개인 레슨을받을 수 있다고 생각합니다. Perepelkin은 조금 더 비싸지 만 그만한 가치가 있습니다.


젠장, 고추에 대해 진심이야? 주석)

사기꾼을 잘못 처리한 드라이버 레이크를 지불

2편은 전혀 모르겠고..알고 싶지도 않음)

요컨대 이 모든 것이 흥미롭지만 이번 주에 잠을 자고 책 읽기를 마칠 시간입니다

 
막심 드미트리예프스키 :

국회에서 온 앙상블 같다.

내가 틀리지 않는 경우

결국, 당신은 일반적인 앙상블을 얻습니다. 그렇습니다. 그러나 결과는 "전체 플레이트에서 5개의 뉴런을 훈련"하는 것보다 훨씬 낫습니다.


마법사_ :

글쎄, 예, 표준 옵션이지만 평방 미터가없는 것을 선호하지만 이미 썼습니다 ...
박사님, 다른 매개변수로 급경사를 수정하고 테스트해 보세요.

나는 LibreOffice를 가지고 있는데 그 뉴런이 작동하지 않았습니다.


도서관 :

수백 개의 네트워크를 구축하고 훈련해야 합니다! 하지만 아직까지는 다른 선택지가 없다

따라서 나는 예를 들어 R의 gbm 패키지를 좋아합니다. 학습률은 훨씬 더 높습니다. 이것은 뉴런이 아니라 스캐폴딩과 부스팅입니다.

k-겹 교차 검증이 뉴런 훈련의 적은 수의 에포크에서 저에게 잘 작동했다는 것도 흥미롭습니다. Epoch의 수는 내가 고른 훈련 매개변수 중 하나였습니다. 적은 수의 에포크 = 빠른 학습, 이것이 장점입니다. 그러나 모델의 가능한 정확도는 더 낮습니다. 이것은 마이너스입니다.

 
박사 상인 :

k-fold 교차 검증을 배우는 것이 좋습니다. 나는 여러 가지 다른 방법을 보았지만 이것이 잘 작동합니다 -

...


뉴런의 초기 가중치가 무작위로 설정된다는 뉘앙스가 있으며, 숲 및 기타 모델을 포함하여 훈련의 최종 결과가 이에 크게 좌우될 수 있습니다.
모델을 훈련하기 전에 매번 난수 생성기 의 값을 동일한 상태로 설정합니다.

set.seed( 12345 )

따라서 결과의 재현성과 안정성을 얻습니다. gpsch 그레인의 값은 12345 대신 선택할 수도 있습니다. 이는 다소 웃기게 들리지만 때로는 필요합니다.

 
박사 상인 :

뉴런의 초기 가중치가 무작위로 설정된다는 뉘앙스가 있으며, 숲 및 기타 모델을 포함하여 훈련의 최종 결과가 이에 크게 좌우될 수 있습니다.
모델을 훈련하기 전에 매번 난수 생성기 의 값을 동일한 상태로 설정합니다.

따라서 결과의 재현성과 안정성을 얻습니다. gpsch 그레인의 값은 12345 대신 선택할 수도 있습니다. 이는 다소 웃기게 들리지만 때로는 필요합니다.



네트워크는 rng 값에 이렇게 반응하므로 휴지통에 버리십시오. 정상적인 네트워크는 0을 포함하여 모든 초기 값에 대해 작동하고 학습합니다.


 
세르게이 찰리셰프 :

해당 뉴런에 많은 뉴런과 레이어 및 끝없는 훈련 기간이 주어지면 초기 시드로 필요한 정확도로 문제 없이 훈련할 것입니다.

예를 들어, 나는 술집 가격의 상승을 예측하는 법을 배우고 있습니다. 문제는 가격에 노이즈가 많고(실제 가격 + - 약간의 랜덤 시프트), 노이즈 예측이 불가능합니다. 그러나 교차 검증을 사용하면 모델이 아직 노이즈를 기억하기 시작하지 않는 매개변수를 선택할 수 있지만 이미 이러한 데이터를 일반화하고 최소한 소수의 경우에 올바르게 예측할 것입니다. 그리고 가중치의 일부 초기 값에 대해 모델은 이 데이터를 어떻게든 일반화하려고 하는 대신 즉시 노이즈를 기억하기 시작합니다. 이것은 좋지 않습니다. 그런 다음 가중치를 초기화하기 위해 다른 초기 입자를 찾아야 합니다.

 
세르게이 찰리셰프 :


네트워크는 rng 값에 이렇게 반응하므로 휴지통에 버리십시오. 정상적인 네트워크는 0을 포함하여 모든 초기 값에 대해 작동하고 학습합니다.



이것은 동적 시스템에서 정적 메서드 를 사용할 수 없다는 사실에 대한 또 다른 설명일 뿐입니다.

나는 또한 setseed를 사용합니다. Moshka는 때때로 강하게 변동합니다. 적어도 나머지 부분에서 눈에 띄게 나타납니다.

 

자, 이제 고양이 사진이 아닌 시계열 학습을 위한 아키텍처를 고려해 보겠습니다. 옵션 한 번:

 

옵션 2:

음, 즉, NS와 오토마타의 조합은 양수 및 음수 arr이 있는 좋은 솔루션인 것 같습니다. 연결, 그리고 누가 그리고 어떻게 구현할 것인가는 또 다른 질문입니다. 개인적으로 이 접근 방식이 가장 분명합니다.

사유: