트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 363

 
막심 드미트리예프스키 :

왜 그렇게 좁게 생각하세요, 여기 있는 모든 사람들은 마치 당근보다 더 달콤한 것을 본 적이 없는 것처럼 이렇게 씁니다)) 용광로 예측기로, 뉴런을 훈련시켜 이 동일한 예측기를 찾고, 뉴런을 훈련시켜 뉴런을 훈련시키고, 실험하세요 :) 당연히 , 지표만 가져와서 입력으로 제공하고 출구에 지그재그로 표시하는 것은 매우 어리석은 일입니다. 왜 모두가 이것을 논의하는지 모르겠습니다 :)

정말 그러고 싶지만...

예를 들어, 컨볼루션 신경망   부분적으로 그들은 그러한 "기술"을 가지고 있으며 전처리 (필터링)를 스스로 배울 수 있지만 망막의 "아날로그"로 설계된 Neo-Cognitron Fokushima의 후예처럼 매우 좁게 전문화되어 있습니다. backprop, CNN 으로 훈련된 눈 사실 사진의 경우는 별거 아니잖아요? 구성에서 많은 마법의 숫자와 샤머니즘 아키텍처, 왼쪽으로 한 걸음, 오른쪽으로 한 걸음 나아가면 모든 것이 깨집니다. 즉, 이것은 작업의 매우 미세 조정입니다.   그리고 모든 것과 모든 것에 대한 보편적인 해결사가 아닙니다. 불행히도 엔지니어링 관점에서 모든 것을 스스로 할 수 있도록 시스템의 기적을 개발하는 것은 순진한 유토피아이며 몇 년의 팀 작업이 필요할 수 있는 문제에 대한 개인 솔루션을 만드는 것이 훨씬 쉽습니다.   그것은 철학적이고 인도주의적인 것에 가깝습니다.

 
알료샤 :

정말 그러고 싶지만...

예를 들어, 컨볼루션 신경망   부분적으로 그들은 그러한 "기술"을 가지고 있으며 전처리 (필터링)를 스스로 배울 수 있지만 망막의 "아날로그"로 설계된 Neo-Cognitron Fokushima의 후예처럼 매우 좁게 전문화되어 있습니다. backprop, CNN 으로 훈련된 눈 사실 사진의 경우는 별거 아니잖아요? 구성에서 많은 마법의 숫자와 샤머니즘 아키텍처, 왼쪽으로 한 걸음, 오른쪽으로 한 걸음 나아가면 모든 것이 깨집니다. 즉, 이것은 작업의 매우 미세 조정입니다.   모든 것과 모든 사람의 보편적인 해결사가 아닙니다. 불행히도 엔지니어링 관점에서 모든 것을 스스로 할 수 있도록 시스템의 기적을 개발하는 것은 순진한 유토피아이며 몇 년의 팀 작업이 필요할 수 있는 문제에 대한 개인 솔루션을 만드는 것이 훨씬 쉽습니다.   그것은 철학적이고 인도주의적인 것에 가깝습니다.


그러나 나는 항상 완벽하게 작동하지는 않지만 때때로 제공 할 좋은 자체 최적화 장치를 만드는 것이 가능하다고 믿습니다.

그러나 이것은 분명히 표준 지표가 아니며 출력에 지그재그가 있을 것입니다. :) 제 생각에는 유치한 게임처럼 들릴 수도 있습니다.

 
막심 드미트리예프스키 :

그것들은 상관 관계가 없을 뿐만 아니라 일반적으로 샘플의 증가와 모순됩니다. 예, 결과적으로 출력은 당황스럽습니다. 항상 0 또는 1 또는 0.5 .. 특히 1개의 뉴런에 대해. 즉, >0.5이면 매도하고 <0.5이면 매수합니다. RSI가 과매도되고 시장이 다음 n-바에서 성장하면 0을 출력하고 RSI가 과매수되고 시장이 하락하면 올바른(귀하의 의견으로는) 예측 변수와 정답을 로드합니다. 제공하다. 그러나 반대의 경우가 많이 있을 것이며, 그녀는 무뚝뚝하고 신호를 혼합하고 트랜스 상태에 빠질 것입니다. 결과적으로, 출력은 항상 한 방향 또는 다른 방향으로 매우 작은 편차로 약 0.5가 될 것입니다... 그리고 이것은 모든 오실레이터의 경우일 것입니다. 왜냐하면 그들은 전혀 예측 변수가 아니라 가격의 파생물이기 때문입니다. :)
> 0.8이면 매수하고 <0.2이면 매도해야 합니다. 따라서 범위 중간에 있는 노이즈를 필터링합니다. 약 0.5
 
도서관 :
> 0.8이면 매수하고 <0.2이면 매도해야 합니다. 따라서 범위 중간에 있는 노이즈를 필터링합니다. 약 0.5

당신은 이해하지 못했습니다)
 
신경망은 인공 지능이고 어떤 사고 시스템도 그렇게 작동하지 않을 것입니다 .... 그녀는 바보가 아닙니다 ... 훈련 전에 돈을 제공하거나 수익금의 일정 비율을 약속하면 그녀는 실제 패턴을 찾기 시작할 것입니다 수익을 창출하고 ..
 
오랫동안 국회를 주제로 하셨던 분들께 질문드립니다.
ALGLIB 및 R의 신경망 - 가중치 계수는 -1에서 1까지 선택됩니다.
 
도서관 :

너무 어렵습니다... 알고리즘을 이해하고(위의 K 상관 관계에 대해) 작성하는 것보다 더 많은 시간이 걸립니다. 모든 입력을 열거하고 상관 관계를 계산하고 상관 관계가 높은 것을 필터링하는 기능은 몇 시간이 걸릴 것이라고 생각합니다.

예측 변수를 선별하기 위한 다른 솔루션과 마찬가지로 쉽게 되기를 바랍니다.

불필요한 예측 변수를 찾는 다른 솔루션이 있습니까?

여기 봐 .

예측 변수의 중요성을 평가할 때 이는 정보 기준에 의해서만 결정되는 것이 아니라 복잡한 값이라는 점을 기억하는 것이 중요합니다. 기사에서는 다양한 측면에서 예측자의 중요성을 보여주기 위해 RandomUniformForest 를 사용하여 예측자를 선택하는 예를 들었습니다. 제 생각에는 이것이 이 목적을 위한 가장 성공적인 패키지입니다.

특히 신경망의 경우 예측 변수의 중요성은 첫 번째 계층의 가중치로 결정할 수 있습니다. 이 접근 방식은 H2O에서 사용됩니다. 내가 시간을 찾으면 나는 예를 들어 줄 것이다.

예측 변수의 중요성 외에도 노이즈 샘플(행)도 정의해야 합니다. 그리고 그들을 별도의 클래스로 가져오거나 훈련 세트에서 제거하십시오. NoiseFilterR 참조

행운을 빕니다

 
도서관 :
오랫동안 국회를 주제로 하신 분들께 질문드립니다.
ALGLIB 및 R의 신경망 - 가중치 계수는 -1에서 1까지 선택됩니다.
가중치 초기화를 말씀하시는 건가요?
 

블라디미르 페레르벤코 :
기사에서는 다양한 측면에서 예측자의 중요성을 보여주기 위해 RandomUniformForest 를 사용하여 예측자를 선택하는 예를 들었습니다.

MQL에서 아날로그를 만들기 위해 이 함수의 중요도 계산 알고리즘을 아는 것은 흥미로울 것입니다.

블라디미르 페레르벤코 :

특히 신경망의 경우 예측 변수의 중요성은 첫 번째 계층의 가중치로 결정할 수 있습니다. 이 접근 방식은 H2O에서 사용됩니다. 내가 시간을 찾으면 나는 예를 들어 줄 것이다.

이것도 생각해보니 구현하기 쉽네요.

블라디미르 페레르벤코 :

예측 변수의 중요성 외에도 노이즈 샘플(행)도 정의해야 합니다. 그리고 그들을 별도의 클래스로 가져오거나 훈련 세트에서 제거하십시오. NoiseFilterR 참조

이것은 나에게 새로운 것입니다. 아이디어 주셔서 감사합니다. 다시 생각해야 합니다.)


블라디미르 페레르벤코 :
가중치 초기화를 말씀하시는 건가요?
-1에서 1까지 선택되는 전체 범위가 무엇인지 의미합니다.
내가 생각하는 이니셜은 무작위로 선택됩니다(범위 중간에 있는 옵션으로).
 
도서관 :

MQL에서 아날로그를 만들기 위해 이 함수의 중요도 계산 알고리즘을 아는 것은 흥미로울 것입니다.

저도 생각해봤는데 구현하기 쉽네요.

이것은 나에게 새로운 것입니다. 아이디어 주셔서 감사합니다. 다시 생각해야 합니다.)


-1에서 1까지 선택되는 전체 범위가 무엇인지 의미합니다.
내가 생각하는 이니셜은 무작위로 선택됩니다(범위 중간에 있는 옵션으로).

신경망은 초기 가중치 초기화에 매우 민감합니다. 이것은 전혀 사소한 질문이 아닙니다. 그 중 하나를 초기화하는 방법은 상당히 많습니다. 사전 훈련( 심층 신경망 에서 사용)이 가장 유망한(IMHO) 방법입니다.

훈련 중에 뉴런의 가중치는 -inf에서 +inf까지 넓은 범위의 값을 가질 수 있습니다. 이러한 왜곡을 방지하기 위해 정규화 및 기타 안정화 방법이 사용되어 가중치 범위를 제한합니다.

행운을 빕니다

사유: