트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 613

 
블라디미르 페레르벤코 :

놀란. 1시간 이상 세는 이 모델은??

최대 1-2분이어야 합니다.

88-50-20-2 네트워크, 88개의 예측 변수에 대한 86400행의 훈련 데이터. + 검증 데이터 및 테스트 사이트 각각에 대해 + 28800(단, 빠르게 계산됨).

 
마법사_ :

선생님, 묻기 두렵습니다. 그리고 모델 비용은 얼마입니까?
글쎄, 그래서 당신은 확실히 한 푼도 가져 오지 않았습니까? 아마도 공식(가격-품질)은 무엇입니까?)))


글쎄, 분명히 두 코펙이 아니라, 마술사 ..... 당신은 이것을 이해해야합니다, 나는 조금 아닌 것 같아요 .....

다차원 데이터 공간 분야에서 일반화 모델을 찾는 것은 최적화의 관점에서 빠른 작업이 아닙니다. 그 이유는 요구 사항이 증가하고 효과를 줄이기 위해 모델을 구축할 때 점점 더 엄격한 규칙이 도입되기 때문입니다. 과적합은 그러한 모델을 찾는 시간의 증가를 수반합니다. 즉, 데이터를 조심스럽게 흔들어야합니다....

AWS와 Reshet의 동일한 파일이 다른 시간 동안 ternated되는 이유는 무엇입니까? AWS 2~5분, Reshetov 3시간, 그의 모델은 AWS 모델의 2배/왜???

 
도서관 :

88-50-20-2 네트워크, 88개의 예측 변수에 대한 86,400행의 훈련 데이터. + 검증 데이터 및 테스트 사이트 각각 28,800 (단, 빠르게 계산됨)


이러한 세트로 Reshetov는 영원히 계산됩니다 :-)

FX의 비밀을 알려드립니다. 데이터의 알파는 매우 짧은 영역에만 있을 수 있습니다. 내 데이터로 이 매개변수를 50줄 이상 늘릴 수 없습니다. 즉, 100개의 열과 50개의 행이 있습니다. 이것은 시장의 약 2주를 다룹니다. 즉, 훈련 간격을 늘리기 시작하면 모델의 품질이 75% 아래로 떨어지고 OOS의 품질은 작업이 불가능할 정도로 자신의 위험과 위험을 감수해야 합니다. 따라서이 수천 개의 레코드로 무엇을하고 싶은지 이해가되지 않습니다 ??? 허용 가능한 수준의 훈련 품질로 시장 전체에 모델을 구축할 수는 없을 것입니다. 훈련 영역이 클수록 모델은 더 나빠집니다. 그리고 그런 부분에서 좋은 결과를 보인다면 이건 일반화의 개념과 아무 상관이 없겠죠..... 글쎄요....

긴 단면에 좋은 성능으로 모델을 구축하는 것이 왜 불가능한지 아십니까??? 그런 데이터 ... 입력 .... 그런 모델을 만들 수 있는 것은 원칙적으로 자연에 존재하지 않기 때문에 ..... 그런 데이터가 없으면 오랫동안 모든 곳에서 사용되었을 것입니다. 나는 공개 데이터를 가지고 있습니다 ....... 내부 또는 다른 것이 아닙니다 .... 그래서 ... 왜 그렇게 많은 행을 이해하지 못합니까????

 
마이클 마르쿠카이테스 :

이러한 세트로 Reshetov는 영원히 계산됩니다 :-)

FX의 비밀을 알려드립니다. 데이터의 알파는 매우 짧은 영역에만 있을 수 있습니다. 내 데이터로 이 매개변수를 50줄 이상 늘릴 수 없습니다. 즉 100개의 열과 50개의 행 이 있습니다.

그런 모델은 만들 수 없고, 샘플 길이는 특성 수보다 5배 이상 커야 하며, 특성 수는 샘플보다 많아야 하며 규칙성의 저주

당신은 외환의 비밀을 공개하지 않지만 무지를 보여줍니다

 
마이클 마르쿠카이테스 :
따라서이 수천 개의 레코드로 무엇을하고 싶은지 이해가되지 않습니다 ??? 허용 가능한 수준의 훈련 품질로 시장 전체에 모델을 구축할 수는 없을 것입니다. 훈련 영역이 클수록 모델은 더 나빠집니다. 그리고 그런 부분에서 좋은 결과를 보인다면 이건 일반화의 개념과 아무 상관이 없겠죠..... 글쎄요....

60일만의 M1입니다. 따라서 전체 시장이 아니라 지난 3개월 동안입니다.

듀레이션이 2배가 되자 더이상 모델이 구축되지 않았다.... 물론 듀레이션 최적화가 필요하긴 한데 아직 그 정도까지는 이르지 못했다. 여기에서는 처음에 이해해야 할 레이어의 수입니다.

10개 이상의 모델이 구축된 경우 계산에는 8-10시간이 소요됩니다(((

3개의 계산 공식이 있습니다. 최소값과 최대값을 찾아 세고, 그 사이에 2-3개, 외부에 2-3개를 계산합니다. 그런 다음이 모든 것 중에서 최고의 모델을 선택하기 위해 이미 집계 된 경우 앙상블에 포함됩니다.

PS 흠. 이것은 2개의 은닉층이 있고 첫 번째 층과 같은 수입니다.

일반적으로 날짜가 모델을 결정합니다.

 
도서관 :

일반적으로 날짜가 모델을 결정합니다.


사탄 숭배의 그러한 날짜에 좋은 비디오 카드, 이것은 더 이상 khukhra-muhra가 아닙니다. :)

괴물 광부는 모든 일반 카드에 대해 가격표를 3번 인상했습니다.

 
도서관 :

60일만의 M1입니다. 따라서 전체 시장이 아니라 지난 3개월 동안입니다.

듀레이션이 2배가 되자 더이상 모델이 구축되지 않았다.... 물론 듀레이션 최적화가 필요하긴 한데 아직 그 정도까지는 이르지 못했다. 여기에서 처음으로 이해해야 할 레이어의 수입니다.

10개 이상의 모델이 구축된 경우 계산에는 8-10시간이 소요됩니다(((

3개의 계산 공식이 있습니다. 최소값과 최대값을 찾아 세고, 그 사이에 2-3개, 외부에 2-3개를 계산합니다. 그런 다음이 모든 것 중에서 최고의 모델을 선택하기 위해 이미 집계 된 경우 앙상블에 포함됩니다.

PS 흠. 이것은 2개의 히든 레이어와 첫 번째 레이어와 같은 숫자입니다.

일반적으로 날짜가 모델을 결정합니다.

그건 그렇고, 그러한 데이터를 가지고 프랙탈 분석의 원리에 기반한 모델을 구축하려고 노력해야 합니다. 여러 시간대가 입구에 갈 때. 여기에서 Maxim은 세계의 프랙탈리티에 대한 좋은 비디오를 제시했습니다.
일반적으로 월 7~8달러에 LAN에서 i7 3-4Ghz 및 ssd 전용 서버 를 제안할 수 있습니다. 그들은 그것을 정상이라고 생각하며 컴퓨터는 그렇게 바쁘지 않을 것입니다.
 

그리고 이제 입력(그리고 아마도 출력)이 ODA에 대한 견적 배포에 제출될 수 있다는 생각이 떠나지 않습니다. 깊이 또는 분포의 순간

일부 평활화 및 확률적 그림이 나타나며 아마도 중요한 특정 옵션의 수가 제한될 것입니다. 그러나 나는 아직 그것을 하지 않았습니다. 이를 위해서는 분산 분석을 펌핑해야 합니다.

프랙탈을 고려하면 mb. 서로 다른 TF 간의 분포 비율. 그러나 다이어그램을 그리려면 주제를 진지하게 해결해야합니다.

 
마이클 마르쿠카이테스 :

다차원 데이터 공간 분야에서 일반화 모델을 찾는 것은 최적화의 관점에서 빠른 작업이 아닙니다. 그 이유는 요구 사항이 증가하고 효과를 줄이기 위해 모델을 구축할 때 점점 더 엄격한 규칙이 도입되기 때문입니다. 과적합은 그러한 모델을 찾는 시간의 증가를 수반합니다. 즉, 데이터를 조심스럽게 흔들어야합니다....

AWS와 Reshet의 동일한 파일이 다른 시간 동안 ternated되는 이유는 무엇입니까? AWS 2~5분, Reshetov 3시간, 그의 모델은 AWS 모델의 2배/왜???

Reshetov 모델은 표준이 아닙니다. 예를 들어, 예측 변수 집합에 대한 검색은 다양한 옵션을 통해 정렬하여 발생합니다. 모델은 예측 변수 집합을 무작위로 취하고, 훈련하고, 결과를 기억합니다. 이것을 주기로 엄청나게 반복하여 결과적으로 가장 좋은 결과가 최종 모델로 사용됩니다. 이 프로세스는 먼저 특수 알고리즘 으로 예측 변수 를 선택한 다음 이 특정 세트에 대해 한 번만 Reshetov 모델을 훈련하면 눈에 띄게 가속화될 수 있습니다. 그리고 AWS에 버금가는 속도로 Reshetov 모델의 품질을 얻을 수 있습니다. 이러한 모델의 "비용"은 눈에 띄게 떨어지지만 품질은 동일한 수준으로 유지됩니다.

 
알렉세이 테렌테프 :
그건 그렇고, 그러한 데이터를 가지고 프랙탈 분석의 원리에 기반한 모델을 구축하려고 노력해야 합니다. 여러 시간대가 입구에 갈 때. 여기에서 Maxim은 세계의 프랙탈리티에 대한 좋은 비디오를 제시했습니다.
일반적으로 월 7~8달러에 LAN에서 i7 3-4Ghz 및 ssd 전용 서버 를 제안할 수 있습니다. 그들은 그것을 정상이라고 생각하며 컴퓨터는 그렇게 바쁘지 않을 것입니다.
여러 TF를 사용합니다.) 1분마다 분석만 합니다. 서버가 필요하지 않습니다. 감사합니다!
사유: