트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1539

 
이고르 마카누 :

음성 및 음악 파일은 dtw를 사용하여 압축되며 차례로 VR입니다.

;)

이고르 마카누 :

글쎄, 나는 이미이 주제를 연구했습니다. 내 자신의 말로라면 다음과 같습니다.

)) nafig 압축은 무엇입니까? 그곳에서 무엇을 공부했는지는 분명하지 않지만 확실히 그렇지는 않습니다.

막심 드미트리예프스키 :

그것이 바로 지느러미를 압축하는 이유입니다. VR :)

그리고 정말, 왜? :))

 
도서관 :

예를 들어 5자리를 4자리로 변환하는 것과 같이 입력 데이터를 간단히 이산화할 수 있습니다. 그리고 데이터는 이미 10개의 그룹에 있습니다.
글쎄, 또는 앞서 제안한 대로 - 시트에서 원하는 깊이 또는 예제 수에 도달하면 분기를 중지하도록 alglib 포리스트에 빌드합니다.

샘플링은 고양이 기능 + vanhot보다 잘 작동하지만 크게 개선할 수 없었습니다.

 
mytarmailS :

그리고 정말, 왜? :))

따옴표를 zip 아카이브로 압축하고 크기를 확인하면 새로운 기능이 될 것입니다.

 
mytarmailS :

)) 무슨 nafig 압축? 그곳에서 무엇을 공부했는지는 분명하지 않지만 확실히 그렇지는 않습니다.

우리는 당신이 글을 쓰기 전에 적어도 위키를 읽고 플래시했다고 가정할 것입니다.

dtw 알고리즘은 신호의 시간 구성 요소를 분석하고 이 값을 알고 있는 특정 상수 값으로 가져옵니다. 신호의 정보 구성 요소 사이에서 일시 중지하고 제거하면 됩니다. 결과적으로 데이터 패킷이 시간 성분 + 일정한 시간 축 변환 알고리즘


막심 드미트리예프스키 :

따옴표를 zip 아카이브로 압축하고 크기를 확인하면 새로운 기능이 될 것입니다.

작동하지 않을 경우 zip 알고리즘은 엄격한 변환 알고리즘이며 1바이트 차이가 나는 데이터는 동일한 데이터로 식별되지 않으며,

데이터 작업을 위한 엄격한 알고리즘이 필요하지 않습니다. 실제로 발명하지 않으면 원본 데이터가 모두 손실됩니다. 이것은 jpg입니다. 손실로 압축되고 콘텐츠에 가까운 데이터는 결국 거의 동일하게 복원되었지만 이것은 시각적입니다! 그리고 그것을 식별하는 방법에 대한 기계? - 체크섬이 달라지고 바이트 자체의 값이 달라집니다....

그러나 NN에 대한 교육 예제로 이것이 필요한 것일 수 있습니다. 즉, 임의의 데이터(그림이 아님)에 대해 일부 jpg가 필요합니다.

 
이고르 마카누 :

작동하지 않으며 zip 알고리즘은 엄격한 변환 알고리즘이며 1바이트 차이가 나는 이 데이터를 동일한 데이터로 식별하는 데 작동하지 않습니다.

데이터 작업을 위한 엄격한 알고리즘이 필요하지 않습니다. 실제로 발명하지 않으면 원본 데이터가 모두 손실됩니다. 이것은 jpg입니다. 손실로 압축되고 콘텐츠에 가까운 데이터는 결국 거의 동일하게 복원되었지만 이것은 시각적입니다! 그리고 그것을 식별하는 방법에 대한 기계? - 체크섬이 달라지고 바이트 자체의 값이 달라집니다....

그러나 NN에 대한 교육 예제로 이것이 필요한 것일 수 있습니다. 즉, 임의의 데이터(그림이 아님)에 대해 일부 jpg가 필요합니다.

네, 농담이었습니다.) 글쎄요, autoencoder 또는 convolution은 이 작업을 잘 수행합니다. Vladimir에는 인코더에 대한 기사가 있지만 컨볼루션은 없습니다.

seq2seq는 사실 디코더 인코더이기도 합니다. 예를 들어, 기계 번역에서 러시아어와 영어의 문자 수가 다릅니다. 단어. 거기에서 모두 압축, 분석, 압축 해제됩니다.

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4
Seq2Seq model using Convolutional Neural Network
Seq2Seq model using Convolutional Neural Network
  • Gautam Karmakar
  • medium.com
Seq2seq model maps variable input sequence to variable length output sequence using encoder -decoder that is typically implemented as RNN/LSTM model. But this paper https://arxiv.org/pdf/1705.03122.pdf shows application of convolutional neural network for seq2seq learning which is state of the art for computer vision using deep learning. There...
 
막심 드미트리예프스키 :

dtw에 대해 읽기 시작했지만 핀 행에 적용하는 방법과 필요한 이유를 이해하지 못했습니다. 하지만 주제는 흥미롭습니다. 아마도

DTW가 그래프 조각 간의 유사점을 찾는 프로세스의 확장인 개념이 하나 있었지만 결국 웨이블릿은 아마도 더 간단할 것입니다(또는 그렇지 않을 수도 있음)

 
막심 드미트리예프스키 :

네, 농담이었습니다.) 글쎄요, autoencoder 또는 convolution은 이 작업을 잘 수행합니다. Vladimir에는 인코더에 대한 기사가 있지만 컨볼루션은 없습니다.

seq2seq는 사실 디코더 인코더이기도 합니다. 예를 들어, 기계 번역에서 러시아어와 영어의 문자 수가 다릅니다. 단어. 거기에서 모두 압축, 분석, 압축 해제됩니다.

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4

작년에 인코더에 대해 읽었습니다. 평소와 같이 가격 차트에서 모든 것이 큰 머리핀에 부딪힐 것이라고 생각합니다. 머리핀이 없으면 Mashki가 작동하고 Kalman 필터가 작동하며 모든 것이 잘 작동합니다. ))

그러나 손실 압축에 대해서는 여기에서 검색을 시도할 수 있습니다. 샘플 자체는 크기가 작아 네트워크가 크지 않으며 일반적으로 더 잘 학습합니다.


추신: 예, 포럼에 DTW가 있었고 검색은 https://www.mql5.com/en/code/10755 입니다.

한 번 비틀었지만 ... 사용하기 전에 모든 것을 파일로 처리해야합니다)))

 
초월자 :

DTW가 그래프 조각 간의 유사점을 찾는 프로세스의 확장인 개념이 하나 있었지만 결국 웨이블릿은 아마도 더 간단할 것입니다(또는 그렇지 않을 수도 있음)

이고르 마카누 :

추신: 예, 포럼에 DTW가 있었고 검색은 https://www.mql5.com/ru/code/10755 입니다.

한 번 비틀었지만 ... 사용하기 전에 모든 것을 파일로 처리해야합니다)))

오, 아니, 뭐, 신경망을 돌리기 위해 더 나아가겠습니다. 나는 그것을 믿지 않는다.

 
막심 드미트리예프스키 :

오, 아니, 뭐, 신경망을 돌리기 위해 더 나아가겠습니다. 나는 그것을 믿지 않는다.

NS를 더 이상 돌리고 싶지 않습니다. MT5 테스터와 GA를 사용했습니다. GA는 매우 적절하게 작동합니다. 빠르게(4.5 x 10 ^ 142 옵션 테스트 !!! - 약 2-3시간) 빌드할 수 있습니다. TS 머신으로 테스트한 다음 앞으로 테스트하면 결과가 상당히 만족스럽습니다. IMHO

추신: 하지만 GA도 파일로 마무리해야 합니다. 입력 매개변수를 선택하기가 어렵습니다. 5년 동안 많은 테스트를 수행하고 잘못된 입력 데이터로 자르기 시작했습니다. 그런 다음 얼마나 운이 좋은지 또는 즉시 최적화할 위치를 찾았는지 여부 그것은 전혀 찾지 않을 것입니다

 
이고르 마카누 :

NS를 더 이상 돌리고 싶지 않습니다. MT5 테스터와 GA를 사용했습니다. GA는 매우 적절하게 작동합니다. 빠르게(4.5 x 10 ^ 142 옵션 테스트 !!! - 약 2-3시간) 빌드할 수 있습니다. TS 머신으로 테스트한 다음 앞으로 테스트하면 결과가 상당히 만족스럽습니다. IMHO

곧 모니터링을 하거나 글을 쓰거나.. 너무 게을러서 글 귀찮게도 많이 하고

모든 것이 이제 독점적으로 파이썬에 있습니다. 많은 시간을 절약합니다.

GA의 단점은 일반화되지 않는다는 것입니다.
사유: