트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1538

 
mytarmailS :

dtw, 스펙트럼 분석.. 번들..

스케일에 관계없이 동일한 패턴을 볼 수 있는 알고리즘을 만들었습니다. 하나의 차트를 보는 알고리즘은 하나의 차트를 보고 분과 주간 차트 모두에서 패턴을 보고 실제로 예측할 수 있습니다. 하지만 아직 일이 많다

dtw에 대해 읽기 시작했지만 핀 행에 적용하는 방법과 필요한 이유를 이해하지 못했습니다. 하지만 주제는 흥미롭습니다. 아마도

 
막심 드미트리예프스키 :

dtw에 대해 읽기 시작했지만 핀 행에 적용하는 방법과 필요한 이유를 이해하지 못했습니다. 하지만 주제는 흥미롭습니다. 아마도

음성 및 음악 파일은 dtw를 사용하여 압축되며 차례로 VR입니다.

;)

 
이고르 마카누 :

음성 및 음악 파일은 dtw를 사용하여 압축되며 차례로 VR입니다.

;)

그것이 바로 지느러미를 압축하는 이유입니다. VR :)

 
막심 드미트리예프스키 :

그것이 바로 지느러미를 압축하는 이유입니다. VR :)

글쎄, 나는 이미이 주제를 연구했습니다. 내 자신의 말로라면 다음과 같습니다.

여기에서 일반적 으로 dtw의 값은 무엇입니까? 이것은 VR을 압축하기 위한 올바른 알고리즘입니다. 정확히 VR이며, 어쨌든 데이터가 어떻게 되든 상관하지 않습니다.

데이터를 적절하게 압축하는 방법을 안다면 패킷을 받을 수 있습니까? 이미지? - 음, 아니면 데이터 패턴으로 둡니다 - 음성 인식 알고리즘을 만들 수 있는 것은 이러한 데이터 패턴입니다.

이것이 내가 dtw 가 어떻게 사용되는지 보는 방법입니다.

원칙적으로 dtw는 Fin.VR, IMHO에 적용할 수 있습니다. 변환 후 데이터 손실이 없으면(즉, 역변환이 가능함) Fin.VR에 적용하는 것이 합리적입니다.

추신: 몇 년 전에 기사를 읽었습니다. https://habr.com/en/post/135087/

 
이고르 마카누 :

글쎄, 나는 이미이 주제를 연구했습니다. 내 자신의 말로라면 다음과 같습니다.

여기에서 일반적 으로 dtw의 값은 무엇입니까? 이것은 VR을 압축하기 위한 올바른 알고리즘입니다. 정확히 VR이며, 어쨌든 데이터가 어떻게 되든 상관하지 않습니다.

데이터를 적절하게 압축하는 방법을 안다면 패킷을 받을 수 있습니까? 이미지? - 음, 아니면 데이터 패턴으로 둡니다 - 음성 인식 알고리즘을 만들 수 있는 것은 이러한 데이터 패턴입니다.

이것이 내가 dtw 가 어떻게 사용되는지 보는 방법입니다.

원칙적으로 dtw는 Fin.VR, IMHO에 적용할 수 있습니다. 변환 후 데이터 손실이 없으면(즉, 역변환이 가능함) Fin.VR에 적용하는 것이 합리적입니다.

추신: 몇 년 전에 기사를 읽었습니다. https://habr.com/en/post/135087/

뭐, 나중에 어떻게든 받을 수 있겠죠. mb 반환에서 동일한 패턴을 추출하려면

반면에 신경망이 있는 경우
 
막심 드미트리예프스키 :

반면에 신경망이 있는 경우

아, 몰라요. 이 모든 연구를 포기했습니다. 흥미로운 일이지만 IMHO, 더 쉽게 이해할 수 있는 방법이 있어야 합니까? 시장에서 무엇을

NS에 대해서는 데이터 처리가 NS의 구성 또는 유형보다 더 중요하다는 것을 알고 있습니다. IMHO, dtw는 VR의 올바른 처리입니다(VR 처리 시 !!!) 데이터 시퀀스가 중요합니다!

음성 처리에서 거의 동일한 dtw - bukaf의 시퀀스/교체가 중요합니까? ;)


상향:

NN에서 훈련 중에 VR 데이터(막대)의 슬라이딩 윈도우 만 제공된다면 IMHO는 NN의 입력을 통해 1,2,3 ... N 입력을 정확히 어떻게 그렸는지에 대한 환상입니다. NN은 우리가 원하는대로 데이터가 순차적으로 공급된다는 것을 인식합니다. 내부 모든 입력이 혼합됩니다. IMHO, 이것은 국회의 슬라이딩 윈도우가 아닙니다.

 
이고르 마카누 :

아, 몰라요. 이 모든 연구를 포기했습니다. 흥미로운 일이지만 IMHO, 더 쉽게 이해할 수 있는 방법이 있어야 합니까? 시장에서 무엇을

NS에 대해서는 데이터 처리가 NS의 구성 또는 유형보다 더 중요하다는 것을 알고 있습니다. IMHO, dtw는 VR의 올바른 처리입니다(VR 처리 시 !!!) 데이터 시퀀스가 중요합니다!

음성 처리에서 거의 동일한 dtw - bukaf의 시퀀스/교체가 중요합니까? ;)

내가 아는 한, 이러한 문제에 정통하지 않은 경우 순환 및 컨볼루션 신경망이 오랫동안 이를 위해 사용되었습니다. 예를 들어 Google의 seq2seq(신경 언어 처리) 알고리즘이 있습니다. 이 배경에 대해 색이 바랜 것처럼 보이지 않을 것입니다. 나는 아무 이유 없이 의자에 롤을 짜내고 싶지 않을 것입니다. :)
 
막심 드미트리예프스키 :
내가 아는 한, 이러한 문제에 정통하지 않은 경우에는 이를 위해 반복적이고 초정밀한 신경망이 오랫동안 사용되어 왔습니다. 예를 들어 Google의 seq2seq 알고리즘이 있습니다. 이 배경에 대해 색이 바랜 것처럼 보이지 않을 것입니다. 나는 아무 이유 없이 의자에 롤을 짜내고 싶지 않을 것입니다. :)

나는 반복적이고 초정밀한 것들에 대해 읽었습니다. 음, 그렇습니다. 하지만 모든 예제는 항상 그렇듯이 이미지 인식에 관한 것이고, 거기에서 생성과 같은 팔레트 압축으로 트릭을 시작합니다.

누가 알겠습니까, 음파는 사진보다 Fin.VR에 더 가깝습니다. 또한 고정되어 있지 않으며 사진은 복원하려고 시도하는 것보다 처리 중에 정보를 압축하여 더 많이 손실되는 것 같습니다. NS가 더 빠르고 더 잘 학습하는 것 같습니다.

 
이고르 마카누 :

나는 반복적이고 초정밀한 것들에 대해 읽었습니다. 음, 그렇습니다. 하지만 모든 예제는 항상 그렇듯이 이미지 인식에 관한 것이고, 거기에서 생성과 같은 팔레트 압축으로 트릭을 시작합니다.

누가 알겠습니까, 음파는 사진보다 Fin.VR에 더 가깝습니다. 또한 고정되어 있지 않으며 사진은 복원하려고 시도하는 것보다 처리 중에 정보를 압축하여 더 많이 손실되는 것 같습니다. NS가 더 빠르고 더 잘 학습하는 것 같습니다.

NLP 및 seq2seq 모양, 이것은 음성 사운드 등에 대한 것입니다.
 
막심 드미트리예프스키 :
NLP 및 seq2seq 모양, 이것은 음성 사운드 등에 대한 것입니다.

일반적으로 나는 자료를 다시 읽었지만 그들에 대해 아무 것도 듣지 못했습니다. 오! 내일 봐야겠다, thx

사유: