트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1504

 
막심 드미트리예프스키 :
HMM은 SOM과 근본적으로 어떻게 다릅니까? 카드가 2개의 클러스터를 만드는 경우

나는 kohonen의 650페이지 중 약 100페이지를 읽었습니다. 자기 조직화 지도(모든 관련 분야에 대한 끔찍한 읽기이지만 SOM에 대한 것은 거의 없음), 간단히 말해서 "순수한 SOM"은 정적 데이터에 대한 뉴런 연결의 형성입니다. 관련 기능이 있는 데이터가 많을수록 뉴런의 연결이 더 강력해집니다.

추신 : 주 초에 나는 답변 대신 SOM에 대한 기사의 저자와 논쟁했습니다. 저자는 일종의 holivar를 재생하려고했습니다. IMHO SOM은 NN의 작업에 대한 고전적인 이해에서 신경망이 아닙니다. , SOM 학습 프로세스가 NN 학습과 유사할 뿐입니다.

 
이고르 마카누 :

나는 Kohonen: Self-organizing maps의 약 100페이지를 읽었습니다(모든 관련 분야에서 끔찍한 읽기이지만 SOM에 대한 내용은 거의 없음). 간단히 말해서 "순수한 SOM"은 정적 데이터에 대한 뉴런 연결의 형성, 더 많은 데이터 관련 기능이 있으며 뉴런의 더 강한 연결

추신 : 주 초에 나는 답변 대신 SOM에 대한 기사의 저자와 논쟁했습니다. 저자는 일종의 holivar를 재생하려고했습니다. IMHO SOM은 NN의 작업에 대한 고전적인 이해에서 신경망이 아닙니다. , SOM 학습 프로세스가 NN 학습과 유사할 뿐입니다.

예, 일반적으로 질문과 함께 질문에 대답하거나 어딘가에 보내는 것이 일반적으로 여기에서 허용되는 것 같습니다))

숨겨진 마르코프 모델처럼 보이는지 아닌지 궁금합니다. 클러스터를 숨겨진 상태로 간주하면 .. 여가 시간에 Google을 검색해야합니다.

예를 들어 클러스터링은 EM 알고리즘을 사용하고 Markov 체인을 훈련하기 때문입니다. 그리고 메기도 무리지어

 

Nikolai의 멋진 기사를 찾았습니다. 추천합니다 ....

https://www.finam.ru/analysis/newsitem391640076C/

기사는 강력하지만 댓글을 읽고 소름이 돋았습니다. 댓글이 진행되는 동안 적절한 댓글이 하나도 없고 + 99%가 완전히 주제에서 벗어났습니다. 여기에서 자주 일어나는 일입니다.)

Опыт построения торговых роботов
Опыт построения торговых роботов
  • www.finam.ru
Данная статья имеет цель осветить ряд результатов и подходов полученных мною при исследовании исторических данных на фондовых рынках. Я не ставлю своей целью продать кому-то "черный ящик", который сделает его богаче. Однако надеюсь найти серьезных исследователей и возможно последователей, с которыми возможно обсуждение и обмен результатами...
 

선생님은 지금 재정을 다루고 있습니까?


 
mytarmailS :

강한 기사

저명한 남편이 몇 년 동안 레이크를 능숙하게 걸었지만 Metatrader를 설치하지 못했지만 수년 동안 자신의 자전거를 만들고 원시 지표를 가진 모든 상인은 원시적이라고 말했습니다. 성배로 가는 길: "   Chebyshev, Butterworth, Hilbert는 12차까지 필터링, Halley 필터, 직접 및 역 푸리에 변환, 직접 및 역 코사인 변환, Berg 스펙트럼 추정 방법, Prony, 최대 엔트로피 방법, ARCC 예측자, 다항식 필터링 방법. "

이 모든 것을 테스트하는 데 수년 동안 데모에 앉아 있었지만 MT에서 5분 안에 TS를 테스트할 수 있다는 사실은 아직 밝혀지지 않았습니다.)))


예복으로 치장된 이 교사들, 한 물리학자가 여기에 쓴 것처럼 10~15개의 더 많은 발명품은 위에서 10센트입니다. )))

 
이고르 마카누 :

예복으로 치장된 이 교사들, 한 물리학자가 여기에 쓴 것처럼 10~15개의 더 많은 발명품은 위에서 10센트입니다. )))

상태도 있지만 이것은 당신을위한 것이 아닙니다. 당신은 아직 준비가되지 않았습니다 ... 당신은 아직 schochastics를 최적화하기 위해 5-10 년이 있으며 그런 다음 유용한 것과 Mr.를 구별하기 시작할 것입니다 ..

 
mytarmailS :

상태도 있지만 이것은 당신을위한 것이 아닙니다. 당신은 아직 준비가되지 않았습니다 ... 당신은 아직 schochastics를 최적화하기 위해 5-10 년이 있으며 그런 다음 유용한 것과 Mr.를 구별하기 시작할 것입니다 ..

글쎄, 그들은 당신이 가진 링크가 유료이고 광고라고 즉시 쓸 것입니다. 기사에는 정확히 0 정보가 있습니다.

왜 무례합니까?

 
mytarmailS :

상태도 있지만 이것은 당신을위한 것이 아닙니다. 당신은 아직 준비가되지 않았습니다 ... 당신은 아직 schochastics를 최적화하기 위해 5-10 년이 있으며 그런 다음 유용한 것과 Mr.를 구별하기 시작할 것입니다 ..

나는 읽어야 했다.
기사는 실제로 매우 유익하지 않습니다.
 
이고르 마카누 :

글쎄, 그들은 당신이 가진 링크가 유료이고 광고라고 즉시 쓸 것입니다. 기사에는 정확히 0 정보가 있습니다.

왜 무례합니까?

단 두 단어 - 얼굴 손바닥

 
유리 아사울렌코 :
나는 읽어야 했다.
기사는 실제로 매우 유익하지 않습니다.

블로그 읽기

http://www.kamynin.ru/?cat=8&paged=55

바늘에 읽기
사유: